JP2010178318A - Imaging device and imaging method - Google Patents

Imaging device and imaging method Download PDF

Info

Publication number
JP2010178318A
JP2010178318A JP2009021993A JP2009021993A JP2010178318A JP 2010178318 A JP2010178318 A JP 2010178318A JP 2009021993 A JP2009021993 A JP 2009021993A JP 2009021993 A JP2009021993 A JP 2009021993A JP 2010178318 A JP2010178318 A JP 2010178318A
Authority
JP
Japan
Prior art keywords
image
moving body
moving
continuous
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009021993A
Other languages
Japanese (ja)
Other versions
JP2010178318A5 (en
JP5209521B2 (en
Inventor
Kosuke Matsubara
浩輔 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009021993A priority Critical patent/JP5209521B2/en
Publication of JP2010178318A publication Critical patent/JP2010178318A/en
Publication of JP2010178318A5 publication Critical patent/JP2010178318A5/ja
Application granted granted Critical
Publication of JP5209521B2 publication Critical patent/JP5209521B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To properly extract a representative image useful for a user from consecutive images. <P>SOLUTION: A digital camera 1 includes an imaging element 12 and continuously performs imaging to generate a plurality of image data, and obtains consecutive images. In the digital camera 1, a motion detecting unit 15 detects motion between captured images constituting the consecutive images and detects a moving object appearing in the consecutive images. A consecutive shooting scene classifying unit 281 identifies a change of state of the moving object in the consecutive images based on detection results by the motion detecting unit 15, and classifies the consecutive images into consecutive shooting scenes. A consecutive image dividing unit 283 divides the consecutive images at positions corresponding to the consecutive shooting scenes having been classified by the consecutive shooting scene classifying unit 281, and extracts the captured image at the divided position as a representative image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、連続的に撮影処理を行って連続画像を取得する撮影装置および撮影方法に関するものである。   The present invention relates to a photographing apparatus and a photographing method that perform continuous photographing processing to acquire continuous images.

従来から、例えばデジタルカメラ等の撮影装置において、被写体を短時間で連続的に撮影する連続撮影モード(連写モード)を備えたものが知られている。この連写モードでは、所定の撮影間隔で順次撮影画像を生成し、最終的に所定の連写枚数の撮影画像で構成される連続画像を得る。   2. Description of the Related Art Conventionally, there has been known a photographing apparatus such as a digital camera that has a continuous photographing mode (continuous shooting mode) for continuously photographing a subject in a short time. In this continuous shooting mode, captured images are sequentially generated at a predetermined shooting interval, and finally a continuous image composed of a predetermined number of continuous shooting images is obtained.

ところで、連写モードで撮影された撮影画像は、ユーザによって順次閲覧され、必要に応じて選択された全部または一部が保存される。このため、連写枚数が増加すると、ユーザは、撮影画像を閲覧するために時間を費やさなければならず、所望の画像を選択して保存するための作業負担が増大する。   By the way, the photographed images photographed in the continuous shooting mode are sequentially browsed by the user, and all or a part selected as necessary is stored. For this reason, when the number of continuous shots increases, the user must spend time to view the captured image, and the work burden for selecting and storing a desired image increases.

この種の問題を解決するため、ユーザにとって有用な画像を提示するための技術として、連続して撮影された複数の画像の中から代表的な画像(代表画像)を抽出する技術が種々提案されている。例えば特許文献1では、画像の特徴量を抽出して評価を行い、プリントに値する最良な画像を自動的に抽出している。特許文献2では、画像と対応付けて撮影時におけるデジタルカメラの状態情報等の付属情報を記憶しておき、プリント時に付属情報を参照することで、プリントに適した画像を配列した1枚のプリントデータを取得している。特許文献3では、複数の画像データを解析して被写体の動きを検出し、検出した動きに基づいて保存すべき画像データを選択している。   In order to solve this type of problem, various techniques for extracting a representative image (representative image) from a plurality of consecutively photographed images have been proposed as techniques for presenting an image useful for the user. ing. For example, in Patent Document 1, a feature amount of an image is extracted and evaluated, and the best image worth printing is automatically extracted. In Patent Document 2, attached information such as digital camera status information at the time of shooting is stored in association with an image, and a single print in which images suitable for printing are arranged by referring to the attached information at the time of printing. Data is being acquired. In Patent Document 3, a plurality of pieces of image data are analyzed to detect the movement of a subject, and image data to be stored is selected based on the detected movement.

特開2007−88594号公報JP 2007-88594 A 特開2007−81973号公報JP 2007-81973 A 特開2004−180076号公報JP 2004-180076 A

ところで、撮影装置が備える連写モードは、通常、動きのある被写体(移動体)を撮影する場合に利用される。したがって、連写モードで得られる連続画像では、連続画像内で移動体がどのように動いたかによってどの撮影画像が有用なのかが異なる。このため、例えば特許文献1のような画像単体の特徴量を算出して画像を抽出する手法や、特許文献2のような撮影時のカメラの状態情報をもとに画像を抽出する手法では、代表画像を適切に抽出できない場合があった。また、特許文献3の手法では、隣接する画像間の動きについては考慮されているものの、連続画像全体として移動体がどのように動いたかは考慮されていなかった。   By the way, the continuous shooting mode provided in the photographing apparatus is normally used when photographing a moving subject (moving body). Therefore, in the continuous image obtained in the continuous shooting mode, which captured image is useful depends on how the moving body moves in the continuous image. For this reason, for example, in a technique for calculating a feature amount of a single image as in Patent Document 1, and a technique for extracting an image based on camera state information at the time of shooting as in Patent Document 2, In some cases, the representative image could not be extracted properly. Further, in the method of Patent Document 3, although the movement between adjacent images is taken into consideration, how the moving body moves as a whole continuous image is not taken into consideration.

本発明は、上記に鑑みてなされたものであって、連続画像の中からユーザにとって有用な代表画像を適切に抽出することができる撮影装置および撮影方法を提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide a photographing apparatus and a photographing method capable of appropriately extracting a representative image useful for a user from continuous images.

上述した課題を解決し、目的を達成するため、本発明にかかる撮影装置は、連続的に撮影処理を行って複数の撮影画像の画像データで構成される連続画像を取得する連続画像取得部と、前記複数の撮影画像毎に、隣接する撮影画像との間の動きを検出して前記撮影画像中の移動体を検出する移動体検出部と、前記移動体検出部による検出結果をもとに、前記連続画像内での前記移動体の状態変化を判別する変化判別部と、前記変化判別部による判別結果をもとに、前記連続画像の中から代表画像を抽出する画像抽出部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes a continuous image acquisition unit that performs continuous imaging processing to acquire continuous images composed of image data of a plurality of captured images. , For each of the plurality of captured images, detecting a movement between adjacent captured images to detect a moving body in the captured image, and based on a detection result by the moving body detection unit A change discriminating unit that discriminates a state change of the moving body in the continuous image, and an image extracting unit that extracts a representative image from the continuous image based on a discrimination result by the change discriminating unit. It is characterized by providing.

また、本発明にかかる撮影装置は、上記の発明において、前記変化判別部は、前記移動体の移動方向の変化、前記移動体の移動速度の変化および前記移動体の大きさの変化の少なくともいずれか1つを判別することを特徴とする。   In the imaging device according to the present invention, in the above invention, the change determination unit includes at least one of a change in a moving direction of the moving body, a change in a moving speed of the moving body, and a change in the size of the moving body. It is characterized by discriminating one or the other.

また、本発明にかかる撮影装置は、上記の発明において、前記画像抽出部は、前記変化判別部による判別結果に応じた位置で前記連続画像を分割し、少なくとも前記分割した位置の撮影画像を前記代表画像として抽出することを特徴とする。   In the imaging device according to the present invention, in the above invention, the image extraction unit divides the continuous image at a position corresponding to a determination result by the change determination unit, and at least the captured image at the divided position is It is extracted as a representative image.

また、本発明にかかる撮影装置は、上記の発明において、前記変化判別部は、前記移動体の移動方向が所定の変化パターンに従って規則的に変化した状態を判別し、前記画像抽出部は、前記変化判別部によって前記規則的な変化が判別された場合に、前記移動体の移動方向が変化した位置で前記連続画像を分割することを特徴とする。   In the imaging device according to the present invention, in the above invention, the change determination unit determines a state in which the moving direction of the moving body changes regularly according to a predetermined change pattern, and the image extraction unit When the regular change is discriminated by the change discriminating unit, the continuous image is divided at a position where the moving direction of the moving body has changed.

また、本発明にかかる撮影装置は、上記の発明において、前記変化判別部は、前記移動体が方向を変えずに所定の方向に沿って移動した状態または前記移動体の移動方向が不規則に変化した状態を判別し、前記画像抽出部は、前記変化判別部によって前記所定方向に沿った変化または前記不規則な変化が判別された場合に、前記移動体の移動開始位置から前記移動体の移動終了位置までの移動経路上の中間位置で前記連続画像を分割することを特徴とする。   In the imaging device according to the present invention, in the above invention, the change determination unit is configured such that the moving body moves along a predetermined direction without changing the direction or the moving direction of the moving body is irregular. The changed state is determined, and the image extracting unit determines whether the moving body starts moving from the moving start position of the moving body when the change determining section determines a change along the predetermined direction or the irregular change. The continuous image is divided at an intermediate position on the movement path to the movement end position.

また、本発明にかかる撮影装置は、上記の発明において、前記変化判別部は、前記移動体が方向を変えずに所定の方向に沿って移動した状態または前記移動体の移動方向が不規則に変化した状態を判別し、前記画像抽出部は、前記変化判別部によって前記所定方向に沿った変化または前記不規則な変化が判別された場合に、前記移動体が撮影画角の中央に最も近接した位置で前記連続画像を分割することを特徴とする。   In the imaging device according to the present invention, in the above invention, the change determination unit is configured such that the moving body moves along a predetermined direction without changing the direction or the moving direction of the moving body is irregular. The changed state is determined, and when the change determining unit determines a change along the predetermined direction or the irregular change, the moving body is closest to the center of the shooting angle of view. The continuous image is divided at the positions.

また、本発明にかかる撮影装置は、上記の発明において、前記移動体検出部は、複数の移動体を検出可能に構成されており、前記変化判別部は、前記移動体同士が重なった状態を重なり状態として判別し、前記画像抽出部は、前記移動体同士が重なった位置で前記連続画像を分割することを特徴とする。   In the imaging device according to the present invention, in the above invention, the moving body detection unit is configured to be able to detect a plurality of moving bodies, and the change determination unit has a state in which the moving bodies overlap each other. The overlapped state is determined, and the image extraction unit divides the continuous image at a position where the moving bodies overlap each other.

また、本発明にかかる撮影装置は、上記の発明において、前記移動体検出部は、複数の移動体を検出可能に構成されており、前記変化判別部は、前記複数の移動体のうちのいずれか1つの移動体の位置を始点として他の移動体が移動を開始した状態を分裂状態として判別し、前記画像抽出部は、前記移動体が分裂した位置で前記連続画像を分割することを特徴とする。   In the imaging device according to the present invention, in the above invention, the moving body detection unit is configured to be able to detect a plurality of moving bodies, and the change determination unit is any of the plurality of moving bodies. A state in which the moving body starts moving from the position of one moving body is determined as a split state, and the image extraction unit divides the continuous image at a position where the moving body is split. And

また、本発明にかかる撮影装置は、上記の発明において、前記画像抽出部は、前記移動体の移動開始位置および前記移動体の移動終了位置の少なくともいずれかの位置で前記連続画像をさらに分割することを特徴とする。   In the imaging device according to the present invention, in the above invention, the image extraction unit further divides the continuous image at at least one of a movement start position of the moving body and a movement end position of the moving body. It is characterized by that.

また、本発明にかかる撮影装置は、上記の発明において、前記画像抽出部は、前記分割した位置の撮影画像と撮影順が隣接する所定枚数の撮影画像を前記代表画像として抽出することを特徴とする。   Further, the imaging device according to the present invention is characterized in that, in the above invention, the image extraction unit extracts a predetermined number of captured images adjacent to the captured images at the divided positions as the representative images. To do.

また、本発明にかかる撮影装置は、上記の発明において、前記画像抽出部は、前記変化判別部による判別結果に従って前記移動体の移動区間内を1つ以上の区間に区切り、前記区間のうちの少なくとも1つの区間内を分割することを特徴とする。   In the imaging device according to the present invention, in the above invention, the image extracting unit divides the moving section of the moving body into one or more sections according to a determination result by the change determining section, At least one section is divided.

また、本発明にかかる撮影装置は、上記の発明において、前記代表画像を表示部に表示する処理を行う表示処理部を備えることを特徴とする。   Moreover, the imaging device according to the present invention is characterized in that, in the above-mentioned invention, a display processing unit that performs processing for displaying the representative image on a display unit is provided.

また、本発明にかかる撮影装置は、上記の発明において、前記表示処理部は、前記画像抽出部によって前記代表画像が複数抽出された場合に、各代表画像を一覧で表示または撮影順に順番に表示する処理を行うことを特徴とする。   In the imaging device according to the present invention, in the above invention, the display processing unit displays each representative image in a list or in order of shooting when a plurality of the representative images are extracted by the image extraction unit. It is characterized in that the processing is performed.

また、本発明にかかる撮影方法は、連続的に撮影処理を行って複数の撮影画像の画像データで構成される連続画像を取得する連続画像取得工程と、前記複数の撮影画像毎に、隣接する撮影画像との間の動きを検出して前記撮影画像中の移動体を検出する移動体検出工程と、前記移動体検出工程による検出結果をもとに、前記連続画像内での前記移動体の状態変化を判別する変化判別工程と、前記変化判別工程による判別結果をもとに、前記連続画像の中から代表画像を抽出する画像抽出工程と、を含むことを特徴とする。   In addition, the imaging method according to the present invention includes a continuous image acquisition step of continuously performing imaging processing to acquire a continuous image composed of image data of a plurality of captured images, and the plurality of captured images adjacent to each other. A moving body detecting step of detecting movement between the picked-up images and detecting a moving body in the picked-up image; and a detection result of the moving body detecting step based on a detection result of the moving body. A change determining step for determining a state change; and an image extracting step for extracting a representative image from the continuous image based on a determination result obtained by the change determining step.

本発明によれば、隣接する撮影画像間で動き検出を行って連続画像内に出現する移動体を検出し、検出した移動体の連続画像内での状態変化を判別することによって、連続画像の中から代表画像を抽出することができる。したがって、ユーザにとって有用な代表画像を適切に抽出することができる。   According to the present invention, motion detection is performed between adjacent captured images to detect a moving object that appears in a continuous image, and a state change of the detected moving object in the continuous image is determined, thereby determining the state of the continuous image. A representative image can be extracted from the inside. Therefore, a representative image useful for the user can be appropriately extracted.

以下、図面を参照し、本発明の好適な実施の形態について詳細に説明する。本実施の形態では、本発明の撮影装置をデジタルカメラに適用した場合を例にとって説明する。なお、この実施の形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, a case where the photographing apparatus of the present invention is applied to a digital camera will be described as an example. Note that the present invention is not limited to the embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.

ここで、本実施の形態のデジタルカメラは、撮影モードの1つとして連写モードを備えている。この連写モードでは、例えば連写開始が指示されたタイミングで連写を開始し、所定の撮影間隔で順次撮影画像を生成することによって、最終的に所定の連写枚数の撮影画像で構成される連続画像を取得する。なお、連写枚数は、例えばユーザ操作に従って決定される。例えば、連写モード中の操作入力に応じて連写を終了する構成としてもよいし、事前に操作入力された連写枚数に従って連続画像を取得する構成としてもよい。本実施の形態は、この連写モードで取得される連続画像の中から、ユーザにとって有用と推定される撮影画像を代表画像として抽出し、ユーザに提示するものである。なお、本実施の形態では、連写画像中に動きのある被写体(移動体)が含まれることを前提としている。   Here, the digital camera of this embodiment includes a continuous shooting mode as one of the shooting modes. In this continuous shooting mode, for example, the continuous shooting is started at the timing when the start of continuous shooting is instructed, and the shot images are sequentially generated at a predetermined shooting interval, so that it is finally composed of a predetermined number of shot images. Acquire continuous images. Note that the number of continuous shots is determined according to a user operation, for example. For example, a configuration may be adopted in which continuous shooting is terminated in response to an operation input during the continuous shooting mode, or a continuous image may be acquired in accordance with the number of continuous shooting operations input in advance. In the present embodiment, a captured image that is estimated to be useful to the user is extracted as a representative image from the continuous images acquired in the continuous shooting mode, and presented to the user. In the present embodiment, it is assumed that a subject (moving body) that moves is included in the continuous shot image.

(実施の形態1)
実施の形態1では、取得した連続画像内に出現する移動体の状態変化を判別してその連写シーンを分類する。そして、分類した連写シーンに応じて連続画像を分割し、分割位置をもとに代表画像を抽出する。以下、連写シーンをシーンa〜シーンeの5つに分類する場合について説明する。なお、例示する連写シーンの分類手法は一例であって、適宜設定できる。
(Embodiment 1)
In the first embodiment, a state change of a moving body that appears in the acquired continuous image is determined, and the continuous shooting scene is classified. Then, continuous images are divided according to the classified continuous shooting scenes, and representative images are extracted based on the division positions. Hereinafter, a case where the continuous shooting scene is classified into five scenes a to e will be described. The illustrated continuous shooting scene classification method is an example, and can be set as appropriate.

例えば、連続画像内で移動体が方向を変えずに所定の方向に沿って移動した場合(移動方向が一定方向の場合)には、その連写シーンをシーンaとする。また、移動体の移動方向が不規則で定まらず安定していない場合(移動方向が不安定の場合)には、その連写シーンをシーンbとする。また、移動方向が所定の変化パターンに従って規則的に変化した状態を判別した場合には、その連写シーンをシーンcとする。また、連続画像内で複数の移動体が検出された場合であって、これらの移動体同士が重なった状態を判別した場合に、その連写シーンをシーンdとする。そして、連続画像内で複数の移動体が検出された場合であって、1つの移動体が2つ以上に分裂した状態を判別した場合には、その連写シーンをシーンeとする。   For example, when a moving body moves in a continuous image along a predetermined direction without changing its direction (when the moving direction is a constant direction), the continuous shooting scene is set as a scene a. If the moving direction of the moving body is irregular and not stable (when the moving direction is unstable), the continuous shooting scene is set as a scene b. In addition, when it is determined that the moving direction is regularly changed according to a predetermined change pattern, the continuous shooting scene is set as a scene c. Further, when a plurality of moving objects are detected in the continuous image and it is determined that these moving objects overlap each other, the continuous shooting scene is set as a scene d. When a plurality of moving objects are detected in the continuous image and it is determined that one moving object is divided into two or more, the continuous shooting scene is set as a scene e.

図1は、シーンaに分類される連続画像の一例を示す図であり、連続画像を構成する5枚の撮影画像I11〜I19を時系列順(撮影順)に示している。図1では、移動体として鳥O1を写しており、木の枝に止まった鳥(移動体)O1が羽ばたき始めて枝から飛び立ち、フレームアウトする様子が写されている。ここで、移動体O1は、画像中の右下方から左上方に向けて略一直線上を移動している。このように、移動体O1が所定の方向に沿って移動した連写シーンでは、移動体O1が停止した状態を写した撮影画像I11や移動体O1がフレームアウトした後を写した撮影画像I19に比べて、移動体O1が移動を開始した位置の撮影画像I13や、移動途中を写した撮影画像I15、フレームアウトした位置の撮影画像I17がユーザにとって有用と推定できる。   FIG. 1 is a diagram showing an example of continuous images classified into the scene a, and shows five captured images I11 to I19 constituting the continuous image in chronological order (imaging order). In FIG. 1, a bird O1 is shown as a moving object, and a bird (moving object) O1 that has stopped on a branch of a tree starts to flapping, jumps off the branch, and is shown out of the frame. Here, the moving body O1 is moving on a substantially straight line from the lower right to the upper left in the image. As described above, in the continuous shooting scene in which the moving body O1 moves along a predetermined direction, the captured image I11 that captures the state in which the moving body O1 is stopped and the captured image I19 that captures after the moving body O1 is out of frame are displayed. In comparison, it can be estimated that the photographed image I13 at the position where the moving body O1 starts moving, the photographed image I15 taken during the movement, and the photographed image I17 at the position out of the frame are useful for the user.

また、図2は、シーンaに分類される連続画像の他の例を示す図であり、連続画像を構成する5枚の撮影画像I21〜I29を時系列順(撮影順)に示している。図2では、移動体として車O2を写しており、向かって右側から出現した車(移動体)O2が左側に移動してフレームアウトする様子を示している。図2の例では、移動体O2が移動を開始した位置(この場合はフレームインした位置)の撮影画像I21や、移動途中、特に画面の中央付近に位置した撮影画像I25、フレームアウトした位置の撮影画像I29が、ユーザにとって有用と推定できる。   FIG. 2 is a diagram illustrating another example of the continuous images classified into the scene a, and shows the five captured images I21 to I29 constituting the continuous image in time series order (imaging order). FIG. 2 shows a car O2 as a moving body, and shows a state where the car (moving body) O2 that appears from the right side moves toward the left side and goes out of the frame. In the example of FIG. 2, the captured image I21 at the position where the moving body O2 has started moving (in this case, the frame-in position), the captured image I25 positioned in the middle of the screen, particularly near the center of the screen, and the position out of the frame. It can be estimated that the captured image I29 is useful to the user.

そこで、連写シーンがシーンaに分類された連続画像については、移動体の移動開始位置、移動体の移動経路上の中間位置(以下、「移動中心位置」と呼ぶ。)、移動終了位置(移動途中で消失した位置を含む)またはフレームアウト位置を分割位置として連続画像を分割し、分割位置の撮影画像を代表画像として抽出することによって、代表画像をユーザに提示する。   Therefore, for a continuous image in which the continuous shooting scene is classified into the scene a, the movement start position of the moving body, the intermediate position on the movement path of the moving body (hereinafter referred to as “movement center position”), and the movement end position ( The representative image is presented to the user by dividing the continuous image using the frame-out position as a division position and extracting the captured image at the division position as the representative image.

これによれば、例えば図1の例では、移動体O1の動き始めの撮影画像I13や移動途中(移動中心位置)の撮影画像I15、フレームアウト位置の撮影画像I17を代表画像として提示することができる。したがって、ユーザは、提示された代表画像によって連続画像の内容を把握できる。そして例えば、これらの代表画像の中から1つを選択し、選択した代表画像から順番に撮影順が前後に隣接する撮影画像を閲覧するといったことが可能となる。したがって、連続画像を構成する全ての撮影画像を先頭から順次閲覧していく必要がないため、撮影画像I11に示すような移動体O1が木の枝に止まった状態が長時間続くような場合であっても、所望の撮影画像を簡単に選択することができ、ユーザの作業負担を軽減できる。   According to this, for example, in the example of FIG. 1, the captured image I13 at the start of movement of the moving body O1, the captured image I15 in the middle of movement (moving center position), and the captured image I17 at the frame-out position can be presented as representative images. it can. Therefore, the user can grasp the content of the continuous image from the presented representative image. Then, for example, it is possible to select one of these representative images and browse the captured images whose shooting order is adjacent to each other in order from the selected representative image. Accordingly, since it is not necessary to sequentially browse all the captured images constituting the continuous image from the top, the state in which the moving body O1 as shown in the captured image I11 stays on the tree branch continues for a long time. Even if it exists, a desired picked-up image can be selected easily and a user's work burden can be reduced.

また、図3は、シーンcに分類される連続画像の一例を示す図であり、連続画像を構成する5枚の撮影画像I31〜I39を時系列順(撮影順)に示している。図3では、移動体としてイルカO3を写しており、水面から出現したイルカ(移動体)O3が放物線に沿って移動し、放物線の頂点位置で輪をくぐった後水面に潜る様子が写されている。本例では、移動開始位置の撮影画像I31や、移動終了位置(図3では消失位置)の撮影画像I39の他、移動体O3が輪をくぐっている撮影画像I35がユーザにとって有用と推定される。   FIG. 3 is a diagram illustrating an example of continuous images classified into the scene c, and shows the five captured images I31 to I39 constituting the continuous image in time series order (imaging order). In FIG. 3, a dolphin O3 is shown as a moving object, and a state where the dolphin (moving object) O3 that has emerged from the water surface moves along a parabola and passes through a ring at the apex position of the parabola and then dives on the water surface. Yes. In this example, it is presumed that the photographed image I31 at the movement start position and the photographed image I39 at the movement end position (disappearance position in FIG. 3) as well as the photographed image I35 through which the moving body O3 passes are useful for the user. .

そこで、移動体の移動方向が所定の変化パターンに従って規則的に変化しており、連写シーンがシーンcに分類された連続画像については、移動体の移動開始位置、移動体の移動方向の変化位置(図3に例示した移動体O3が放物線に沿って移動した場合であればその頂点位置)、移動終了位置またはフレームアウト位置を分割位置として連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。なお、ここでは、移動体が放物線に沿って移動した場合を例示したが、これに限定されるものではなく、適宜の変化パターンを検出し、移動方向が変化する位置で連続画像を分割することとしてよい。また、複数の位置で方向が変化している場合には、各位置の中から1つまたは複数の位置を選出して分割位置としてもよいし、全ての位置をそれぞれ分割位置としてもよい。   Therefore, for a continuous image in which the moving direction of the moving object is regularly changed according to a predetermined change pattern and the continuous shooting scene is classified into the scene c, the moving start position of the moving object and the change of the moving direction of the moving object are changed. The continuous image is divided by using the position (the vertex position if the moving body O3 illustrated in FIG. 3 moves along the parabola), the movement end position or the frame-out position as a division position, and the captured image at the division position is representative. Extract as an image. In addition, although the case where the moving body moved along a parabola is illustrated here, the present invention is not limited to this, and an appropriate change pattern is detected and a continuous image is divided at a position where the moving direction changes. As good as Further, when the direction changes at a plurality of positions, one or a plurality of positions may be selected from the positions to be divided positions, or all positions may be set as the divided positions.

また、図4は、シーンdに分類される撮影画像の一例を示す図であり、連続画像を構成する5枚の撮影画像I41〜I49を時系列順(撮影順)に示している。図4では、移動体である人物O41が別の移動体であるボールO43をバッティングする様子を写している。本例では、移動体(人物)O41の移動開始位置(バッティング動作の開始位置)の撮影画像I41や、移動体(ボール)O43の移動開始位置(フレームインした位置)の撮影画像I43、移動体(ボール)O43のフレームアウト位置である撮影画像I47の他、バッティングの瞬間、すなわち移動体(人物が持つバット)O41と移動体(ボール)O43とが重なった位置の撮影画像I45がユーザにとって有用と推定される。   FIG. 4 is a diagram illustrating an example of the captured images classified into the scene d, and shows the five captured images I41 to I49 constituting the continuous image in time series order (imaging order). FIG. 4 shows a situation where a person O41, which is a moving body, batting a ball O43, which is another moving body. In this example, the captured image I41 at the movement start position (batting operation start position) of the moving object (person) O41, the captured image I43 at the movement start position (frame-in position) of the moving object (ball) O43, and the moving object. In addition to the shot image I47 that is the frame-out position of the (ball) O43, the shot image I45 at the moment of batting, that is, the position where the moving body (bat held by the person) O41 and the moving body (ball) O43 overlap is useful for the user. It is estimated to be.

そこで、連続画像内で複数の移動体が重なっており、連写シーンがシーンdに分類された連続画像については、移動体の移動開始位置、移動体の重なり位置、移動終了位置またはフレームアウト位置を分割位置として連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。移動体同士が重なった状態としては、例示したような移動体同士が接触した場合の他、移動体が交差する場合等が挙げられる。   Therefore, for a continuous image in which a plurality of moving objects overlap in the continuous image and the continuous shooting scene is classified into the scene d, the movement start position, the overlapping position, the movement end position, or the frame-out position of the moving object. Is divided as a division position, and a captured image at the division position is extracted as a representative image. Examples of the state in which the moving bodies overlap each other include the case where the moving bodies intersect as well as the case where the moving bodies contact each other as illustrated.

また、図示しないが、シーンbに分類される連続画像としては、例えば、移動体としてアイススケートをしている人物を写した連続画像等が挙げられる。連写シーンがシーンbに分類された連続画像については、例えば、シーンaに分類された連続画像と同様に、移動体の移動開始位置、移動中心位置、移動終了位置またはフレームアウト位置を分割位置として連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。   Although not shown, examples of the continuous image classified into the scene b include a continuous image in which a person who is ice skating as a moving body is captured. For a continuous image in which the continuous shooting scene is classified into the scene b, for example, similarly to the continuous image classified into the scene a, the movement start position, the movement center position, the movement end position, or the frame-out position of the moving object is divided into positions. Then, the continuous image is divided, and the captured image at the division position is extracted as a representative image.

また、シーンeに分類される連続画像としては、例えば、移動体として打ち上げ花火を写した連続画像等が挙げられる。連続画像内で移動体が分裂しており、連写シーンがシーンeに分類された連続画像については、例えば、移動体の移動開始位置、移動体の分裂位置、移動終了位置またはフレームアウト位置を分割位置として連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。   Moreover, as a continuous image classified into the scene e, the continuous image etc. which copied the skyrocket as a moving body are mentioned, for example. For a continuous image in which the moving object is split in the continuous image and the continuous shooting scene is classified into the scene e, for example, the moving start position, the split position, the moving end position, or the frame-out position of the moving object is set. A continuous image is divided as a division position, and a captured image at the division position is extracted as a representative image.

図5は、実施の形態1のデジタルカメラ1の構成例を示す概略ブロック図である。図5に示すように、デジタルカメラ1は、撮像光学系11、連続画像取得部としての撮像素子12、AFE(Analog Front End)13、フレームメモリ14、移動体検出部としての動き検出部15、画像処理部16、顔検出部17、記録媒体I/F18、記録媒体保持部19、記録媒体20、ビデオエンコーダ21、表示ドライバ22、表示部23、ビデオ信号出力端子24、操作部25、RAM26、ROM27、コントローラ28等を備える。   FIG. 5 is a schematic block diagram illustrating a configuration example of the digital camera 1 according to the first embodiment. As shown in FIG. 5, the digital camera 1 includes an imaging optical system 11, an imaging element 12 as a continuous image acquisition unit, an AFE (Analog Front End) 13, a frame memory 14, a motion detection unit 15 as a moving object detection unit, Image processing unit 16, face detection unit 17, recording medium I / F 18, recording medium holding unit 19, recording medium 20, video encoder 21, display driver 22, display unit 23, video signal output terminal 24, operation unit 25, RAM 26, A ROM 27, a controller 28, and the like are provided.

撮像光学系11は、撮像レンズ、絞り、シャッター等を含み、入射される被写体像を撮像素子12に結像する。撮像素子12は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子であり、被写体からの光束を撮像光学系11を介して受光し、光電変換することによってフレーム単位の画像データ(アナログ電気信号)を得るものである。AFE13は、撮像素子12によって得られる画像データに対してCDS(Correlated Double Sampling)やAGC(Automatic Gain Control)等のアナログ信号処理を施した後、A/D変換処理を施してデジタル電気信号に変換する。AFE13によってデジタル化された画像データは、フレームメモリ14および動き検出部15に出力されるとともに、RAM26に一時的に記録される。   The imaging optical system 11 includes an imaging lens, a diaphragm, a shutter, and the like, and forms an incident subject image on the imaging element 12. The image pickup device 12 is a solid-state image pickup device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), for example, and receives a light beam from a subject via the image pickup optical system 11 and photoelectrically converts it into frame units. Image data (analog electrical signal) is obtained. The AFE 13 performs analog signal processing such as CDS (Correlated Double Sampling) and AGC (Automatic Gain Control) on the image data obtained by the image sensor 12, and then performs A / D conversion processing to convert it into a digital electrical signal. To do. The image data digitized by the AFE 13 is output to the frame memory 14 and the motion detection unit 15 and is temporarily recorded in the RAM 26.

フレームメモリ14は、動き検出部15による作業用メモリとして用いられる。このフレームメモリ14は、2フレーム分の画像データを保持するための領域を備え、連写モード中において、今回生成した最新の撮影画像(最新画像)の画像データと前回生成した撮影画像(前回画像)の画像データとが保持される。   The frame memory 14 is used as a working memory by the motion detection unit 15. The frame memory 14 has an area for holding image data for two frames, and in the continuous shooting mode, the image data of the latest captured image (latest image) generated this time and the previously generated captured image (previous image) ) Image data.

動き検出部15は、AFE13からの画像データをもとに、連写モード中に生成される撮影画像間の動きを検出するためのものであり、所定の撮影間隔毎の連写タイミングで順次撮像素子12から取り込まれてAFE13から出力される撮影画像間で動きベクトルを求めることによって、画像間の動きを検出する。   The motion detection unit 15 is for detecting a motion between captured images generated during the continuous shooting mode based on the image data from the AFE 13, and sequentially captures images at a continuous shooting timing for each predetermined shooting interval. The motion between images is detected by obtaining a motion vector between captured images taken in from the element 12 and output from the AFE 13.

図6は、撮影画像の画角範囲Evに対して設定される移動体検出エリアEaおよび登録移動体エリアEb−1の一例を示す図である。また、図7(a)および図7(b)は、図6に続いて順次取り込まれる撮影画像の画角範囲Evに設定される移動体検出エリアEaおよび登録移動体エリアEb−2,Eb−3の一例をそれぞれ示す図である。実施の形態1では、動き検出部15は、図6に示すように、例えば前回画像の画角範囲(被写体範囲)Evのほぼ全域に対して一点鎖線で示す移動体検出エリアEaを設定するとともに、図6や図7(a)、図7(b)中に二点鎖線で示すように、既に移動体が検出されて登録されている場合には、その移動体(登録移動体)の現在位置に登録移動体エリアEb−1,Eb−2,Eb−3を設定する。ここで、移動体検出エリアEaは、画角範囲Evに対して固定的に設定される。一方、図6や図7(a)、図7(b)に示すように、登録移動体エリアEb−1,Eb−2,Eb−3は、前回生成された撮影画像との間で実行した動き検出の結果に従って決定される登録移動体の位置に設定される。   FIG. 6 is a diagram illustrating an example of the moving object detection area Ea and the registered moving object area Eb-1 set for the field angle range Ev of the captured image. 7 (a) and 7 (b) show the moving body detection area Ea and the registered moving body areas Eb-2 and Eb− that are set in the field angle range Ev of the captured images sequentially captured following FIG. It is a figure which shows an example of 3, respectively. In the first embodiment, as shown in FIG. 6, the motion detection unit 15 sets a moving body detection area Ea indicated by an alternate long and short dash line, for example, for almost the entire field angle range (subject range) Ev of the previous image. 6, FIG. 7 (a), and FIG. 7 (b), if a moving body has already been detected and registered, the current state of the moving body (registered moving body) is indicated. Registered mobile object areas Eb-1, Eb-2, and Eb-3 are set at the positions. Here, the moving body detection area Ea is fixedly set with respect to the field angle range Ev. On the other hand, as shown in FIGS. 6, 7 (a), and 7 (b), the registered mobile area Eb- 1, Eb- 2, Eb- 3 was executed with the previously generated captured image. It is set to the position of the registered moving body determined according to the result of motion detection.

そして、動き検出部15は、移動体検出エリアEaを対象に動き検出を行うことによって最新画像中に出現した移動体を検出するとともに、登録移動体エリアEb−1,Eb−2,Eb−3を対象に動き検出を行うことによって最新画像中の登録移動体の位置を追尾する。具体的には、前回画像に設定した移動体検出エリアEaについて、最新画像との間でパタンマッチングを行うとともに、前回画像に設定した登録移動体エリアEb−1,Eb−2,Eb−3について最新画像との間でパタンマッチングを行う。ここで、パタンマッチングは、精度を高めるため、移動体検出エリアEaや登録移動体エリアEb−1,Eb−2,Eb−3内に複数のマクロブロックを設定し、マクロブロック毎にその動きベクトルを求めることにより行う。例えば、図6や図7(a)、図7(b)に示す例では、移動体検出エリアEaに対して70個のマクロブロックBaを設定している。一方、図6中において画角範囲Evの外に模式的に示すように、あるいは図7(a)や図7(b)に示すように、登録移動体エリアEb−1,Eb−2,Eb−3に対しては、そのサイズに応じた数のマクロブロックBbを設定する。例えば、図6の登録移動体エリアEb−1や図7(a)の登録移動体エリアEb−2には6個のマクロブロックBbを設定しており、図7(b)の登録移動体エリアEb−3には4個のマクロブロックを設定している。なお、登録移動体エリア内に設定するマクロブロックの数は同数であってもよい。また、移動体検出エリアや登録移動体エリア内に設定するマクロブロックのサイズについては、適宜設定できる。   Then, the motion detection unit 15 detects a mobile body that appears in the latest image by performing motion detection on the mobile body detection area Ea, and also registers the mobile body areas Eb-1, Eb-2, and Eb-3. The position of the registered moving body in the latest image is tracked by performing motion detection on the target. Specifically, pattern matching is performed with the latest image for the moving body detection area Ea set for the previous image, and registered moving body areas Eb-1, Eb-2, and Eb-3 set for the previous image. Perform pattern matching with the latest image. Here, in order to improve the accuracy of pattern matching, a plurality of macroblocks are set in the mobile object detection area Ea and the registered mobile object areas Eb-1, Eb-2, and Eb-3, and the motion vector is set for each macroblock. To do so. For example, in the examples shown in FIG. 6, FIG. 7A, and FIG. 7B, 70 macroblocks Ba are set for the moving object detection area Ea. On the other hand, as schematically shown outside the angle of view range Ev in FIG. 6 or as shown in FIGS. 7A and 7B, the registered mobile body areas Eb-1, Eb-2, Eb For -3, the number of macroblocks Bb corresponding to the size is set. For example, six macroblocks Bb are set in the registered mobile area Eb-1 in FIG. 6 and the registered mobile area Eb-2 in FIG. 7A, and the registered mobile area in FIG. 7B. Four macroblocks are set in Eb-3. The number of macroblocks set in the registered mobile area may be the same. In addition, the size of the macro block set in the moving object detection area or the registered moving object area can be set as appropriate.

なお、ここでは、1つの登録移動体について登録移動体エリアEb−1,Eb−2,Eb−3を設定してこの登録移動体を追尾する場合を例示したが、実際には、移動体検出エリアEaを対象に行った動き検出によって移動体が検出されるたびに、検出された移動体が登録移動体として登録されるようになっており、動き検出部15は、登録移動体毎に登録移動体エリアを設定し、個別に動き検出を行う。   Here, the case where the registered mobile body areas Eb-1, Eb-2, and Eb-3 are set for one registered mobile body and the registered mobile body is tracked is illustrated. Each time a moving object is detected by motion detection performed on the area Ea, the detected moving object is registered as a registered moving object, and the motion detecting unit 15 registers each registered moving object. Set the mobile area and perform motion detection individually.

顔検出部17は、図5に示すように、AFE13によってデジタル化されてRAM26に記録された画像データを処理して顔を検出する。例えば、顔検出部17は、テンプレートマッチング法によって撮影画像中(より具体的には最新画像中)の顔の位置を検出し、目や鼻、口等の顔の特徴点の位置を検出することによって、顔の大きさや向き、角度等を検出する。この顔検出部17による顔検出によって、例えば撮影画像中の顔の有無、顔の位置、顔の大きさ、顔の向き、顔の角度(傾き)等が顔検出結果として得られる。なお、撮影画像中に複数の顔が含まれる場合には、顔毎に顔検出結果が得られる。   As shown in FIG. 5, the face detection unit 17 detects the face by processing the image data digitized by the AFE 13 and recorded in the RAM 26. For example, the face detection unit 17 detects the position of the face in the photographed image (more specifically, in the latest image) by the template matching method, and detects the position of the facial feature points such as eyes, nose, and mouth. To detect the size, orientation, angle, etc. of the face. By the face detection by the face detection unit 17, for example, the presence / absence of a face in the captured image, the face position, the face size, the face orientation, the face angle (tilt), and the like are obtained as face detection results. When a plurality of faces are included in the captured image, a face detection result is obtained for each face.

画像処理部16は、RAM26に一旦記録された画像データを読み出し、この画像データに対して各種の画像処理を施すとともに、記録用、あるいは表示用等に適した画像データに変換する処理を行う。例えば、撮影画像の画像データを記録する際、あるいは記録されている画像データを表示する際等に、JPEG(Joint Photographic Experts Group)方式等に基づく画像データの圧縮処理や伸張処理を行う。この画像処理部16で画像処理された画像データは、記録媒体I/F18に出力されて記録媒体20に記録され、あるいはビデオエンコーダ21に出力されて表示部23に表示される。   The image processing unit 16 reads the image data once recorded in the RAM 26, performs various image processing on the image data, and performs processing for converting the image data into image data suitable for recording or display. For example, when recording image data of a photographed image or displaying recorded image data, image data compression processing or decompression processing based on a JPEG (Joint Photographic Experts Group) method or the like is performed. The image data image-processed by the image processing unit 16 is output to the recording medium I / F 18 and recorded on the recording medium 20, or is output to the video encoder 21 and displayed on the display unit 23.

ビデオエンコーダ21は、表示用に変換された画像データを表示ドライバ22に送出する。例えば撮影モードでは、1フレーム毎に撮像素子12から取り込まれて画像処理部16によって画像処理された画像をフレーム単位で表示部23に切換表示させ、ライブビュー画像の表示を行う。一方、再生モードでは、記録媒体20から読み出されて画像処理部16よって画像処理された撮影画像を表示部23に表示させる。また、このビデオエンコーダ21は、ビデオ信号出力端子24に接続された外部機器に対し、必要に応じて表示用の画像データを出力する。表示部23は、撮影画像やライブビュー画像の他、デジタルカメラ1の各種設定情報等を表示するためのものであり、LCD(Liquid Crystal Display)やELディスプレイ(Electroluminescence Display)等の表示装置で実現される。   The video encoder 21 sends the image data converted for display to the display driver 22. For example, in the shooting mode, an image captured from the image sensor 12 for each frame and image-processed by the image processing unit 16 is switched and displayed on the display unit 23 in units of frames to display a live view image. On the other hand, in the reproduction mode, the captured image read from the recording medium 20 and image-processed by the image processing unit 16 is displayed on the display unit 23. The video encoder 21 outputs image data for display to an external device connected to the video signal output terminal 24 as necessary. The display unit 23 is for displaying various setting information of the digital camera 1 in addition to the captured image and the live view image, and is realized by a display device such as an LCD (Liquid Crystal Display) or an EL display (Electroluminescence Display). Is done.

記録媒体I/F18は、記録媒体保持部19によって挿脱自在に保持される記録媒体20に対して、記録用に変換された画像データ等の書き込みや、記録された画像データの読み出し等を行う。記録媒体20は、例えばxD−ピクチャーカード(登録商標)やコンパクトフラッシュ(登録商標)カード等のメモリカードである。   The recording medium I / F 18 performs writing of image data converted for recording, reading of recorded image data, and the like with respect to the recording medium 20 that is detachably held by the recording medium holding unit 19. . The recording medium 20 is a memory card such as an xD-picture card (registered trademark) or a compact flash (registered trademark) card.

操作部25は、連写モードを含む各種の撮影モードや再生モードといったモードの設定操作、撮影開始の指示、連写開始や連写終了の指示、撮影条件の設定操作等、ユーザによる各種操作を受け付けて操作信号をコントローラ28に通知するためのものであり、各種機能が割り当てられたボタンスイッチ、ダイヤル、各種センサ等で実現される。   The operation unit 25 performs various operations by the user, such as a setting operation of various shooting modes including a continuous shooting mode and a playback mode, an instruction to start shooting, an instruction to start and stop continuous shooting, and an operation to set shooting conditions. This is for receiving an operation signal to the controller 28 and is realized by a button switch, a dial, various sensors, etc. to which various functions are assigned.

ROM27は、デジタルカメラ1を動作させ、このデジタルカメラ1が備える種々の機能を実現するための各種のカメラプログラムや、このカメラプログラムの実行中に使用されるデータ等を予め記録する。RAM26は、画像処理部16やコントローラ28の作業用メモリとして用いられる。例えば、AFE13からの画像データ等が一時的に記録され、表示部23に表示するライブビュー画像を生成する際の作業用や撮影画像を記録媒体20に記録する際の作業用、連続画像を取得し、この連続画像の中から保存画像として選択された撮影画像を記録媒体20に記録する際の作業用等に用いられる。   The ROM 27 records various camera programs for operating the digital camera 1 and realizing various functions of the digital camera 1, data used during the execution of the camera program, and the like in advance. The RAM 26 is used as a working memory for the image processing unit 16 and the controller 28. For example, image data from the AFE 13 is temporarily recorded, and a continuous image is obtained for work when generating a live view image to be displayed on the display unit 23 or when recording a captured image on the recording medium 20. The photographed image selected as the stored image from the continuous images is used for work when recording on the recording medium 20.

コントローラ28は、操作部25からの操作信号等に応じてROM27からカメラプログラムを読み出して実行し、デジタルカメラ1を構成する各部の動作制御やメモリ制御を行ってデジタルカメラ1全体の動作を統括的に制御する。また、AF(自動焦点)、AE(自動露出)、AWB(自動ホワイトバランス)等の処理を行う。このコントローラ28は、変化判別部としての連写シーン分類部281と、画像抽出部としての連続画像分割部283と、重要度算出部285と、表示処理部としての保存画像選択処理部287とを含む。連写シーン分類部281は、連続画像の連写シーンを分類する。連続画像分割部283は、連写シーンに応じた位置で連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。重要度算出部285は、連続画像を構成する各撮影画像の重要度を算出する。保存画像選択処理部287は、連続画像の中から抽出された代表画像をユーザに提示し、ユーザ操作に従って記録媒体20に保存する撮影画像(保存画像)を選択するための処理を行う。   The controller 28 reads out and executes a camera program from the ROM 27 in accordance with an operation signal from the operation unit 25 and performs operation control and memory control of each unit constituting the digital camera 1 to control the entire operation of the digital camera 1. To control. In addition, processing such as AF (automatic focus), AE (automatic exposure), and AWB (automatic white balance) is performed. The controller 28 includes a continuous shooting scene classification unit 281 as a change determination unit, a continuous image division unit 283 as an image extraction unit, an importance calculation unit 285, and a saved image selection processing unit 287 as a display processing unit. Including. The continuous shooting scene classification unit 281 classifies continuous shooting scenes of continuous images. The continuous image dividing unit 283 divides a continuous image at a position corresponding to a continuous shooting scene, and extracts a captured image at the divided position as a representative image. The importance calculation unit 285 calculates the importance of each captured image constituting the continuous image. The stored image selection processing unit 287 presents a representative image extracted from the continuous images to the user, and performs processing for selecting a captured image (stored image) to be stored in the recording medium 20 according to the user operation.

次に、デジタルカメラ1が行う処理手順について説明する。図8は、実施の形態1のデジタルカメラ1が行う処理の手順を説明するフローチャートであり、連写モードにおけるデジタルカメラ1の処理手順を示している。   Next, a processing procedure performed by the digital camera 1 will be described. FIG. 8 is a flowchart for explaining a processing procedure performed by the digital camera 1 according to the first embodiment, and shows a processing procedure of the digital camera 1 in the continuous shooting mode.

連写モードでは、図8に示すように、ユーザによる連写開始の指示を受け付けるまで待機状態となる。そして、連写を開始する場合には(ステップa1:Yes)、撮影処理に移る(ステップa3)。すなわち、所定の撮影間隔毎の連写タイミングで順次撮影処理を行い、撮影画像の画像データを生成する。生成した撮影画像の画像データは、例えば撮影順に割り振られる画像番号と対応付けられてRAM26に記録される。   In the continuous shooting mode, as shown in FIG. 8, the continuous shooting mode is in a standby state until an instruction to start continuous shooting is received from the user. When continuous shooting is started (step a1: Yes), the process proceeds to shooting processing (step a3). That is, shooting processing is sequentially performed at a continuous shooting timing every predetermined shooting interval, and image data of a shot image is generated. The generated image data of the photographed image is recorded in the RAM 26 in association with, for example, an image number assigned in the photographing order.

続いて、動き検出部15が動き検出処理を行う(ステップa5)。この動き検出処理では、動き検出部15は、ステップa3において今回生成した最新の撮影画像(最新画像)と前回生成した撮影画像(前回画像)との間で動き検出を行い、最新画像中の移動体を検出するとともに、最新画像中の登録移動体を追尾する。なお、連写開始直後の最初の撮影処理の後は、直前画像が存在しないためステップa5の動き検出処理は行わない。図9は、動き検出処理の詳細な処理手順を説明するフローチャートである。   Subsequently, the motion detection unit 15 performs a motion detection process (step a5). In this motion detection process, the motion detection unit 15 performs motion detection between the latest captured image (latest image) generated this time and the previously generated captured image (previous image) in step a3, and moves in the latest image. The body is detected and the registered moving body in the latest image is tracked. Note that the motion detection process in step a5 is not performed after the first shooting process immediately after the start of continuous shooting because there is no previous image. FIG. 9 is a flowchart for explaining the detailed processing procedure of the motion detection process.

動き検出処理では、動き検出部15は先ず、登録移動体の有無を判定する。ここで、図9中のステップb13または図10に示して後述する顔検出処理のステップc9で移動体が登録される。このため、連写が開始されて最初に行う動き検出処理では登録移動体はなく(ステップb1:No)、ステップb7に移る。   In the motion detection process, the motion detection unit 15 first determines the presence or absence of a registered mobile object. Here, the moving body is registered in step b13 in FIG. 9 or in step c9 of the face detection process described later with reference to FIG. For this reason, there is no registered moving body in the motion detection process performed first after the continuous shooting is started (step b1: No), and the process proceeds to step b7.

一方、登録移動体がある場合には(ステップb1:Yes)、動き検出部15は、その登録移動体について登録移動体エリアを設定し、最新画像と前回画像との間で動き検出を実行する(ステップb3)。このとき、複数の登録移動体が登録されている場合には、登録移動体毎に登録移動体エリアを設定し、動き検出を行う。具体的には、動き検出部15は、前回算出した登録移動体の位置(前回画像中の位置)に登録移動体エリアを設定し、最新画像との間での動き検出を実行する。そして、動き検出部15は、動き検出結果に従って登録移動体の位置(最新画像中の現在位置)を算出し、最新画像の画像番号とともにRAM26に記憶する(ステップb5)。その後、ステップb7に移る。   On the other hand, when there is a registered moving body (step b1: Yes), the motion detection unit 15 sets a registered moving body area for the registered moving body and executes motion detection between the latest image and the previous image. (Step b3). At this time, when a plurality of registered mobile bodies are registered, a registered mobile body area is set for each registered mobile body and motion detection is performed. Specifically, the motion detection unit 15 sets a registered mobile body area at the previously calculated position of the registered mobile body (position in the previous image), and executes motion detection with the latest image. Then, the motion detection unit 15 calculates the position of the registered moving body (current position in the latest image) according to the motion detection result, and stores it in the RAM 26 together with the image number of the latest image (step b5). Then, it moves to step b7.

ステップb7では、動き検出部15は、最新画像と前回画像との間で移動体検出エリアの動き検出を実行する。具体的には、動き検出部15は、画角範囲のほぼ全域に移動体検出エリアを設定し、最新画像との間での動き検出を実行する。ここでの動き検出の結果、移動体を検出しなければ(ステップb9:No)、図8のステップa5にリターンし、その後ステップa7に移る。一方、動き検出部15は、移動体を検出した場合には(ステップb9:Yes)、検出した移動体が登録移動体か否かを判定する。そして、検出した移動体が既に登録された登録移動体であれば(ステップb11:Yes)、図8のステップa5にリターンし、その後ステップa7に移る。一方、動き検出部15は、検出した移動体が登録されていない場合には(ステップb11:No)、登録移動体として登録し、現在位置や最新画像の画像番号等とともにRAM26に記憶する(ステップb13)。そして、図8のステップa5にリターンし、その後ステップa7に移る。   In step b7, the motion detection unit 15 performs motion detection in the moving object detection area between the latest image and the previous image. Specifically, the motion detection unit 15 sets a moving body detection area in almost the entire range of the angle of view, and performs motion detection with the latest image. If no moving object is detected as a result of the motion detection here (step b9: No), the process returns to step a5 in FIG. 8, and then proceeds to step a7. On the other hand, when detecting the moving body (step b9: Yes), the motion detecting unit 15 determines whether the detected moving body is a registered moving body. If the detected mobile body is a registered mobile body that has already been registered (step b11: Yes), the process returns to step a5 in FIG. 8, and then proceeds to step a7. On the other hand, if the detected moving body is not registered (step b11: No), the motion detecting unit 15 registers it as a registered moving body, and stores it in the RAM 26 together with the current position, the image number of the latest image, and the like (step). b13). And it returns to step a5 of FIG. 8, and moves to step a7 after that.

そして、ステップa7では、顔検出部17が顔検出処理を行う。この顔検出処理では、ステップa3で今回生成した最新画像中の顔検出が行われる。図10は、顔検出処理の詳細な処理手順を説明するフローチャートである。   In step a7, the face detection unit 17 performs face detection processing. In this face detection process, face detection in the latest image generated this time in step a3 is performed. FIG. 10 is a flowchart for explaining the detailed processing procedure of the face detection processing.

顔検出処理では、顔検出部17は先ず、最新画像中の顔検出を実行する(ステップc1)。ここでの顔検出の結果、顔を検出しなければ(ステップc3:No)、図8のステップa7にリターンし、その後ステップa9に移る。一方、顔検出部17は、顔を検出した場合には(ステップc3:Yes)、顔検出結果を最新画像の画像番号とともにRAM26に記憶する(ステップc5)。   In the face detection process, the face detection unit 17 first performs face detection in the latest image (step c1). If no face is detected as a result of the face detection here (step c3: No), the process returns to step a7 in FIG. 8, and then proceeds to step a9. On the other hand, when detecting the face (step c3: Yes), the face detection unit 17 stores the face detection result in the RAM 26 together with the image number of the latest image (step c5).

続いて、顔検出部17は、検出した顔が登録移動体か否かを判定する。具体的には、検出した顔の位置を登録移動体の現在位置(最新画像中の位置)と比較し、一致していれば登録移動体と判定し、一致しない場合には登録移動体ではないと判定する。そして、検出した顔が登録移動体であれば(ステップc7:Yes)、図8のステップa7にリターンし、その後ステップa9に移る。一方、顔検出部17は、検出した顔が登録移動体でない場合には(ステップc7:No)、登録移動体として登録し、現在位置や最新画像の画像番号とともにRAM26に記憶する(ステップc9)。そして、図8のステップa7にリターンし、その後ステップa9に移る。   Subsequently, the face detection unit 17 determines whether or not the detected face is a registered moving body. Specifically, the position of the detected face is compared with the current position (position in the latest image) of the registered mobile body, and if it matches, it is determined as a registered mobile body, and if it does not match, it is not a registered mobile body. Is determined. If the detected face is a registered moving body (step c7: Yes), the process returns to step a7 in FIG. 8, and then proceeds to step a9. On the other hand, when the detected face is not a registered moving body (step c7: No), the face detecting unit 17 registers it as a registered moving body and stores it in the RAM 26 together with the current position and the image number of the latest image (step c9). . Then, the process returns to step a7 in FIG. 8, and then proceeds to step a9.

ステップa9では、連写を終了するか否かを判定し、連写を終了するまでの間(ステップa9:No)、ステップa3に戻って処理を繰り返す。そして、連写を終了する場合には(ステップa9:Yes)、ステップa11に移る。例えば、ユーザによる連写終了の指示に応じて連写を終了する。あるいは、所定の連写枚数の撮影画像を生成した場合に連写を終了する。   In step a9, it is determined whether or not continuous shooting is to be ended. Until continuous shooting is ended (step a9: No), the processing returns to step a3 and is repeated. When the continuous shooting is to be ended (step a9: Yes), the process proceeds to step a11. For example, continuous shooting is ended in response to an instruction to end continuous shooting by the user. Alternatively, continuous shooting is terminated when a predetermined number of continuous shot images have been generated.

そして、ステップa11では、連写枚数が所定枚数を超えているか否かを判定する。連写枚数が所定枚数以下の場合には(ステップa11:No)、処理を終える。一方、連写枚数が所定枚数を超えている場合には(ステップa11:Yes)、連写シーン分類部281が連写シーン分類処理を行う(ステップa13)。図11は、連写シーン分類処理の詳細な処理手順を示すフローチャートである。   In step a11, it is determined whether or not the number of continuous shots exceeds a predetermined number. If the number of continuous shots is less than or equal to the predetermined number (step a11: No), the process is terminated. On the other hand, when the number of continuous shots exceeds the predetermined number (step a11: Yes), the continuous shot scene classification unit 281 performs a continuous shot scene classification process (step a13). FIG. 11 is a flowchart showing a detailed processing procedure of continuous shooting scene classification processing.

連写シーン分類処理では、連写シーン分類部281は先ず、連続画像内で検出された移動体の有無を判定する。連続画像内で移動体が検出されている場合、すなわち、撮影画像を生成するたびに行った動き検出や顔検出の結果、登録移動体として登録された移動体がある場合には(ステップd1:Yes)、移動体状態解析処理を行う(ステップd3)。図12は、移動体状態解析処理の詳細な処理手順を示すフローチャートである。   In the continuous shooting scene classification process, the continuous shooting scene classification unit 281 first determines the presence or absence of a moving object detected in a continuous image. When a moving body is detected in a continuous image, that is, when there is a moving body registered as a registered moving body as a result of motion detection or face detection performed each time a captured image is generated (step d1: Yes), a moving body state analysis process is performed (step d3). FIG. 12 is a flowchart showing a detailed processing procedure of the moving body state analysis processing.

移動体状態解析処理では先ず、連写シーン分類部281は、移動体の移動開始位置を解析する(ステップe1)。ここでの処理は、登録移動体として登録された移動体が複数ある場合には、各移動体それぞれについて行う。例えば、その移動体が最初に検出されて登録移動体として登録された撮影画像を移動開始位置とし、画像番号を移動開始画像番号として取得する。   In the moving object state analysis process, first, the continuous shooting scene classification unit 281 analyzes the movement start position of the moving object (step e1). The processing here is performed for each mobile body when there are a plurality of mobile bodies registered as registered mobile bodies. For example, a captured image that is first detected and registered as a registered moving body is set as a movement start position, and an image number is acquired as a movement start image number.

続いて、連写シーン分類部281は、移動体の移動方向を解析する(ステップe3)。ここでの処理は、登録移動体として登録された移動体が複数ある場合には、各移動体それぞれについて行う。例えば、その移動体を登録移動体として行った動き検出結果やその移動体についての顔検出結果によって定まる移動体の移動経路に従って、移動体の移動方向の変化を判別する。そして、移動体が所定の方向に沿って移動している状態を判別した場合には、移動方向を一定とする。移動体の移動方向が不規則で定まらず、不安定な状態を判別した場合には、移動方向を不安定とする。そして、移動体の移動方向が所定の変化パターンに従って規則的に変化した状態を判別した場合には、移動方向が変化する撮影画像の画像番号を方向変化画像番号として取得する。例えば、図3に示して例示したように移動体O3の移動経路が2次曲線に近似できるような場合には、その頂点(極値)位置の撮影画像を移動方向が変化する撮影画像とし、画像番号を方向変化画像番号として取得する。   Subsequently, the continuous shooting scene classification unit 281 analyzes the moving direction of the moving object (step e3). The processing here is performed for each mobile body when there are a plurality of mobile bodies registered as registered mobile bodies. For example, a change in the moving direction of the moving body is determined according to the moving path of the moving body determined by the result of motion detection performed using the moving body as a registered moving body or the face detection result of the moving body. And when the state which the moving body is moving along the predetermined | prescribed direction is discriminate | determined, a moving direction is made constant. If the moving direction of the moving body is not determined irregularly and an unstable state is determined, the moving direction is made unstable. Then, when it is determined that the moving direction of the moving body has regularly changed according to a predetermined change pattern, the image number of the captured image whose moving direction changes is acquired as the direction change image number. For example, when the moving path of the moving body O3 can be approximated to a quadratic curve as illustrated in FIG. 3, the captured image at the apex (extreme value) position is taken as a captured image whose moving direction changes, The image number is acquired as the direction change image number.

続いて、連写シーン分類部281は、連続画像内で検出された移動体の数を判定する。移動体の数が1つの場合には(ステップe5:No)、ステップe11に移る。一方、検出された移動体が複数ある場合には(ステップe5:Yes)、連写シーン分類部281は、これらの移動体の重なり状態を解析する(ステップe7)。例えば、各移動体を登録移動体として行った動き検出結果やその移動体についての顔検出結果をもとに、これらの移動体の位置が重なった状態を判別し、判別した撮影画像の画像番号を重なり画像番号として取得する。   Subsequently, the continuous shooting scene classifying unit 281 determines the number of moving objects detected in the continuous image. When the number of moving bodies is one (step e5: No), the process moves to step e11. On the other hand, when there are a plurality of detected moving objects (step e5: Yes), the continuous shooting scene classification unit 281 analyzes the overlapping state of these moving objects (step e7). For example, based on the result of motion detection performed for each mobile object as a registered mobile object and the face detection result for that mobile object, the state in which the positions of these mobile objects overlap is determined, and the image number of the determined captured image Is acquired as an overlapping image number.

続いて、連写シーン分類部281は、移動体の分裂状態を解析し(ステップe9)、その後、ステップe11に移る。例えば、各移動体を登録移動体として行った動き検出結果やその移動体についての顔検出結果をもとに、いずれか1つの移動体の位置を始点として別の移動体が移動を開始した状態を判別し、判別した撮影画像の画像番号を分裂画像番号として取得する。   Subsequently, the continuous shooting scene classification unit 281 analyzes the division state of the moving object (step e9), and then proceeds to step e11. For example, a state in which another moving body starts moving from the position of one of the moving bodies as a starting point based on the result of motion detection performed for each moving body as a registered moving body or the face detection result for the moving body And the image number of the determined captured image is acquired as a split image number.

そして、ステップe11では、連写シーン分類部281は、移動体のフレームアウト位置を解析する。ここでの処理は、登録移動体として登録された移動体が複数ある場合には、各移動体それぞれについて行う。例えば、その移動体が画角範囲の端部に移動し、画角範囲から外れた撮影画像をフレームアウト位置とし、画像番号をフレームアウト画像番号として取得する。   In step e11, the continuous shooting scene classification unit 281 analyzes the frame-out position of the moving object. The processing here is performed for each mobile body when there are a plurality of mobile bodies registered as registered mobile bodies. For example, the moving body moves to the end of the field angle range, and a captured image outside the field angle range is set as the frame-out position, and the image number is acquired as the frame-out image number.

続いて、連写シーン分類部281は、移動体の移動終了位置を解析する(ステップe13)。ここでの処理は、登録移動体として登録された移動体が複数ある場合には、各移動体それぞれについて行う。例えば、その移動体が停止した撮影画像あるいはその移動体を追尾できなくなった撮影画像を移動終了位置とし、画像番号を移動終了画像番号として取得する。そして、図11のステップd3にリターンし、その後、ステップd5に移る。   Subsequently, the continuous shooting scene classification unit 281 analyzes the movement end position of the moving object (step e13). The processing here is performed for each mobile body when there are a plurality of mobile bodies registered as registered mobile bodies. For example, a captured image in which the moving body is stopped or a captured image in which the moving body cannot be tracked is set as the movement end position, and the image number is acquired as the movement end image number. Then, the process returns to step d3 in FIG. 11, and then proceeds to step d5.

ステップd5では、連写シーン分類部281は、ステップd3の移動体状態解析処理の結果に従って移動体の移動方向を判定する。そして、連写シーン分類部281は、移動方向が一定の移動体について(ステップd5:Yes)、方向一定フラグをセット(ON)する(ステップd7)。一方、連写シーン分類部281は、移動方向が一定でない移動体であって(ステップd5:No)、移動方向が不安定でない移動体(移動方向が所定の変化パターンに従って規則的に変化した移動体)について(ステップd9:No)、方向変化フラグをセットする(ステップd11)。また、連写シーン分類部281は、移動方向が不安定である移動体については(ステップd9:Yes)、方向不安定フラグをセットする(ステップd13)。   In step d5, the continuous shooting scene classification unit 281 determines the moving direction of the moving object according to the result of the moving object state analysis process in step d3. Then, the continuous shooting scene classifying unit 281 sets (ON) a constant direction flag for a moving body having a constant movement direction (step d5: Yes) (step d7). On the other hand, the continuous shooting scene classifying unit 281 is a moving body whose moving direction is not constant (step d5: No), and a moving body whose moving direction is not unstable (moving whose moving direction changes regularly according to a predetermined change pattern). Body) (step d9: No), the direction change flag is set (step d11). The continuous shooting scene classifying unit 281 sets a direction unstable flag (step d13) for a moving object whose movement direction is unstable (step d9: Yes).

続いて、連写シーン分類部281は、ステップd3の移動体状態解析処理の結果に従って移動体の重なりを判定する。そして、連写シーン分類部281は、移動体の重なりがあれば(ステップd15:Yes)、重なりフラグをセットし(ステップd17)、連続画像の連写シーンをシーンdとして設定する(ステップd19)。移動体の重なりがない場合には(ステップd15:No)、続いて連写シーン分類部281は、移動体の分裂を判定する。そして、連写シーン分類部281は、移動体の分裂があれば(ステップd21:Yes)、分裂フラグをセットし(ステップd23)、連続画像の連写シーンをシーンeに設定する(ステップd25)。移動体の分裂がない場合には(ステップd21:No)、続いて連写シーン分類部281は、方向不安定フラグを判定する。そして、連写シーン分類部281は、方向不安定フラグがONであれば(ステップd27:Yes)、連続画像の連写シーンをシーンcに設定する(ステップd29)。方向不安定フラグがOFFの場合には(ステップd27:No)、続いて連写シーン分類部281は、方向変化フラグを判定する。そして、連写シーン分類部281は、方向変化フラグがONであれば(ステップd31:Yes)、連続画像の連写シーンをシーンbに設定する(ステップd33)。方向変化フラグがOFFの場合には(ステップd31:No)、連写シーン分類部281は、連続画像の連写シーンをシーンaに設定する(ステップd35)。なお、このステップd35で連続画像の連写シーンがシーンaに設定されるのは、方向フラグがONの場合である。   Subsequently, the continuous shooting scene classification unit 281 determines the overlapping of the moving objects according to the result of the moving object state analysis process in Step d3. Then, if there are overlapping moving bodies (step d15: Yes), the continuous shooting scene classification unit 281 sets an overlapping flag (step d17), and sets a continuous shooting scene of continuous images as the scene d (step d19). . When there is no overlap of moving objects (step d15: No), the continuous shooting scene classifying unit 281 subsequently determines the division of the moving objects. Then, if there is a division of the moving body (step d21: Yes), the continuous shooting scene classification unit 281 sets a division flag (step d23), and sets the continuous shooting scene of the continuous image to the scene e (step d25). . When there is no division of the moving body (step d21: No), the continuous shooting scene classification unit 281 determines the direction unstable flag. If the direction instability flag is ON (step d27: Yes), the continuous shooting scene classification unit 281 sets the continuous shooting scene of the continuous image to the scene c (step d29). When the direction unstable flag is OFF (step d27: No), the continuous shooting scene classifying unit 281 determines the direction change flag. If the direction change flag is ON (step d31: Yes), the continuous shooting scene classification unit 281 sets the continuous shooting scene of the continuous image to the scene b (step d33). When the direction change flag is OFF (step d31: No), the continuous shooting scene classification unit 281 sets the continuous shooting scene of the continuous image to the scene a (step d35). Note that the continuous shooting scene of the continuous image is set to the scene a in this step d35 when the direction flag is ON.

続いて、連写シーン分類部281は、ステップd3の移動体状態解析処理の結果に従って移動体のフレームアウトの有無を判定する。そして、連写シーン分類部281は、フレームアウトしている移動体について(ステップd37:Yes)、フレームアウトフラグをセットする(ステップd39)。   Subsequently, the continuous shooting scene classification unit 281 determines whether or not the moving object is out of frame according to the result of the moving object state analysis process in step d3. Then, the continuous shooting scene classification unit 281 sets a frame-out flag (step d39) for a moving object that has been out-of-frame (step d37: Yes).

続いて、連写シーン分類部281は、ステップd3の移動体状態解析処理の結果に従って移動体が移動を終了したか否かを判定する。そして、連写シーン分類部281は、移動を終了した移動体について(ステップd41:Yes)、移動終了フラグをセットする(ステップd43)。そして、図8のステップa13にリターンし、その後ステップa15に移る。   Subsequently, the continuous shooting scene classification unit 281 determines whether or not the moving object has finished moving in accordance with the result of the moving object state analysis process in step d3. Then, the continuous shooting scene classification unit 281 sets a movement end flag (step d43) for the moving body that has finished moving (step d41: Yes). And it returns to step a13 of FIG. 8, and moves to step a15 after that.

そして、ステップa15では、連続画像分割部283が連続画像分割処理を行う。図13は、実施の形態1の連続画像分割処理の詳細な処理手順を示すフローチャートである。   In step a15, the continuous image division unit 283 performs continuous image division processing. FIG. 13 is a flowchart illustrating a detailed processing procedure of the continuous image division processing according to the first embodiment.

連続画像分割処理では、連続画像分割部283は先ず、移動体の移動開始画像番号を取得する(ステップf1)。続いて、連続画像分割部283は、移動終了フラグを判定する。そして、連続画像分割部283は、移動終了フラグがONであれば(ステップf3:Yes)、移動終了画像番号を取得し(ステップf5)、移動終了画像番号から移動開始画像番号を差し引いた値を算出して算出した値が所定値を超えているか否かを判定する。そして、所定値を超えている場合、すなわち移動体が移動を開始してから移動を終了するまでの間の撮影画像の枚数が所定枚数より多い場合には(ステップf7:Yes)、ステップf17に移る。所定値を超えていない場合には(ステップf7:No)、ステップf15に移る。   In the continuous image dividing process, the continuous image dividing unit 283 first acquires the movement start image number of the moving object (step f1). Subsequently, the continuous image dividing unit 283 determines a movement end flag. If the movement end flag is ON (step f3: Yes), the continuous image dividing unit 283 acquires the movement end image number (step f5), and obtains a value obtained by subtracting the movement start image number from the movement end image number. It is determined whether or not the calculated value exceeds a predetermined value. If it exceeds the predetermined value, that is, if the number of photographed images from the start of movement of the moving body to the end of movement is greater than the predetermined number (step f7: Yes), step f17 is entered. Move. If it does not exceed the predetermined value (step f7: No), the process proceeds to step f15.

一方、ステップf3において判定した移動終了フラグがOFFであれば(ステップf3:No)、続いて連続画像分割部283は、フレームアウトフラグを判定する。そして、連続画像分割部283は、フレームアウトフラグがONであれば(ステップf9:Yes)、フレームアウト画像番号を取得し(ステップf11)、フレームアウト画像番号から移動開始画像番号を差し引いた値を算出して算出した値が所定値を超えているか否かを判定する。そして、所定値を超えている場合、すなわち移動体が移動を開始してからフレームアウトするまでの間の撮影画像の枚数が所定枚数より多い場合には(ステップf13:Yes)、ステップf17に移る。所定値を超えていない場合には(ステップf13:No)、ステップf15に移る。また、ステップf9において判定したフレームアウトフラグがOFFの場合も(ステップf9:No)、ステップf15に移る。   On the other hand, if the movement end flag determined in step f3 is OFF (step f3: No), the continuous image dividing unit 283 subsequently determines a frame-out flag. If the frame-out flag is ON (step f9: Yes), the continuous image dividing unit 283 acquires the frame-out image number (step f11), and obtains a value obtained by subtracting the movement start image number from the frame-out image number. It is determined whether or not the calculated value exceeds a predetermined value. If the predetermined value is exceeded, that is, if the number of photographed images from the start of movement of the moving object to the frame-out is greater than the predetermined number (step f13: Yes), the process proceeds to step f17. . If it does not exceed the predetermined value (step f13: No), the process proceeds to step f15. Also, when the frame-out flag determined in step f9 is OFF (step f9: No), the process proceeds to step f15.

ステップf15では、連続画像分割部283は、最終画像番号から移動開始画像番号を差し引いた値を算出し、算出した値が所定値を超えているか否かを判定する。そして、所定値を超えている場合、すなわち移動体が移動を開始してから連写を終了するまでの間の撮影画像の枚数が所定枚数より多い場合には(ステップf15:Yes)、ステップf17に移る。所定値を超えていない場合には(ステップf15:No)、図8のステップa15にリターンし、その後ステップa17に移る。   In step f15, the continuous image dividing unit 283 calculates a value obtained by subtracting the movement start image number from the final image number, and determines whether the calculated value exceeds a predetermined value. When the predetermined value is exceeded, that is, when the number of photographed images from the start of movement of the moving body to the end of continuous shooting is greater than the predetermined number (step f15: Yes), step f17 Move on. If it does not exceed the predetermined value (step f15: No), the process returns to step a15 in FIG. 8, and then proceeds to step a17.

そして、ステップf17では、連続画像分割部283は、図8のステップa13の連写シーン分類処理によって設定されたシーンを判定し、シーンに応じて処理を分岐する。すなわち、連続画像分割部283は、連写シーンがシーンaまたはシーンcの場合にはシーンa/c分割処理を行う(ステップf19)。そして、図8のステップa15にリターンし、その後ステップa17に移る。連写シーンがシーンbであれば、連続画像分割部283は、シーンb分割処理を行う(ステップf21)。そして、図8のステップa15にリターンし、その後ステップa17に移る。連写シーンがシーンdであれば、連続画像分割部283は、シーンd分割処理を行う(ステップf23)。そして、図8のステップa15にリターンし、その後ステップa17に移る。連写シーンがシーンeであれば、連続画像分割部283は、シーンe分割処理を行う(ステップf25)。そして、図8のステップa15にリターンし、その後ステップa17に移る。ここで、ステップf19〜ステップf25の各処理について順次説明する。   In step f17, the continuous image dividing unit 283 determines the scene set by the continuous shooting scene classification process in step a13 in FIG. 8, and branches the process according to the scene. That is, the continuous image dividing unit 283 performs the scene a / c dividing process when the continuous shooting scene is the scene a or the scene c (step f19). And it returns to step a15 of FIG. 8, and moves to step a17 after that. If the continuous shooting scene is the scene b, the continuous image dividing unit 283 performs a scene b dividing process (step f21). And it returns to step a15 of FIG. 8, and moves to step a17 after that. If the continuous shooting scene is the scene d, the continuous image dividing unit 283 performs a scene d dividing process (step f23). And it returns to step a15 of FIG. 8, and moves to step a17 after that. If the continuous shooting scene is the scene e, the continuous image dividing unit 283 performs a scene e dividing process (step f25). And it returns to step a15 of FIG. 8, and moves to step a17 after that. Here, each process of step f19-step f25 is demonstrated sequentially.

図14は、シーンa/c分割処理の詳細な処理手順を示すフローチャートである。シーンa/c分割処理では、連続画像分割部283は先ず、第1分割位置を移動開始画像番号とする(ステップg1)。続いて、連続画像分割部283は、移動体の移動中心位置を算出する(ステップg3)。すなわち、移動体の移動開始位置から移動終了位置またはフレームアウト位置までの移動経路上の中間位置を移動中心位置として算出する。そして、連続画像分割部283は、第2分割位置を移動中心画像番号とする(ステップg5)。   FIG. 14 is a flowchart showing a detailed processing procedure of the scene a / c division processing. In the scene a / c division process, the continuous image division unit 283 first sets the first division position as the movement start image number (step g1). Subsequently, the continuous image dividing unit 283 calculates the movement center position of the moving body (step g3). That is, the intermediate position on the movement path from the movement start position of the moving body to the movement end position or the frame-out position is calculated as the movement center position. Then, the continuous image dividing unit 283 sets the second division position as the movement center image number (step g5).

続いて、連続画像分割部283は、移動終了フラグを判定する。そして、移動終了フラグがONならば(ステップg7:Yes)、連続画像分割部283は、第3分割位置を移動終了画像番号とし(ステップg9)、ステップg17に移る。一方、連続画像分割部283は、移動終了フラグがOFFの場合には(ステップg7:No)、続いてフレームアウトフラグを判定する。そして、フレームアウトフラグがONならば(ステップg11:Yes)、連続画像分割部283は、第3分割位置をフレームアウト画像番号とし(ステップg13)、ステップg17に移る。また、フレームアウトフラグがOFFの場合には(ステップg11:No)、連続画像分割部283は、第3分割位置を設定せずになしとする(ステップg15)。そして、連続画像分割部283は、設定した第1分割位置、第2分割位置および第3分割位置の撮影画像を代表画像として抽出し(ステップg17)、その後図13のステップf19にリターンする。   Subsequently, the continuous image dividing unit 283 determines a movement end flag. If the movement end flag is ON (step g7: Yes), the continuous image dividing unit 283 sets the third division position as the movement end image number (step g9), and proceeds to step g17. On the other hand, when the movement end flag is OFF (step g7: No), the continuous image dividing unit 283 subsequently determines the frame-out flag. If the frame-out flag is ON (step g11: Yes), the continuous image dividing unit 283 sets the third division position as the frame-out image number (step g13), and proceeds to step g17. If the frame-out flag is OFF (step g11: No), the continuous image dividing unit 283 does not set the third division position (step g15). Then, the continuous image dividing unit 283 extracts the captured images at the set first division position, second division position, and third division position as representative images (step g17), and then returns to step f19 in FIG.

図15は、シーンb分割処理の詳細な処理手順を示すフローチャートである。シーンb分割処理では、連続画像分割部283は先ず、第1分割位置を移動開始画像番号とする(ステップh1)。続いて、連続画像分割部283は、方向変化画像番号を取得する(ステップh3)。そして、連続画像分割部283は、第2分割位置を方向変化画像番号とする(ステップh5)。   FIG. 15 is a flowchart showing a detailed processing procedure of the scene b division processing. In the scene b dividing process, the continuous image dividing unit 283 first sets the first division position as the movement start image number (step h1). Subsequently, the continuous image dividing unit 283 acquires a direction change image number (step h3). Then, the continuous image dividing unit 283 sets the second division position as the direction change image number (step h5).

続いて、連続画像分割部283は、移動終了フラグを判定する。そして、移動終了フラグがONならば(ステップh7:Yes)、連続画像分割部283は、第3分割位置を移動終了画像番号とし(ステップh9)、ステップh17に移る。一方、連続画像分割部283は、移動終了フラグがOFFの場合には(ステップh7:No)、続いてフレームアウトフラグを判定する。そして、フレームアウトフラグがONならば(ステップh11:Yes)、連続画像分割部283は、第3分割位置をフレームアウト画像番号とし(ステップh13)、ステップh17に移る。また、フレームアウトフラグがOFFの場合には(ステップh11:No)、連続画像分割部283は、第3分割位置を設定せずになしとする(ステップh15)。そして、連続画像分割部283は、設定した第1分割位置、第2分割位置および第3分割位置の撮影画像を代表画像として抽出し(ステップh17)、その後図13のステップf21にリターンする。   Subsequently, the continuous image dividing unit 283 determines a movement end flag. If the movement end flag is ON (step h7: Yes), the continuous image dividing unit 283 sets the third division position as the movement end image number (step h9), and proceeds to step h17. On the other hand, when the movement end flag is OFF (step h7: No), the continuous image dividing unit 283 subsequently determines the frame-out flag. If the frame-out flag is ON (step h11: Yes), the continuous image dividing unit 283 sets the third division position as the frame-out image number (step h13), and proceeds to step h17. If the frame-out flag is OFF (step h11: No), the continuous image dividing unit 283 does not set the third division position (step h15). Then, the continuous image dividing unit 283 extracts the captured images at the set first division position, second division position, and third division position as representative images (step h17), and then returns to step f21 in FIG.

図16は、シーンd分割処理の詳細な処理手順を示すフローチャートである。シーンd分割処理では、連続画像分割部283は先ず、第1分割位置を移動開始画像番号とする(ステップi1)。続いて、連続画像分割部283は、分裂画像番号を取得する(ステップi3)。そして、連続画像分割部283は、第2分割位置を分裂画像番号とする(ステップi5)。   FIG. 16 is a flowchart showing a detailed processing procedure of the scene d division processing. In the scene d division processing, the continuous image division unit 283 first sets the first division position as the movement start image number (step i1). Subsequently, the continuous image dividing unit 283 acquires a divided image number (step i3). Then, the continuous image dividing unit 283 sets the second division position as a divided image number (step i5).

続いて、連続画像分割部283は、移動終了フラグを判定する。そして、移動終了フラグがONならば(ステップi7:Yes)、連続画像分割部283は、第3分割位置を移動終了画像番号とし(ステップi9)、ステップi17に移る。一方、連続画像分割部283は、移動終了フラグがOFFの場合には(ステップi7:No)、続いてフレームアウトフラグを判定する。そして、フレームアウトフラグがONならば(ステップi11:Yes)、連続画像分割部283は、第3分割位置をフレームアウト画像番号とし(ステップi13)、ステップi17に移る。また、フレームアウトフラグがOFFの場合には(ステップi11:No)、連続画像分割部283は、第3分割位置を設定せずになしとする(ステップi15)。そして、連続画像分割部283は、設定した第1分割位置、第2分割位置および第3分割位置の撮影画像を代表画像として抽出し(ステップi17)、図13のステップf23にリターンする。   Subsequently, the continuous image dividing unit 283 determines a movement end flag. If the movement end flag is ON (step i7: Yes), the continuous image dividing unit 283 sets the third division position as the movement end image number (step i9), and proceeds to step i17. On the other hand, when the movement end flag is OFF (step i7: No), the continuous image dividing unit 283 subsequently determines the frame-out flag. If the frame-out flag is ON (step i11: Yes), the continuous image dividing unit 283 sets the third division position as the frame-out image number (step i13), and proceeds to step i17. If the frame-out flag is OFF (step i11: No), the continuous image dividing unit 283 does not set the third division position (step i15). Then, the continuous image dividing unit 283 extracts the captured images at the set first division position, second division position, and third division position as representative images (step i17), and returns to step f23 of FIG.

図17は、シーンe分割処理の詳細な処理手順を示すフローチャートである。シーンe分割処理では、連続画像分割部283は先ず、第1分割位置を移動開始画像番号とする(ステップj1)。続いて、連続画像分割部283は、重なり画像番号を取得する(ステップj3)。そして、連続画像分割部283は、第2分割位置を重なり画像番号とする(ステップj5)。   FIG. 17 is a flowchart showing a detailed processing procedure of the scene e division processing. In the scene e division processing, the continuous image division unit 283 first sets the first division position as the movement start image number (step j1). Subsequently, the continuous image dividing unit 283 acquires an overlapping image number (step j3). Then, the continuous image dividing unit 283 sets the second division position as an overlapping image number (step j5).

続いて、連続画像分割部283は、移動終了フラグを判定する。そして、移動終了フラグがONならば(ステップj7:Yes)、連続画像分割部283は、第3分割位置を移動終了画像番号とし(ステップj9)、ステップj17に移る。一方、連続画像分割部283は、移動終了フラグがOFFの場合には(ステップj7:No)、続いてフレームアウトフラグを判定する。そして、フレームアウトフラグがONならば(ステップj11:Yes)、連続画像分割部283は、第3分割位置をフレームアウト画像番号とし(ステップj13)、ステップj17に移る。また、フレームアウトフラグがOFFの場合には(ステップj11:No)、連続画像分割部283は、第3分割位置を設定せずになしとする(ステップj15)。そして、連続画像分割部283は、設定した第1分割位置、第2分割位置および第3分割位置の撮影画像を代表画像として抽出し(ステップj17)、図13のステップf25にリターンする。   Subsequently, the continuous image dividing unit 283 determines a movement end flag. If the movement end flag is ON (step j7: Yes), the continuous image dividing unit 283 sets the third division position as the movement end image number (step j9), and proceeds to step j17. On the other hand, when the movement end flag is OFF (step j7: No), the continuous image dividing unit 283 subsequently determines the frame-out flag. If the frame-out flag is ON (step j11: Yes), the continuous image dividing unit 283 sets the third division position as the frame-out image number (step j13), and proceeds to step j17. If the frame-out flag is OFF (step j11: No), the continuous image dividing unit 283 does not set the third division position (step j15). Then, the continuous image division unit 283 extracts the captured images at the set first division position, second division position, and third division position as representative images (step j17), and returns to step f25 in FIG.

連続画像分割処理を終えると、続いて図8に示すように、重要度算出部285が移動体重要度算出処理を行う(ステップa17)。図18は、移動体重要度算出処理の詳細な処理手順を示すフローチャートである。この優先度採点処理では、連続画像を構成する全ての撮影画像についてそれぞれループAの処理を行う(ステップk1〜ステップk25)。以下、ループAで処理の対象とする撮影画像を処理画像と呼ぶ。   When the continuous image dividing process is finished, the importance calculating unit 285 subsequently performs the moving object importance calculating process as shown in FIG. 8 (step a17). FIG. 18 is a flowchart showing a detailed processing procedure of the moving object importance degree calculation processing. In this priority scoring process, a loop A process is performed for all captured images constituting the continuous image (step k1 to step k25). Hereinafter, the captured image to be processed in the loop A is referred to as a processed image.

すなわち先ず、重要度算出部285は、処理画像中の移動体の有無を判定する。処理画像中で移動体が検出されていない場合、すなわち処理画像中で登録移動体の動きが検出されていない場合には(ステップk3:No)、ステップk11に移る。   That is, first, the importance level calculation unit 285 determines whether or not there is a moving object in the processed image. When the moving body is not detected in the processed image, that is, when the movement of the registered moving body is not detected in the processed image (step k3: No), the process proceeds to step k11.

一方、処理画像中で移動体が検出されている検出されている場合、すなわち処理画像中で登録移動体の動きが検出されている場合には(ステップk3:Yes)、重要度算出部285は、移動体の位置を採点する(ステップk5)。例えば、画角範囲の中心に位置するほど重要度が高いと推定し、重要度算出部285は、処理画像中で検出されている移動体の位置が画角範囲の中心に近いほど採点値を大きく設定する。   On the other hand, when the moving object is detected in the processed image, that is, when the movement of the registered moving object is detected in the processed image (step k3: Yes), the importance calculating unit 285 The position of the moving body is scored (step k5). For example, it is estimated that the importance is higher as it is located at the center of the angle of view range, and the importance calculation unit 285 determines the scoring value as the position of the moving object detected in the processed image is closer to the center of the angle of view range. Set larger.

続いて重要度算出部285は、移動体の速度変化を採点する(ステップk7)。例えば、移動体の移動速度が速いほど重要度が高いと推定する。重要度算出部285は、例えば処理画像よりも前に生成した数枚分の撮影画像中における登録移動体の位置を参照してその位置の変位をもとに移動体の移動速度を算出する。そして、重要度算出部285は、その移動速度が速いほど採点値を大きく設定する。   Subsequently, the importance level calculation unit 285 scores the speed change of the moving object (step k7). For example, it is estimated that the higher the moving speed of the moving body, the higher the importance. The importance calculation unit 285 calculates the moving speed of the moving body based on the displacement of the registered moving body with reference to the position of the registered moving body in several captured images generated before the processed image, for example. And the importance calculation part 285 sets a scoring value large, so that the movement speed is quick.

続いて重要度算出部285は、移動体の方向変化を採点する(ステップk9)。例えば、移動体の移動方向の変化が大きいほど重要度が高いと推定する。重要度算出部285は、例えば処理画像よりも前に生成した数枚分の撮影画像中の移動体の位置を参照してその位置の変位をもとに移動方向の変化を判定する。そして、重要度算出部285は、判定した移動方向の変化が大きいほど採点値を大きく設定する。   Subsequently, the importance calculation unit 285 scores a change in the direction of the moving object (step k9). For example, it is estimated that the greater the change in the moving direction of the moving body, the higher the importance. For example, the importance calculation unit 285 refers to the position of the moving body in several captured images generated before the processed image, and determines the change in the moving direction based on the displacement of the position. Then, the importance calculation unit 285 sets the scoring value larger as the determined change in the moving direction is larger.

続くステップk11では、重要度算出部285は、処理画像中の顔の有無を判定する。処理画像中に顔がない場合、すなわち処理画像中の顔検出の結果顔が検出されていない場合には(ステップk11:No)、ステップk21に移る。   In subsequent step k11, the importance calculation unit 285 determines the presence or absence of a face in the processed image. When there is no face in the processed image, that is, when a face is not detected as a result of face detection in the processed image (step k11: No), the process proceeds to step k21.

一方、処理画像中に顔がある場合、すなわち処理画像中の顔検出の結果顔が検出されている場合には(ステップk11:Yes)、重要度算出部285は、顔の大きさを採点する(ステップk13)。サイズの大きい顔は、サイズの小さい顔に比べて重要度が高い。そこで、例えば重要度算出部285は、顔が大きいほど採点値を大きく設定する。   On the other hand, when there is a face in the processed image, that is, when a face is detected as a result of face detection in the processed image (step k11: Yes), the importance calculation unit 285 scores the size of the face. (Step k13). Larger faces are more important than smaller faces. Therefore, for example, the importance calculation unit 285 sets the scoring value larger as the face is larger.

続いて重要度算出部285は、顔の位置を採点する(ステップk15)。顔の位置が画角範囲の中心に近いほど重要度が高い。一方、顔の位置が画角範囲の端部に位置している場合、その顔は次の撮影画像でフレームアウトする可能性があるため、重要度は低い。そこで、例えば重要度算出部285は、顔の位置が画角範囲の中心に近いほど採点値を大きく設定する。   Subsequently, the importance calculation unit 285 scores the face position (step k15). The closer the face position is to the center of the field angle range, the higher the importance. On the other hand, when the position of the face is located at the end of the angle of view range, the face is likely to be framed out in the next photographed image, so the importance is low. Therefore, for example, the importance calculation unit 285 sets the scoring value larger as the face position is closer to the center of the field angle range.

続いて重要度算出部285は、顔の向きを採点する(ステップk17)。例えば、顔が正面向きから外れた方向を向いているほど重要度が低いと推定し、重要度算出部285は、顔が正面を向いている場合の採点値を小さくし、顔の向きが正面から外れるほど採点値を大きく設定する。   Subsequently, the importance calculation unit 285 scores the face orientation (step k17). For example, the importance is estimated to be lower as the face is away from the front direction, and the importance calculation unit 285 reduces the scoring value when the face is facing the front, and the face direction is the front. The scoring value is set larger as it gets out of the range.

続いて重要度算出部285は、顔の角度を採点する(ステップk19)。例えば、処理画像の縦方向に対して顔が傾いていないほど重要度が高いと推定し、重要度算出部285は、顔が傾いていない場合の採点値を小さくし、顔の角度が大きいほど採点値を大きく設定する。   Subsequently, the importance calculation unit 285 scores the face angle (step k19). For example, it is estimated that the importance is higher as the face is not tilted with respect to the vertical direction of the processed image, and the importance calculation unit 285 decreases the scoring value when the face is not tilted, and the face angle is larger. Set the scoring value higher.

続いて、重要度算出部285は、各採点値に対する重み付けを行う(ステップk21)。ここで行う重み付けは、例えば、移動体の位置、移動体の速度変化、移動体の方向変化、顔の大きさ、顔の位置、顔の向きおよび顔の角度の各採点項目について予め重み係数を設定しておき、各採点値に重み係数を乗じて行う。重み係数は、採点項目の重要度に応じて適宜設定しておくことができる。例えば、ユーザが画角範囲の中央に移動体が写っている撮影画像を重要視しているような場合であれば、移動体の位置や顔の位置の重み係数を大きく設定しておくことで、これらの採点値が高い撮影画像の重要度を高く設定することができる。   Subsequently, the importance calculation unit 285 weights each scoring value (step k21). The weighting performed here is, for example, a weighting factor in advance for each scoring item of moving body position, moving body speed change, moving body direction change, face size, face position, face direction and face angle. Set and multiply each scoring value by a weighting factor. The weighting factor can be appropriately set according to the importance of the scoring item. For example, if the user attaches importance to the captured image in which the moving object is shown in the center of the angle of view range, the weighting coefficient for the position of the moving object and the position of the face can be set large. Therefore, it is possible to set the importance of a captured image having a high scoring value high.

そして、重要度算出部285は、重み付けした各採点値の総和を処理画像の重要度として算出する(ステップk23)。そして、連続画像を構成する全ての撮影画像を処理画像としてループAの処理を行ったならば、図8のステップa17にリターンし、その後ステップa19に移る。なお、上記した移動体重要度算出処理は一例であって、採点方法や採点項目はこれに限定されず、適宜設定できる。   Then, the importance level calculation unit 285 calculates the sum of the weighted scoring values as the importance level of the processed image (step k23). If all the captured images constituting the continuous image are processed as a processed image and the process of loop A is performed, the process returns to step a17 in FIG. 8, and then proceeds to step a19. The above-described moving object importance degree calculation process is an example, and the scoring method and scoring items are not limited to this, and can be set as appropriate.

続いて、保存画像選択処理部287が、表示部23に対し、ステップa15の連続画像分割処理の結果抽出された代表画像を表示する処理を行うとともに、分割シーンの選択依頼の通知を表示する処理を行う(ステップa19)。例えば、代表画像のサムネイルを一覧表示し、代表画像の選択操作を受け付けることによって分割シーンを選択する構成としてもよいし、代表画像を1枚ずつユーザ操作に従って順次切換表示し、代表画像の選択操作を受け付けることによって分割シーンを選択する構成としてもよい。   Subsequently, the saved image selection processing unit 287 performs processing for displaying the representative image extracted as a result of the continuous image division processing in step a15 on the display unit 23 and displaying a notification of the selection request for the divided scenes. (Step a19). For example, thumbnails of representative images may be displayed as a list, and divided scenes may be selected by accepting a representative image selection operation, or representative images may be sequentially switched and displayed one by one according to a user operation. It is good also as a structure which selects a division scene by accepting.

そして、保存画像選択処理部287は、選択依頼の通知に応答して分割シーンが選択された場合には(ステップa21:Yes)、続いて、選択された分割シーンの撮影画像を表示する処理を行うとともに、保存画像の選択依頼の通知を表示する処理を行う(ステップa23)。このとき、保存画像選択処理部287は、例えば、選択された代表画像と撮影順が後順の代表画像との間の撮影画像、例えば第1分割位置の代表画像が選択された場合であれば、第1分割位置の撮影画像および第1分割位置と第2分割位置との間の撮影画像を分割シーンの撮影画像として選出する。そして、保存画像選択処理部287は、ステップa17の移動体重要度算出処理の結果をもとに、選出した撮影画像を重要度の高い順番で並び替える。そして、保存画像選択処理部287は、並び替えた順番で選出した撮影画像のサムネイルを一覧表示し、保存する撮影画像の選択操作を受け付ける。これによれば、選択された分割シーンの撮影画像のうち、重要度の高いものから順番にユーザに提示することができる。したがってユーザは、分割シーンの撮影画像の枚数が多い場合であっても効率よく撮影画像を閲覧することができるので、作業負担をより軽減できる。   Then, when the divided scene is selected in response to the notification of the selection request (step a21: Yes), the saved image selection processing unit 287 subsequently performs a process of displaying the captured image of the selected divided scene. And a process for displaying a notification of a selection request for a stored image (step a23). At this time, the stored image selection processing unit 287 is, for example, when a captured image between the selected representative image and a representative image with a subsequent shooting order, for example, a representative image at the first division position is selected. The captured image at the first divided position and the captured image between the first divided position and the second divided position are selected as the captured images of the divided scene. Then, the saved image selection processing unit 287 rearranges the selected captured images in order of importance based on the result of the moving object importance calculation process in step a17. Then, the stored image selection processing unit 287 displays a list of thumbnails of the captured images selected in the rearranged order, and accepts an operation for selecting the captured image to be stored. According to this, it is possible to present to the user in order from the most important one among the captured images of the selected divided scenes. Therefore, the user can efficiently browse the captured images even when the number of captured images of the divided scene is large, and the work burden can be further reduced.

なお、分割シーンの撮影画像のうち、重要度の高いものから所定数の撮影画像をさらに選出して一覧表示し、保存画像の選択を受け付ける構成としてもよい。また、重要度による並び替えを行わずに、撮影順に一覧表示する構成としてもよい。また、ここでは、選択された分割シーンの撮影画像のサムネイルを一覧表示することとしたが、選択された分割シーンの撮影画像を1枚ずつユーザ操作に従って順次切換表示し、保存する撮影画像の選択操作を受け付ける構成としてもよい。そしてこのとき、ステップa17の重要度算出処理の結果をもとに、分割シーンの撮影画像を重要度の高い順番で並び替えて、並び替えた順番で切換表示するようにしてもよい。   A configuration may be adopted in which a predetermined number of photographed images having a higher importance are selected from among the photographed images of the divided scenes, displayed in a list, and a selection of saved images is accepted. Moreover, it is good also as a structure which displays a list in order of imaging | photography, without rearranging by importance. Here, the thumbnails of the captured images of the selected divided scene are displayed as a list, but the captured images of the selected divided scene are sequentially switched and displayed one by one in accordance with the user operation, and the selected captured image is selected. It is good also as a structure which receives operation. At this time, the captured images of the divided scenes may be rearranged in the order of importance and switched and displayed in the rearranged order based on the result of the importance calculation process in step a17.

そして、保存画像選択処理部287は、選択依頼の通知に応答して保存画像が選択された場合には(ステップa25:Yes)、保存処理を行い(ステップa27)、ステップa29に移る。   If the saved image is selected in response to the selection request notification (step a25: Yes), the saved image selection processing unit 287 performs the saving process (step a27), and proceeds to step a29.

ステップa29では、保存画像選択処理部287は、分割シーンの変更操作の有無を監視する。そして、保存画像選択処理部287は、分割シーンの変更操作があった場合には(ステップa29:Yes)、ステップa19に戻って再度分割シーンの選択依頼を通知し、上記した処理を行う。一方、保存画像選択処理部287は、分割シーンの変更操作がない場合には(ステップa29:No)、保存完了操作の有無によって保存を完了するか否かを判定し、保存を完了するまでの間(ステップa31:No)、ステップa25に戻って上記した処理を行う。一方、保存を完了する場合には(ステップa31:Yes)、本処理を終える。   In step a29, the saved image selection processing unit 287 monitors the presence / absence of a split scene change operation. Then, when there is an operation for changing the divided scene (step a29: Yes), the saved image selection processing unit 287 returns to step a19 to notify the selection request for the divided scene again and performs the above-described processing. On the other hand, when there is no operation for changing the divided scene (step a29: No), the saved image selection processing unit 287 determines whether or not to save the image depending on the presence or absence of the save completion operation. In the meantime (step a31: No), the process returns to step a25 to perform the above-described processing. On the other hand, when the storage is completed (step a31: Yes), this process is finished.

以上説明したように、実施の形態1によれば、連続画像を構成する撮影画像間で動き検出を行って連続画像中に出現する移動体の動きを検出し、動き検出結果をもとに連続画像内での移動体の状態変化を判別することによって、連続画像の中から代表画像を抽出することができる。詳細には、移動体の状態変化をもとに連続画像を連写シーンに分類し、分類した連写シーンに応じた位置で連続画像を分割することによって、分割した位置の撮影画像を代表画像として抽出することができる。これによれば、連続画像中で移動体がどのように動いたかによって代表画像を抽出することができるので、連続画像の中からユーザにとって有用な代表画像を適切に抽出することができる。また、抽出した代表画像を表示部23に表示してユーザに提示することができる。したがって、連続画像の中から保存する撮影画像を選択する際のユーザの作業負担を軽減できる。   As described above, according to the first embodiment, motion detection is performed between captured images constituting a continuous image to detect the movement of a moving body that appears in the continuous image, and the motion detection results are continuously generated based on the motion detection result. By determining the state change of the moving body in the image, the representative image can be extracted from the continuous image. Specifically, the continuous images are classified into continuous shooting scenes based on the change in the state of the moving object, and the continuous images are divided at positions corresponding to the classified continuous shooting scenes. Can be extracted as According to this, since the representative image can be extracted depending on how the moving body moves in the continuous image, it is possible to appropriately extract the representative image useful for the user from the continuous image. Further, the extracted representative image can be displayed on the display unit 23 and presented to the user. Therefore, it is possible to reduce the work burden on the user when selecting a captured image to be saved from the continuous images.

なお、上記した実施の形態1では、連続画像の連写シーンがシーンaに分類された場合に、移動体の移動中心位置を分割位置として代表画像を抽出することとした。これに対し、移動体が撮影画角の中央に最も近接した位置で連続画像を分割するようにしてもよい。これによれば、移動体が中央付近に写る撮影画像を代表画像として抽出することができる。   In Embodiment 1 described above, when a continuous shot scene of continuous images is classified as scene a, the representative image is extracted with the movement center position of the moving object as the division position. On the other hand, the continuous image may be divided at a position where the moving body is closest to the center of the shooting angle of view. According to this, it is possible to extract a photographed image in which the moving body appears near the center as a representative image.

また、連続画像の連写シーンをシーンcに分類した場合に、移動方向の変化位置を分割位置として代表画像を抽出する場合について例示したが、これに限定されるものではない。例えば、移動体の移動方向が所定の変化パターンに従って規則的に変化している場合には、移動体の移動開始位置から移動終了位置またはフレームアウト位置までの間を予め設定される所定数に等分割し、分割した位置の撮影画像を代表画像として抽出することとしてもよい。   Moreover, although the case where a continuous image of continuous images is classified into the scene c and the representative image is extracted with the change position in the moving direction as the division position is illustrated, the present invention is not limited to this. For example, when the moving direction of the moving body changes regularly according to a predetermined change pattern, the distance from the moving start position to the moving end position or frame-out position of the moving body is set to a predetermined number. It is good also as dividing and extracting the picked-up image of the divided position as a representative image.

また、移動体が顔である場合に、顔検出部17によって検出された顔の位置、顔の大きさ、顔の向き、顔の角度(傾き)等を加味して移動体の状態変化を判別するようにしてもよい。   Further, when the moving body is a face, the state change of the moving body is determined by taking into consideration the face position, face size, face orientation, face angle (tilt), etc. detected by the face detection unit 17. You may make it do.

また、代表画像としてユーザに提示する撮影画像の枚数を予め設定しておくようにしてもよい。そして、設定された枚数以上の代表画像が抽出された場合には、抽出された代表画像の中から設定された枚数の代表画像を選出するようにしてもよい。このとき、重要度算出部285によって撮影画像毎に算出される重要度の値を用いて、重要度の高い代表画像から順番に設定された枚数の代表画像を選出するようにしてもよい。   Further, the number of photographed images to be presented to the user as representative images may be set in advance. Then, when more than the set number of representative images are extracted, a set number of representative images may be selected from the extracted representative images. At this time, using the importance value calculated for each captured image by the importance calculation unit 285, a set number of representative images may be selected in order from the representative images having the highest importance.

また、上記した実施の形態1では、連続画像分割部283によって分割位置とされた位置の撮影画像を代表画像として抽出する場合について説明したが、これに限定されるものではない。例えば、分割位置とされた位置を基準として前後に隣接する所定枚数の撮影画像を代表画像として抽出するようにしてもよい。   In the first embodiment described above, the case where the captured image at the position determined by the continuous image dividing unit 283 is extracted as the representative image has been described. However, the present invention is not limited to this. For example, a predetermined number of photographed images adjacent to each other on the basis of the divided positions may be extracted as representative images.

また、上記した実施の形態1では、連続画像分割部283によって抽出された代表画像を表示部23に表示してユーザに提示し、保存画像の選択操作を受け付けることとしたが、抽出した代表画像を自動的に保存画像とし、記録媒体20に記録するようにしてもよい。またこの場合に、変形例として上記したように、分割位置を基準として前後に隣接する所定枚数の撮影画像を代表画像として抽出し、抽出した代表画像を保存するようにしてもよい。これによれば、代表画像と例えばその前後数枚の撮影画像を自動的に記録媒体20に記録することができる。   In the first embodiment described above, the representative image extracted by the continuous image dividing unit 283 is displayed on the display unit 23 and presented to the user, and the selection operation of the saved image is accepted. May be automatically stored and recorded on the recording medium 20. In this case, as described above as a modified example, a predetermined number of photographed images adjacent to each other on the basis of the division position may be extracted as representative images, and the extracted representative images may be stored. According to this, the representative image and, for example, several photographed images before and after the representative image can be automatically recorded on the recording medium 20.

また、連続画像内において複数の移動体が検出された場合には、例えばユーザ操作に従って1つまたは複数の移動体を選択し、選択した移動体について動き検出を行ってその状態変化を判別するようにしてもよい。これによれば、複数の移動体のうちの所望の移動体に着目した代表画像の抽出が実現できる。   Further, when a plurality of moving bodies are detected in the continuous image, for example, one or a plurality of moving bodies are selected according to a user operation, and motion detection is performed on the selected moving bodies to determine the state change. It may be. According to this, extraction of a representative image focusing on a desired moving body among a plurality of moving bodies can be realized.

(実施の形態2)
図19は、実施の形態2の代表画像の抽出原理を説明する図であり、連続画像を構成する各撮影画像に写る移動体の移動経路(移動体の位置の変化)の一例として、放物線を描いて移動する移動体の移動経路を示している。
(Embodiment 2)
FIG. 19 is a diagram for explaining the principle of extracting a representative image according to the second embodiment. As an example of a moving path (change in the position of the moving object) of the moving object shown in each captured image constituting the continuous image, a parabola is used. The moving path of the moving body which draws and moves is shown.

実施の形態2では、撮影画像間の移動体の動き(移動量)をもとに、移動速度を解析する。続いて、移動体の移動区間内を、例えば移動速度が予め設定される所定の基準速度以上の区間と移動速度が基準速度に満たない区間とに区切り、各区間内を所定数に等分割する。この基準速度については、予め固定値として設定しておく構成としてもよいし、例えばユーザ操作に従って可変に設定する構成としてもよい。そして、各区間内を等分割した分割位置の撮影画像を代表画像として抽出する。図19では、移動体の移動区間内を、移動速度が基準速度以上の区間Aおよび区間Cと、移動速度が基準速度に満たない区間Bとに区切っている。そして、各区間A,B,C内をそれぞれ等分割し、区間Aから5枚の代表画像I51〜I55、区間Bから5枚の代表画像I61〜I65、区間Cから5枚の代表画像I71〜I75を抽出する様子を示している。図20−1〜5は、図19の区間Aから抽出された代表画像I51〜I55を示す図であり、図21−1〜5は、図19の区間Bから抽出された代表画像I61〜I65を示す図であり、図22−1〜5は、図19の区間Cから抽出された代表画像I71〜I75を示す図である。   In the second embodiment, the movement speed is analyzed based on the movement (movement amount) of the moving body between the captured images. Subsequently, the moving section of the moving body is divided into, for example, a section where the moving speed is equal to or higher than a predetermined reference speed and a section where the moving speed is less than the reference speed, and each section is equally divided into a predetermined number. . The reference speed may be set in advance as a fixed value, or may be set variably according to a user operation, for example. And the picked-up image of the division position equally divided in each section is extracted as a representative image. In FIG. 19, the moving section of the moving body is divided into a section A and a section C in which the moving speed is equal to or higher than the reference speed, and a section B in which the moving speed is less than the reference speed. Then, the sections A, B, and C are equally divided into five representative images I51 to I55 from the section A, five representative images I61 to I65 from the section B, and five representative images I71 to 71 from the section C. It shows how I75 is extracted. 20-1 to 5 are diagrams showing representative images I51 to I55 extracted from the section A in FIG. 19, and FIGS. 21-1 to 5 are representative images I61 to I65 extracted from the section B in FIG. FIGS. 22-1 to 5 are diagrams illustrating representative images I71 to I75 extracted from the section C in FIG.

なお、ここでは、各区間A,B,Cからそれぞれ同数の撮影画像を抽出する場合を例示したが、分割数は個別に設定してもよい。例えば、移動速度の速い区間の分割数を、移動速度の低い区間の分割数よりも多く設定してもよい。また、区間内の撮影画像の枚数を計数し、計数した枚数に応じた分割数で等分割することとしてもよい。また、移動速度の速い区間のみ分割し、移動速度の遅い区間は分割しないようにしてもよい。逆に、移動速度の遅い区間のみ分割し、移動速度の速い区間は分割しないようにしてもよい。また、図示しないが、移動体の移動速度が基準速度以上となる区間が存在しない場合には、移動体の移動区間全体を等分割して例えば5枚の撮影画像を抽出する。   In addition, although the case where the same number of photographed images is extracted from each of the sections A, B, and C is illustrated here, the number of divisions may be set individually. For example, the number of divisions in a section with a high moving speed may be set larger than the number of divisions in a section with a low moving speed. Further, the number of photographed images in the section may be counted and equally divided by the number of divisions corresponding to the counted number. Further, it is possible to divide only a section having a high movement speed and not to divide a section having a low movement speed. On the contrary, it is possible to divide only a section having a low movement speed and not to divide a section having a high movement speed. Although not shown, when there is no section where the moving speed of the moving body is equal to or higher than the reference speed, the entire moving section of the moving body is equally divided and, for example, five captured images are extracted.

図23は、実施の形態2のデジタルカメラのコントローラ28bの構成を示す図である。なお、実施の形態2のデジタルカメラは、実施の形態1において図5に示したデジタルカメラ1の構成において、コントローラ28を図23に示すコントローラ28bに置き換えた構成で実現できる。また、図23において、実施の形態1と同様の構成には、同一の符号を付している。   FIG. 23 is a diagram illustrating a configuration of the controller 28b of the digital camera according to the second embodiment. The digital camera of the second embodiment can be realized by replacing the controller 28 with the controller 28b shown in FIG. 23 in the configuration of the digital camera 1 shown in FIG. 5 in the first embodiment. In FIG. 23, the same reference numerals are given to the same components as those in the first embodiment.

図23に示すように、実施の形態2では、コントローラ28bは、変化判別部としての移動体状態解析部282bと、画像抽出部としての連続画像分割部283bと、重要度算出部285と、表示処理部としての保存画像選択処理部287とを含む。移動体状態解析部282bは、連続画像内に出現した移動体の状態を解析して状態変化を判別する。実施の形態2では、移動体状態解析部282bは、移動体の移動開始位置、フレームアウト位置、移動終了位置および移動体の移動速度を解析する。連続画像分割部283bは、移動体の移動速度に応じた位置で連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。   As shown in FIG. 23, in the second embodiment, the controller 28b includes a moving body state analyzing unit 282b as a change determining unit, a continuous image dividing unit 283b as an image extracting unit, an importance calculating unit 285, a display And a stored image selection processing unit 287 as a processing unit. The moving body state analysis unit 282b analyzes the state of the moving body that has appeared in the continuous image and determines the state change. In the second embodiment, the moving body state analyzing unit 282b analyzes the moving start position, the frame-out position, the moving end position, and the moving speed of the moving body. The continuous image dividing unit 283b divides the continuous image at a position corresponding to the moving speed of the moving body, and extracts the captured image at the divided position as a representative image.

図24は、実施の形態2のデジタルカメラが行う処理の手順を説明するフローチャートであり、連写モードにおけるデジタルカメラの処理手順を示している。なお、図24では、実施の形態1と同様の処理工程については、同一の符号を付している。   FIG. 24 is a flowchart for explaining a processing procedure performed by the digital camera according to the second embodiment, and shows a processing procedure of the digital camera in the continuous shooting mode. In FIG. 24, the same reference numerals are assigned to the same processing steps as those in the first embodiment.

実施の形態2では、連写枚数が所定枚数より多い場合に(ステップa11:Yes)、移動体状態解析部282bが移動体状態解析処理を行う(ステップl13)。図25は、移動体状態解析処理の詳細な処理手順を示すフローチャートである。   In the second embodiment, when the number of continuous shots is greater than the predetermined number (step a11: Yes), the moving body state analysis unit 282b performs a moving body state analysis process (step l13). FIG. 25 is a flowchart showing a detailed processing procedure of the moving body state analysis processing.

移動体状態解析処理では先ず、移動体状態解析部282bは、移動体の移動開始位置を解析する(ステップm1)。例えば、その移動体が最初に検出されて登録移動体として登録された撮影画像を移動開始位置とし、画像番号を移動開始画像番号として取得する。   In the moving body state analyzing process, first, the moving body state analyzing unit 282b analyzes the movement start position of the moving body (step m1). For example, a captured image that is first detected and registered as a registered moving body is set as a movement start position, and an image number is acquired as a movement start image number.

続いて、移動体状態解析部282bは、移動体の移動速度を解析する(ステップm3)。例えば、移動体状態解析部282bは、連続画像を構成する各撮影画像間での移動体の動き検出結果をもとに、各撮影画像間での移動体の移動量を移動速度として算出する。   Subsequently, the moving body state analyzing unit 282b analyzes the moving speed of the moving body (step m3). For example, the moving body state analyzing unit 282b calculates the moving amount of the moving body between the captured images as the moving speed based on the motion detection result of the moving body between the captured images constituting the continuous image.

続いて、移動体状態解析部282bは、移動体のフレームアウト位置を解析する(ステップm5)。例えば、その移動体が画角範囲の端部に移動し、画角範囲から外れた撮影画像をフレームアウト位置とし、画像番号をフレームアウト画像番号として取得する。   Subsequently, the moving body state analyzing unit 282b analyzes the frame-out position of the moving body (step m5). For example, the moving body moves to the end of the field angle range, and a captured image outside the field angle range is set as the frame-out position, and the image number is acquired as the frame-out image number.

続いて、移動体状態解析部282bは、移動体の移動終了位置を解析する(ステップm7)。例えば、その移動体が停止した撮影画像あるいはその移動体を追尾できなくなった撮影画像を移動終了位置とし、画像番号を移動終了画像番号として取得する。そして、図24のステップl13にリターンし、その後、ステップl15に移る。   Subsequently, the moving body state analyzing unit 282b analyzes the moving end position of the moving body (step m7). For example, a captured image in which the moving body is stopped or a captured image in which the moving body cannot be tracked is set as the movement end position, and the image number is acquired as the movement end image number. Then, the process returns to step l13 in FIG. 24, and then proceeds to step l15.

ステップl15では、連続画像分割部283bが、連続画像分割処理を行う。図26は、連続画像分割処理の詳細な処理手順を示すフローチャートである。   In step l15, the continuous image dividing unit 283b performs a continuous image dividing process. FIG. 26 is a flowchart illustrating a detailed processing procedure of continuous image division processing.

連続画像分割処理では、連続画像分割部283bは先ず、移動体の移動開始画像番号を取得する(ステップn1)。そして、連続画像分割部283bは、連続画像内で移動体が移動している区間(移動区間)の先頭の撮影画像を移動開始画像番号とする(ステップn3)。続いて、連続画像分割部283bは、移動終了フラグを判定する。そして、連続画像分割部283bは、移動終了フラグがONであれば(ステップn5:Yes)、移動区間の最後尾の撮影画像を移動終了画像番号とし(ステップn7)、ステップn15に移る。   In the continuous image dividing process, the continuous image dividing unit 283b first acquires the movement start image number of the moving object (step n1). Then, the continuous image dividing unit 283b sets the first captured image of the section (moving section) in which the moving body is moving in the continuous image as the movement start image number (step n3). Subsequently, the continuous image dividing unit 283b determines a movement end flag. If the movement end flag is ON (step n5: Yes), the continuous image dividing unit 283b sets the last captured image in the movement section as the movement end image number (step n7), and proceeds to step n15.

一方、ステップn5において判定した移動終了フラグがOFFであれば(ステップn5:No)、続いて連続画像分割部283bは、フレームアウトフラグを判定する。そして、連続画像分割部283bは、フレームアウトフラグがONであれば(ステップn9:Yes)、移動区間の最後尾の撮影画像をフレームアウト画像番号とし(ステップn11)、ステップn15に移る。   On the other hand, if the movement end flag determined in step n5 is OFF (step n5: No), the continuous image dividing unit 283b subsequently determines a frame-out flag. If the frame-out flag is ON (step n9: Yes), the continuous image dividing unit 283b sets the last captured image in the movement section as the frame-out image number (step n11), and proceeds to step n15.

また、ステップn9において判定したフレームアウトフラグがOFFの場合には(ステップn9:No)、移動区間の最後尾の撮影画像を連続画像の最終画像番号とし(ステップn13)、ステップn15に移る。   If the frame-out flag determined in step n9 is OFF (step n9: No), the last captured image number of the moving section is set as the final image number of the continuous image (step n13), and the process proceeds to step n15.

ステップn15では、連続画像分割部283bは、移動体の移動速度の変化を判別する。そして、連続画像分割部283bは、いずれかの撮影画像間で移動速度が所定の基準速度以上となっていれば(ステップn15:Yes)、移動区間内を移動速度が基準速度以上の区間と基準速度に満たない区間とに区切り、先ず、移動速度が基準速度以上の区間内を所定数に等分割して分割位置を設定する(ステップn17)。続いて、連続画像分割部283bは、移動速度が基準速度に満たない区間内を所定数に等分割して分割位置を設定する(ステップn19)。そして、ステップn23に移る。一方、移動速度が基準速度以上となっていない場合には(ステップn15:No)、移動区間全体を所定数に等分割して分割位置を設定する(ステップn21)。そして、ステップn23に移る。   In step n15, the continuous image dividing unit 283b determines a change in the moving speed of the moving object. Then, if the moving speed between any of the captured images is equal to or higher than the predetermined reference speed (step n15: Yes), the continuous image dividing unit 283b and the reference speed between the interval where the moving speed is equal to or higher than the reference speed. First, a section where the moving speed is equal to or higher than the reference speed is equally divided into a predetermined number to set a division position (step n17). Subsequently, the continuous image dividing unit 283b equally divides the section in which the moving speed is less than the reference speed into a predetermined number and sets the division position (step n19). Then, the process proceeds to step n23. On the other hand, when the moving speed is not equal to or higher than the reference speed (step n15: No), the entire moving section is equally divided into a predetermined number to set the dividing position (step n21). Then, the process proceeds to step n23.

ステップn23では、分割位置の撮影画像を代表画像として抽出する。そして、図24のステップl15にリターンし、その後ステップa17に移る。   In step n23, the captured image at the division position is extracted as a representative image. Then, the process returns to step l15 in FIG. 24, and then proceeds to step a17.

以上説明したように、実施の形態2によれば、連続画像を構成する撮影画像間で動き検出を行って連続画像中に出現する移動体の動きを検出し、動き検出結果をもとに連続画像内での移動体の状態変化として移動速度の変化を判別することができる。そして、移動体の移動速度に応じた分割位置で連続画像を分割することによって、分割した位置の撮影画像を代表画像として抽出することができる。例えば、移動体の移動区間内を、移動速度が所定の基準速度以上の区間と基準速度に満たない区間とに区切り、区間内を等分割して分割位置を設定し、代表画像を抽出することができる。したがって、連続画像中での移動体の移動速度の変化に応じて代表画像を抽出し、ユーザに提示できる。   As described above, according to the second embodiment, motion detection is performed between captured images constituting a continuous image to detect the movement of a moving body that appears in the continuous image, and the motion detection results are continuously detected based on the motion detection result. A change in the moving speed can be determined as a change in the state of the moving body in the image. Then, by dividing the continuous image at the division position according to the moving speed of the moving body, the captured image at the divided position can be extracted as the representative image. For example, the moving section of the moving object is divided into a section where the moving speed is equal to or higher than a predetermined reference speed and a section where the moving speed is less than the reference speed, and the section is equally divided to set a division position and extract a representative image. Can do. Therefore, a representative image can be extracted according to a change in the moving speed of the moving body in the continuous image and presented to the user.

なお、上記した実施の形態1では、移動体の重なり状態や分裂状態、移動体の移動方向が一定なのか不安定なのかそれとも所定の変化パターンに従って規則的に変化しているのかを判別して連写シーンに分類し、連写シーンに応じた位置で連続画像を分割することとした。一方、実施の形態2では、移動体の状態変化として移動速度の変化を判別し、判別した移動方向の変化に応じた位置で連続画像を分割することとした。これに対し、移動体の大きさの変化を判別し、判別した大きさの変化に応じた位置で連続画像を分割することとしてもよい。例えば、実施の形態2の適用例と同様にして、移動体の大きさが所定の基準サイズ以上である区間と、基準サイズに満たない区間とに区切り、区間内を等分割して分割位置を設定し、代表画像を抽出することとしてもよい。また、移動体の大きさが基準サイズ以上となる区間が存在しない場合には、移動体の移動区間全体を等分割して分割位置を設定することとしてもよい。   In the first embodiment described above, it is determined whether the overlapping state or split state of the moving body, whether the moving direction of the moving body is constant or unstable, or whether the moving body changes regularly according to a predetermined change pattern. The continuous images were classified into continuous shooting scenes, and continuous images were divided at positions corresponding to the continuous shooting scenes. On the other hand, in the second embodiment, a change in moving speed is determined as a change in the state of the moving body, and a continuous image is divided at positions corresponding to the determined change in moving direction. On the other hand, a change in the size of the moving body may be determined, and the continuous image may be divided at a position corresponding to the determined change in size. For example, in the same manner as in the application example of the second embodiment, the moving body is divided into a section having a size equal to or larger than a predetermined reference size and a section that does not satisfy the reference size, and the section is divided into equal parts. It is good also as setting and extracting a representative image. Further, when there is no section where the size of the moving body is equal to or larger than the reference size, the entire moving section of the moving body may be equally divided to set the division position.

またこの場合には、実施の形態2と同様に、移動体の大きさが大きい区間と、移動体の大きさが小さい区間とを異なる分割数で分割することとしてもよい。例えば、サイズの大きい区間の分割数を、サイズの小さい区間の分割数よりも多く設定してもよい。また、区間内の撮影画像の枚数を計数し、計数した枚数に応じた分割数で等分割することとしてもよい。また、サイズの大きい区間のみ分割し、サイズの小さい区間は分割しないようにしてもよい。逆に、サイズの小さい区間のみ分割し、サイズの大きい区間は分割しないようにしてもよい。   In this case, similarly to the second embodiment, the section in which the size of the moving object is large and the section in which the size of the moving object is small may be divided by different numbers of divisions. For example, the number of divisions in a large size section may be set larger than the number of divisions in a small size section. Further, the number of photographed images in the section may be counted and equally divided by the number of divisions corresponding to the counted number. Further, only a section having a large size may be divided, and a section having a small size may not be divided. On the contrary, it is possible to divide only a small-sized section and not divide a large-sized section.

また、移動体の移動方向の変化、移動速度の変化および大きさの変化の少なくとも2つ以上を組み合わせて移動体の状態変化を判別し、分割位置を設定するようにしてもよい。さらにこのとき、移動体が顔である場合に、顔検出部17によって検出された顔の位置、顔の大きさ、顔の向きおよび顔の角度(傾き)の少なくともいずれか1つの変化を加味してを加味して移動体の状態変化を判別するようにしてもよい。   Further, the division position may be set by determining the state change of the moving body by combining at least two or more of the change in the moving direction of the moving body, the change in the moving speed, and the change in the magnitude. Further, at this time, when the moving body is a face, a change in at least one of the face position, the face size, the face direction, and the face angle (tilt) detected by the face detection unit 17 is taken into account. The change in the state of the moving body may be determined in consideration of the above.

また、画像処理部16、コントローラ28または28bを構成する連写シーン分類部281、移動体状態解析部282b、連続画像分割部283,283b、重要度算出部285、保存画像選択処理部287は、ハードウェアで実現する構成としてもよいし、所定のプログラムを実行することによってソフトウェアとして実現することとしてもよい。ソフトウェアとして実現する場合には、例えば、図8〜図18に示した処理、あるいは図24〜図26に示した処理の一部または全部を実現するためのプログラムをROM27に記録しておく。そして、コントローラ28,28bがこのプログラムを読み出して実行することによって、連写シーン分類部281、移動体状態解析部282b、連続画像分割部283,283b、重要度算出部285、保存画像選択処理部287の構成を実現するようにしてもよい。   Further, the image processing unit 16, the continuous shooting scene classifying unit 281 constituting the controller 28 or 28b, the moving object state analyzing unit 282b, the continuous image dividing units 283 and 283b, the importance calculating unit 285, and the saved image selection processing unit 287 are: The configuration may be realized by hardware, or may be realized as software by executing a predetermined program. When implemented as software, for example, a program for realizing part or all of the processing shown in FIGS. 8 to 18 or the processing shown in FIGS. 24 to 26 is recorded in the ROM 27. Then, the controller 28, 28b reads out and executes this program, so that the continuous shooting scene classification unit 281, the moving body state analysis unit 282b, the continuous image division units 283, 283b, the importance calculation unit 285, and the saved image selection processing unit. The configuration of 287 may be realized.

また、上記した実施の形態では、本発明の撮影装置をデジタルカメラに適用した例について説明したが、適用対象はデジタルカメラに限定されず、携帯電話機に付属のカメラやPC付属のカメラに適用してもよい。   In the above-described embodiment, an example in which the photographing apparatus of the present invention is applied to a digital camera has been described. However, the application target is not limited to a digital camera, and is applied to a camera attached to a mobile phone or a camera attached to a PC. May be.

連続画像の一例を示す図である。It is a figure which shows an example of a continuous image. 連続画像の他の例を示す図である。It is a figure which shows the other example of a continuous image. 連続画像の他の例を示す図である。It is a figure which shows the other example of a continuous image. 連続画像の他の例を示す図である。It is a figure which shows the other example of a continuous image. 実施の形態1のデジタルカメラの構成例を示す概略ブロック図である。1 is a schematic block diagram illustrating a configuration example of a digital camera according to Embodiment 1. FIG. 移動体検出エリアおよび登録移動体エリアの一例を示す図である。It is a figure which shows an example of a mobile body detection area and a registration mobile body area. 移動体検出エリアおよび登録移動体エリアの他の例を示す図である。It is a figure which shows the other example of a mobile body detection area and a registration mobile body area. 実施の形態1のデジタルカメラが行う処理の手順を説明するフローチャートである。4 is a flowchart illustrating a procedure of processing performed by the digital camera according to the first embodiment. 動き検出処理の詳細な処理手順を説明するフローチャートである。It is a flowchart explaining the detailed process sequence of a motion detection process. 顔検出処理の詳細な処理手順を説明するフローチャートである。It is a flowchart explaining the detailed process sequence of a face detection process. 連写シーン分類処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a continuous shooting scene classification | category process. 移動体状態解析処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a moving body state analysis process. 実施の形態1の連続画像分割処理の詳細な処理手順を示すフローチャートである。3 is a flowchart illustrating a detailed processing procedure of continuous image division processing according to the first embodiment. シーンa/c分割処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a scene a / c division process. シーンb分割処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a scene b division process. シーンd分割処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a scene d division | segmentation process. シーンe分割処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a scene e division | segmentation process. 移動体重要度算出処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a mobile body importance degree calculation process. 実施の形態2の代表画像の抽出原理を説明する図である。FIG. 10 is a diagram for explaining a principle of extracting a representative image according to the second embodiment. 図19の区間Aから抽出された代表画像の一例を示す図である。It is a figure which shows an example of the representative image extracted from the area A of FIG. 図19の区間Aから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area A of FIG. 図19の区間Aから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area A of FIG. 図19の区間Aから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area A of FIG. 図19の区間Aから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area A of FIG. 図19の区間Bから抽出された代表画像の一例を示す図である。It is a figure which shows an example of the representative image extracted from the area B of FIG. 図19の区間Bから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area B of FIG. 図19の区間Bから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area B of FIG. 図19の区間Bから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area B of FIG. 図19の区間Bから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area B of FIG. 図19の区間Cから抽出された代表画像の一例を示す図である。It is a figure which shows an example of the representative image extracted from the area C of FIG. 図19の区間Cから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area C of FIG. 図19の区間Cから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area C of FIG. 図19の区間Cから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area C of FIG. 図19の区間Cから抽出された代表画像の他の例を示す図である。It is a figure which shows the other example of the representative image extracted from the area C of FIG. 実施の形態2のデジタルカメラのコントローラの構成を示す図である。6 is a diagram illustrating a configuration of a controller of a digital camera according to Embodiment 2. FIG. 実施の形態2のデジタルカメラが行う処理の手順を説明するフローチャートである。10 is a flowchart illustrating a procedure of processing performed by the digital camera according to the second embodiment. 移動体状態解析処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a moving body state analysis process. 実施の形態2の連続画像分割処理の詳細な処理手順を示すフローチャートである。10 is a flowchart illustrating a detailed processing procedure of continuous image division processing according to the second embodiment.

1 デジタルカメラ
11 撮像光学系
12 撮像素子
13 AFE
14 フレームメモリ
15 動き検出部
16 画像処理部
17 顔検出部
18 記録媒体I/F
19 記録媒体保持部
20 記録媒体
21 ビデオエンコーダ
22 表示ドライバ
23 表示部
24 ビデオ信号出力端子
25 操作部
26 RAM
27 ROM
28,28b コントローラ
281 連写シーン分類部
282b 移動体状態解析部
283,283b 連続画像分割部
285 重要度算出部
287 保存画像選択処理部
1 Digital Camera 11 Imaging Optical System 12 Image Sensor 13 AFE
14 frame memory 15 motion detection unit 16 image processing unit 17 face detection unit 18 recording medium I / F
DESCRIPTION OF SYMBOLS 19 Recording medium holding | maintenance part 20 Recording medium 21 Video encoder 22 Display driver 23 Display part 24 Video signal output terminal 25 Operation part 26 RAM
27 ROM
28, 28b Controller 281 Continuous shooting scene classification unit 282b Moving object state analysis unit 283, 283b Continuous image division unit 285 Importance calculation unit 287 Saved image selection processing unit

Claims (14)

連続的に撮影処理を行って複数の撮影画像の画像データで構成される連続画像を取得する連続画像取得部と、
前記複数の撮影画像毎に、隣接する撮影画像との間の動きを検出して前記撮影画像中の移動体を検出する移動体検出部と、
前記移動体検出部による検出結果をもとに、前記連続画像内での前記移動体の状態変化を判別する変化判別部と、
前記変化判別部による判別結果をもとに、前記連続画像の中から代表画像を抽出する画像抽出部と、
を備えることを特徴とする撮影装置。
A continuous image acquisition unit that continuously performs shooting processing to acquire a continuous image composed of image data of a plurality of captured images;
For each of the plurality of captured images, a moving body detection unit that detects a movement between adjacent captured images and detects a moving body in the captured images;
Based on the detection result by the moving body detection unit, a change determination unit that determines a state change of the moving body in the continuous image;
Based on the determination result by the change determination unit, an image extraction unit that extracts a representative image from the continuous image;
An imaging apparatus comprising:
前記変化判別部は、前記移動体の移動方向の変化、前記移動体の移動速度の変化および前記移動体の大きさの変化の少なくともいずれか1つを判別することを特徴とする請求項1に記載の撮影装置。   The change determination unit determines at least one of a change in a moving direction of the moving body, a change in a moving speed of the moving body, and a change in the size of the moving body. The photographing apparatus described. 前記画像抽出部は、前記変化判別部による判別結果に応じた位置で前記連続画像を分割し、少なくとも前記分割した位置の撮影画像を前記代表画像として抽出することを特徴とする請求項1に記載の撮影装置。   The image extraction unit divides the continuous image at a position corresponding to a determination result by the change determination unit, and extracts at least a photographed image at the divided position as the representative image. Shooting device. 前記変化判別部は、前記移動体の移動方向が所定の変化パターンに従って規則的に変化した状態を判別し、
前記画像抽出部は、前記変化判別部によって前記規則的な変化が判別された場合に、前記移動体の移動方向が変化した位置で前記連続画像を分割することを特徴とする請求項3に記載の撮影装置。
The change determining unit determines a state in which the moving direction of the moving body is regularly changed according to a predetermined change pattern;
The said image extraction part divides | segments the said continuous image in the position where the moving direction of the said mobile body changed, when the said regular change is discriminate | determined by the said change discrimination | determination part. Shooting device.
前記変化判別部は、前記移動体が方向を変えずに所定の方向に沿って移動した状態または前記移動体の移動方向が不規則に変化した状態を判別し、
前記画像抽出部は、前記変化判別部によって前記所定方向に沿った変化または前記不規則な変化が判別された場合に、前記移動体の移動開始位置から前記移動体の移動終了位置までの移動経路上の中間位置で前記連続画像を分割することを特徴とする請求項3に記載の撮影装置。
The change determining unit determines a state in which the moving body moves along a predetermined direction without changing a direction or a state in which the moving direction of the moving body changes irregularly,
The image extraction unit includes a movement path from a movement start position of the moving body to a movement end position of the moving body when the change determination section determines a change along the predetermined direction or the irregular change. The photographing apparatus according to claim 3, wherein the continuous image is divided at an upper intermediate position.
前記変化判別部は、前記移動体が方向を変えずに所定の方向に沿って移動した状態または前記移動体の移動方向が不規則に変化した状態を判別し、
前記画像抽出部は、前記変化判別部によって前記所定方向に沿った変化または前記不規則な変化が判別された場合に、前記移動体が撮影画角の中央に最も近接した位置で前記連続画像を分割することを特徴とする請求項3に記載の撮影装置。
The change determining unit determines a state in which the moving body moves along a predetermined direction without changing a direction or a state in which the moving direction of the moving body changes irregularly,
The image extraction unit, when the change determination unit determines a change along the predetermined direction or the irregular change, the moving body displays the continuous image at a position closest to the center of the shooting angle of view. The photographing apparatus according to claim 3, wherein the photographing apparatus is divided.
前記移動体検出部は、複数の移動体を検出可能に構成されており、
前記変化判別部は、前記移動体同士が重なった状態を重なり状態として判別し、
前記画像抽出部は、前記移動体同士が重なった位置で前記連続画像を分割することを特徴とする請求項3に記載の撮影装置。
The moving body detection unit is configured to be able to detect a plurality of moving bodies,
The change determination unit determines the overlapping state of the moving bodies as an overlapping state,
The imaging apparatus according to claim 3, wherein the image extraction unit divides the continuous image at a position where the moving bodies overlap each other.
前記移動体検出部は、複数の移動体を検出可能に構成されており、
前記変化判別部は、前記複数の移動体のうちのいずれか1つの移動体の位置を始点として他の移動体が移動を開始した状態を分裂状態として判別し、
前記画像抽出部は、前記移動体が分裂した位置で前記連続画像を分割することを特徴とする請求項3に記載の撮影装置。
The moving body detection unit is configured to be able to detect a plurality of moving bodies,
The change determining unit determines, as a split state, a state in which another moving body starts moving, starting from the position of any one of the plurality of moving bodies.
The imaging apparatus according to claim 3, wherein the image extraction unit divides the continuous image at a position where the moving body is divided.
前記画像抽出部は、前記移動体の移動開始位置および前記移動体の移動終了位置の少なくともいずれかの位置で前記連続画像をさらに分割することを特徴とする請求項3に記載の撮影装置。   The imaging apparatus according to claim 3, wherein the image extraction unit further divides the continuous image at at least one of a movement start position of the moving body and a movement end position of the moving body. 前記画像抽出部は、前記分割した位置の撮影画像と撮影順が隣接する所定枚数の撮影画像を前記代表画像として抽出することを特徴とする請求項3に記載の撮影装置。   The image capturing apparatus according to claim 3, wherein the image extraction unit extracts a predetermined number of photographed images whose photographing order is adjacent to the photographed image at the divided position as the representative image. 前記画像抽出部は、前記変化判別部による判別結果に従って前記移動体の移動区間内を1つ以上の区間に区切り、前記区間のうちの少なくとも1つの区間内を分割することを特徴とする請求項3に記載の撮影装置。   The said image extraction part divides | segments the inside of the movement area of the said mobile body into one or more areas according to the discrimination | determination result by the said change discrimination | determination part, and divides | segments the inside of at least 1 area of the said area. 3. The photographing apparatus according to 3. 前記代表画像を表示部に表示する処理を行う表示処理部を備えることを特徴とする請求項1に記載の撮影装置。   The photographing apparatus according to claim 1, further comprising a display processing unit that performs a process of displaying the representative image on a display unit. 前記表示処理部は、前記画像抽出部によって前記代表画像が複数抽出された場合に、各代表画像を一覧で表示または撮影順に順番に表示する処理を行うことを特徴とする請求項12に記載の撮影装置。   The said display process part performs the process which displays each representative image in a list or in order of imaging | photography in order, when the said image extraction part extracts the said representative image in multiple numbers. Shooting device. 連続的に撮影処理を行って複数の撮影画像の画像データで構成される連続画像を取得する連続画像取得工程と、
前記複数の撮影画像毎に、隣接する撮影画像との間の動きを検出して前記撮影画像中の移動体を検出する移動体検出工程と、
前記移動体検出工程による検出結果をもとに、前記連続画像内での前記移動体の状態変化を判別する変化判別工程と、
前記変化判別工程による判別結果をもとに、前記連続画像の中から代表画像を抽出する画像抽出工程と、
を含むことを特徴とする撮影方法。
A continuous image acquisition step of performing continuous shooting processing to acquire a continuous image composed of image data of a plurality of captured images;
For each of the plurality of captured images, a moving object detection step of detecting a movement between adjacent captured images and detecting a moving object in the captured images;
Based on the detection result of the moving body detection step, a change determination step for determining a state change of the moving body in the continuous image;
Based on the determination result by the change determination step, an image extraction step of extracting a representative image from the continuous image;
A photographing method characterized by comprising:
JP2009021993A 2009-02-02 2009-02-02 Imaging apparatus and imaging method Expired - Fee Related JP5209521B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009021993A JP5209521B2 (en) 2009-02-02 2009-02-02 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009021993A JP5209521B2 (en) 2009-02-02 2009-02-02 Imaging apparatus and imaging method

Publications (3)

Publication Number Publication Date
JP2010178318A true JP2010178318A (en) 2010-08-12
JP2010178318A5 JP2010178318A5 (en) 2012-03-08
JP5209521B2 JP5209521B2 (en) 2013-06-12

Family

ID=42708774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009021993A Expired - Fee Related JP5209521B2 (en) 2009-02-02 2009-02-02 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP5209521B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120026284A1 (en) * 2010-08-02 2012-02-02 Canon Kabushiki Kaisha Imaging apparatus and control method therefor
WO2013031241A1 (en) * 2011-09-02 2013-03-07 株式会社ニコン Electronic camera, image-processing apparatus, and image-processing program
JP2013066144A (en) * 2011-08-29 2013-04-11 Casio Comput Co Ltd Image editing device and program
JP2013198012A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Information processor, still-image frame sampling method and program
JP2014036421A (en) * 2012-08-10 2014-02-24 Canon Inc Image processing apparatus, method, and program
JP2015119323A (en) * 2013-12-18 2015-06-25 カシオ計算機株式会社 Imaging apparatus, image acquiring method and program
JP2016012834A (en) * 2014-06-30 2016-01-21 ブラザー工業株式会社 Image processing system and computer program
JP2021093616A (en) * 2019-12-10 2021-06-17 シャープ株式会社 Electronic device, control device, control method, and control program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180076A (en) * 2002-11-28 2004-06-24 Fuji Photo Film Co Ltd Imaging device, imaging method, and image processing device
JP2005176274A (en) * 2003-12-15 2005-06-30 Canon Inc Image pickup device and image pickup control method
JP2006333189A (en) * 2005-05-27 2006-12-07 Matsushita Electric Ind Co Ltd Image summary generator

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180076A (en) * 2002-11-28 2004-06-24 Fuji Photo Film Co Ltd Imaging device, imaging method, and image processing device
JP2005176274A (en) * 2003-12-15 2005-06-30 Canon Inc Image pickup device and image pickup control method
JP2006333189A (en) * 2005-05-27 2006-12-07 Matsushita Electric Ind Co Ltd Image summary generator

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120026284A1 (en) * 2010-08-02 2012-02-02 Canon Kabushiki Kaisha Imaging apparatus and control method therefor
JP2013066144A (en) * 2011-08-29 2013-04-11 Casio Comput Co Ltd Image editing device and program
US9214189B2 (en) 2011-08-29 2015-12-15 Casio Computer Co., Ltd. Image editing apparatus, image editing method, and storage medium storing image editing control program
US9792677B2 (en) 2011-09-02 2017-10-17 Nikon Corporation Electronic camera, image processing device, and image processing program
JP2013055455A (en) * 2011-09-02 2013-03-21 Nikon Corp Electronic camera, image processing device, and image processing program
WO2013031241A1 (en) * 2011-09-02 2013-03-07 株式会社ニコン Electronic camera, image-processing apparatus, and image-processing program
US10489898B2 (en) 2011-09-02 2019-11-26 Nikon Corporation Electronic camera, image-processing device, and image-processing program
JP2013198012A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Information processor, still-image frame sampling method and program
JP2014036421A (en) * 2012-08-10 2014-02-24 Canon Inc Image processing apparatus, method, and program
JP2015119323A (en) * 2013-12-18 2015-06-25 カシオ計算機株式会社 Imaging apparatus, image acquiring method and program
JP2016012834A (en) * 2014-06-30 2016-01-21 ブラザー工業株式会社 Image processing system and computer program
JP2021093616A (en) * 2019-12-10 2021-06-17 シャープ株式会社 Electronic device, control device, control method, and control program
JP7366722B2 (en) 2019-12-10 2023-10-23 シャープ株式会社 Electronic equipment, control device, control method, and control program

Also Published As

Publication number Publication date
JP5209521B2 (en) 2013-06-12

Similar Documents

Publication Publication Date Title
JP5209521B2 (en) Imaging apparatus and imaging method
US11012614B2 (en) Image processing device, image processing method, and program
US8797381B2 (en) Image processing apparatus and image processing method
JP5623256B2 (en) Imaging apparatus, control method thereof, and program
JP5293206B2 (en) Image search apparatus, image search method and program
JP2008009263A (en) Imaging device and program therefor
JP2008276214A (en) Digital camera
JP2010081535A (en) Imaging apparatus, imaging method, and program
US8965192B2 (en) Automatic focusing apparatus
US9055212B2 (en) Imaging system, image processing method, and image processing program recording medium using framing information to capture image actually intended by user
KR20100013701A (en) Apparatus and mthod for self timer image capture by checking the number of person
JP5289993B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP2010199694A (en) Image capturing apparatus, angle-of-view adjusting method, and program
JP2011217103A (en) Compound eye photographing method and apparatus
WO2011099092A1 (en) Motion-recognizing remote-control receiving device, and motion-recognizing remote-control control method
JP2007318292A (en) Motion vector detector and its program
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5858658B2 (en) Imaging device
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP4877186B2 (en) Image processing apparatus, image processing method, and program
JP5832618B2 (en) Imaging apparatus, control method thereof, and program
JP2011097502A (en) Photographing control device, and photographing control method
JP2011139123A (en) Image processor and image processing program
JP2008104070A (en) Portable apparatus with camera and program for portable apparatus with camera
JP2005215495A (en) Image photographing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5209521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees