JP2010178318A - Imaging device and imaging method - Google Patents
Imaging device and imaging method Download PDFInfo
- Publication number
- JP2010178318A JP2010178318A JP2009021993A JP2009021993A JP2010178318A JP 2010178318 A JP2010178318 A JP 2010178318A JP 2009021993 A JP2009021993 A JP 2009021993A JP 2009021993 A JP2009021993 A JP 2009021993A JP 2010178318 A JP2010178318 A JP 2010178318A
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving body
- moving
- continuous
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、連続的に撮影処理を行って連続画像を取得する撮影装置および撮影方法に関するものである。 The present invention relates to a photographing apparatus and a photographing method that perform continuous photographing processing to acquire continuous images.
従来から、例えばデジタルカメラ等の撮影装置において、被写体を短時間で連続的に撮影する連続撮影モード(連写モード)を備えたものが知られている。この連写モードでは、所定の撮影間隔で順次撮影画像を生成し、最終的に所定の連写枚数の撮影画像で構成される連続画像を得る。 2. Description of the Related Art Conventionally, there has been known a photographing apparatus such as a digital camera that has a continuous photographing mode (continuous shooting mode) for continuously photographing a subject in a short time. In this continuous shooting mode, captured images are sequentially generated at a predetermined shooting interval, and finally a continuous image composed of a predetermined number of continuous shooting images is obtained.
ところで、連写モードで撮影された撮影画像は、ユーザによって順次閲覧され、必要に応じて選択された全部または一部が保存される。このため、連写枚数が増加すると、ユーザは、撮影画像を閲覧するために時間を費やさなければならず、所望の画像を選択して保存するための作業負担が増大する。 By the way, the photographed images photographed in the continuous shooting mode are sequentially browsed by the user, and all or a part selected as necessary is stored. For this reason, when the number of continuous shots increases, the user must spend time to view the captured image, and the work burden for selecting and storing a desired image increases.
この種の問題を解決するため、ユーザにとって有用な画像を提示するための技術として、連続して撮影された複数の画像の中から代表的な画像(代表画像)を抽出する技術が種々提案されている。例えば特許文献1では、画像の特徴量を抽出して評価を行い、プリントに値する最良な画像を自動的に抽出している。特許文献2では、画像と対応付けて撮影時におけるデジタルカメラの状態情報等の付属情報を記憶しておき、プリント時に付属情報を参照することで、プリントに適した画像を配列した1枚のプリントデータを取得している。特許文献3では、複数の画像データを解析して被写体の動きを検出し、検出した動きに基づいて保存すべき画像データを選択している。
In order to solve this type of problem, various techniques for extracting a representative image (representative image) from a plurality of consecutively photographed images have been proposed as techniques for presenting an image useful for the user. ing. For example, in
ところで、撮影装置が備える連写モードは、通常、動きのある被写体(移動体)を撮影する場合に利用される。したがって、連写モードで得られる連続画像では、連続画像内で移動体がどのように動いたかによってどの撮影画像が有用なのかが異なる。このため、例えば特許文献1のような画像単体の特徴量を算出して画像を抽出する手法や、特許文献2のような撮影時のカメラの状態情報をもとに画像を抽出する手法では、代表画像を適切に抽出できない場合があった。また、特許文献3の手法では、隣接する画像間の動きについては考慮されているものの、連続画像全体として移動体がどのように動いたかは考慮されていなかった。
By the way, the continuous shooting mode provided in the photographing apparatus is normally used when photographing a moving subject (moving body). Therefore, in the continuous image obtained in the continuous shooting mode, which captured image is useful depends on how the moving body moves in the continuous image. For this reason, for example, in a technique for calculating a feature amount of a single image as in
本発明は、上記に鑑みてなされたものであって、連続画像の中からユーザにとって有用な代表画像を適切に抽出することができる撮影装置および撮影方法を提供することを目的とする。 The present invention has been made in view of the above, and an object thereof is to provide a photographing apparatus and a photographing method capable of appropriately extracting a representative image useful for a user from continuous images.
上述した課題を解決し、目的を達成するため、本発明にかかる撮影装置は、連続的に撮影処理を行って複数の撮影画像の画像データで構成される連続画像を取得する連続画像取得部と、前記複数の撮影画像毎に、隣接する撮影画像との間の動きを検出して前記撮影画像中の移動体を検出する移動体検出部と、前記移動体検出部による検出結果をもとに、前記連続画像内での前記移動体の状態変化を判別する変化判別部と、前記変化判別部による判別結果をもとに、前記連続画像の中から代表画像を抽出する画像抽出部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes a continuous image acquisition unit that performs continuous imaging processing to acquire continuous images composed of image data of a plurality of captured images. , For each of the plurality of captured images, detecting a movement between adjacent captured images to detect a moving body in the captured image, and based on a detection result by the moving body detection unit A change discriminating unit that discriminates a state change of the moving body in the continuous image, and an image extracting unit that extracts a representative image from the continuous image based on a discrimination result by the change discriminating unit. It is characterized by providing.
また、本発明にかかる撮影装置は、上記の発明において、前記変化判別部は、前記移動体の移動方向の変化、前記移動体の移動速度の変化および前記移動体の大きさの変化の少なくともいずれか1つを判別することを特徴とする。 In the imaging device according to the present invention, in the above invention, the change determination unit includes at least one of a change in a moving direction of the moving body, a change in a moving speed of the moving body, and a change in the size of the moving body. It is characterized by discriminating one or the other.
また、本発明にかかる撮影装置は、上記の発明において、前記画像抽出部は、前記変化判別部による判別結果に応じた位置で前記連続画像を分割し、少なくとも前記分割した位置の撮影画像を前記代表画像として抽出することを特徴とする。 In the imaging device according to the present invention, in the above invention, the image extraction unit divides the continuous image at a position corresponding to a determination result by the change determination unit, and at least the captured image at the divided position is It is extracted as a representative image.
また、本発明にかかる撮影装置は、上記の発明において、前記変化判別部は、前記移動体の移動方向が所定の変化パターンに従って規則的に変化した状態を判別し、前記画像抽出部は、前記変化判別部によって前記規則的な変化が判別された場合に、前記移動体の移動方向が変化した位置で前記連続画像を分割することを特徴とする。 In the imaging device according to the present invention, in the above invention, the change determination unit determines a state in which the moving direction of the moving body changes regularly according to a predetermined change pattern, and the image extraction unit When the regular change is discriminated by the change discriminating unit, the continuous image is divided at a position where the moving direction of the moving body has changed.
また、本発明にかかる撮影装置は、上記の発明において、前記変化判別部は、前記移動体が方向を変えずに所定の方向に沿って移動した状態または前記移動体の移動方向が不規則に変化した状態を判別し、前記画像抽出部は、前記変化判別部によって前記所定方向に沿った変化または前記不規則な変化が判別された場合に、前記移動体の移動開始位置から前記移動体の移動終了位置までの移動経路上の中間位置で前記連続画像を分割することを特徴とする。 In the imaging device according to the present invention, in the above invention, the change determination unit is configured such that the moving body moves along a predetermined direction without changing the direction or the moving direction of the moving body is irregular. The changed state is determined, and the image extracting unit determines whether the moving body starts moving from the moving start position of the moving body when the change determining section determines a change along the predetermined direction or the irregular change. The continuous image is divided at an intermediate position on the movement path to the movement end position.
また、本発明にかかる撮影装置は、上記の発明において、前記変化判別部は、前記移動体が方向を変えずに所定の方向に沿って移動した状態または前記移動体の移動方向が不規則に変化した状態を判別し、前記画像抽出部は、前記変化判別部によって前記所定方向に沿った変化または前記不規則な変化が判別された場合に、前記移動体が撮影画角の中央に最も近接した位置で前記連続画像を分割することを特徴とする。 In the imaging device according to the present invention, in the above invention, the change determination unit is configured such that the moving body moves along a predetermined direction without changing the direction or the moving direction of the moving body is irregular. The changed state is determined, and when the change determining unit determines a change along the predetermined direction or the irregular change, the moving body is closest to the center of the shooting angle of view. The continuous image is divided at the positions.
また、本発明にかかる撮影装置は、上記の発明において、前記移動体検出部は、複数の移動体を検出可能に構成されており、前記変化判別部は、前記移動体同士が重なった状態を重なり状態として判別し、前記画像抽出部は、前記移動体同士が重なった位置で前記連続画像を分割することを特徴とする。 In the imaging device according to the present invention, in the above invention, the moving body detection unit is configured to be able to detect a plurality of moving bodies, and the change determination unit has a state in which the moving bodies overlap each other. The overlapped state is determined, and the image extraction unit divides the continuous image at a position where the moving bodies overlap each other.
また、本発明にかかる撮影装置は、上記の発明において、前記移動体検出部は、複数の移動体を検出可能に構成されており、前記変化判別部は、前記複数の移動体のうちのいずれか1つの移動体の位置を始点として他の移動体が移動を開始した状態を分裂状態として判別し、前記画像抽出部は、前記移動体が分裂した位置で前記連続画像を分割することを特徴とする。 In the imaging device according to the present invention, in the above invention, the moving body detection unit is configured to be able to detect a plurality of moving bodies, and the change determination unit is any of the plurality of moving bodies. A state in which the moving body starts moving from the position of one moving body is determined as a split state, and the image extraction unit divides the continuous image at a position where the moving body is split. And
また、本発明にかかる撮影装置は、上記の発明において、前記画像抽出部は、前記移動体の移動開始位置および前記移動体の移動終了位置の少なくともいずれかの位置で前記連続画像をさらに分割することを特徴とする。 In the imaging device according to the present invention, in the above invention, the image extraction unit further divides the continuous image at at least one of a movement start position of the moving body and a movement end position of the moving body. It is characterized by that.
また、本発明にかかる撮影装置は、上記の発明において、前記画像抽出部は、前記分割した位置の撮影画像と撮影順が隣接する所定枚数の撮影画像を前記代表画像として抽出することを特徴とする。 Further, the imaging device according to the present invention is characterized in that, in the above invention, the image extraction unit extracts a predetermined number of captured images adjacent to the captured images at the divided positions as the representative images. To do.
また、本発明にかかる撮影装置は、上記の発明において、前記画像抽出部は、前記変化判別部による判別結果に従って前記移動体の移動区間内を1つ以上の区間に区切り、前記区間のうちの少なくとも1つの区間内を分割することを特徴とする。 In the imaging device according to the present invention, in the above invention, the image extracting unit divides the moving section of the moving body into one or more sections according to a determination result by the change determining section, At least one section is divided.
また、本発明にかかる撮影装置は、上記の発明において、前記代表画像を表示部に表示する処理を行う表示処理部を備えることを特徴とする。 Moreover, the imaging device according to the present invention is characterized in that, in the above-mentioned invention, a display processing unit that performs processing for displaying the representative image on a display unit is provided.
また、本発明にかかる撮影装置は、上記の発明において、前記表示処理部は、前記画像抽出部によって前記代表画像が複数抽出された場合に、各代表画像を一覧で表示または撮影順に順番に表示する処理を行うことを特徴とする。 In the imaging device according to the present invention, in the above invention, the display processing unit displays each representative image in a list or in order of shooting when a plurality of the representative images are extracted by the image extraction unit. It is characterized in that the processing is performed.
また、本発明にかかる撮影方法は、連続的に撮影処理を行って複数の撮影画像の画像データで構成される連続画像を取得する連続画像取得工程と、前記複数の撮影画像毎に、隣接する撮影画像との間の動きを検出して前記撮影画像中の移動体を検出する移動体検出工程と、前記移動体検出工程による検出結果をもとに、前記連続画像内での前記移動体の状態変化を判別する変化判別工程と、前記変化判別工程による判別結果をもとに、前記連続画像の中から代表画像を抽出する画像抽出工程と、を含むことを特徴とする。 In addition, the imaging method according to the present invention includes a continuous image acquisition step of continuously performing imaging processing to acquire a continuous image composed of image data of a plurality of captured images, and the plurality of captured images adjacent to each other. A moving body detecting step of detecting movement between the picked-up images and detecting a moving body in the picked-up image; and a detection result of the moving body detecting step based on a detection result of the moving body. A change determining step for determining a state change; and an image extracting step for extracting a representative image from the continuous image based on a determination result obtained by the change determining step.
本発明によれば、隣接する撮影画像間で動き検出を行って連続画像内に出現する移動体を検出し、検出した移動体の連続画像内での状態変化を判別することによって、連続画像の中から代表画像を抽出することができる。したがって、ユーザにとって有用な代表画像を適切に抽出することができる。 According to the present invention, motion detection is performed between adjacent captured images to detect a moving object that appears in a continuous image, and a state change of the detected moving object in the continuous image is determined, thereby determining the state of the continuous image. A representative image can be extracted from the inside. Therefore, a representative image useful for the user can be appropriately extracted.
以下、図面を参照し、本発明の好適な実施の形態について詳細に説明する。本実施の形態では、本発明の撮影装置をデジタルカメラに適用した場合を例にとって説明する。なお、この実施の形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。 DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, a case where the photographing apparatus of the present invention is applied to a digital camera will be described as an example. Note that the present invention is not limited to the embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.
ここで、本実施の形態のデジタルカメラは、撮影モードの1つとして連写モードを備えている。この連写モードでは、例えば連写開始が指示されたタイミングで連写を開始し、所定の撮影間隔で順次撮影画像を生成することによって、最終的に所定の連写枚数の撮影画像で構成される連続画像を取得する。なお、連写枚数は、例えばユーザ操作に従って決定される。例えば、連写モード中の操作入力に応じて連写を終了する構成としてもよいし、事前に操作入力された連写枚数に従って連続画像を取得する構成としてもよい。本実施の形態は、この連写モードで取得される連続画像の中から、ユーザにとって有用と推定される撮影画像を代表画像として抽出し、ユーザに提示するものである。なお、本実施の形態では、連写画像中に動きのある被写体(移動体)が含まれることを前提としている。 Here, the digital camera of this embodiment includes a continuous shooting mode as one of the shooting modes. In this continuous shooting mode, for example, the continuous shooting is started at the timing when the start of continuous shooting is instructed, and the shot images are sequentially generated at a predetermined shooting interval, so that it is finally composed of a predetermined number of shot images. Acquire continuous images. Note that the number of continuous shots is determined according to a user operation, for example. For example, a configuration may be adopted in which continuous shooting is terminated in response to an operation input during the continuous shooting mode, or a continuous image may be acquired in accordance with the number of continuous shooting operations input in advance. In the present embodiment, a captured image that is estimated to be useful to the user is extracted as a representative image from the continuous images acquired in the continuous shooting mode, and presented to the user. In the present embodiment, it is assumed that a subject (moving body) that moves is included in the continuous shot image.
(実施の形態1)
実施の形態1では、取得した連続画像内に出現する移動体の状態変化を判別してその連写シーンを分類する。そして、分類した連写シーンに応じて連続画像を分割し、分割位置をもとに代表画像を抽出する。以下、連写シーンをシーンa〜シーンeの5つに分類する場合について説明する。なお、例示する連写シーンの分類手法は一例であって、適宜設定できる。
(Embodiment 1)
In the first embodiment, a state change of a moving body that appears in the acquired continuous image is determined, and the continuous shooting scene is classified. Then, continuous images are divided according to the classified continuous shooting scenes, and representative images are extracted based on the division positions. Hereinafter, a case where the continuous shooting scene is classified into five scenes a to e will be described. The illustrated continuous shooting scene classification method is an example, and can be set as appropriate.
例えば、連続画像内で移動体が方向を変えずに所定の方向に沿って移動した場合(移動方向が一定方向の場合)には、その連写シーンをシーンaとする。また、移動体の移動方向が不規則で定まらず安定していない場合(移動方向が不安定の場合)には、その連写シーンをシーンbとする。また、移動方向が所定の変化パターンに従って規則的に変化した状態を判別した場合には、その連写シーンをシーンcとする。また、連続画像内で複数の移動体が検出された場合であって、これらの移動体同士が重なった状態を判別した場合に、その連写シーンをシーンdとする。そして、連続画像内で複数の移動体が検出された場合であって、1つの移動体が2つ以上に分裂した状態を判別した場合には、その連写シーンをシーンeとする。 For example, when a moving body moves in a continuous image along a predetermined direction without changing its direction (when the moving direction is a constant direction), the continuous shooting scene is set as a scene a. If the moving direction of the moving body is irregular and not stable (when the moving direction is unstable), the continuous shooting scene is set as a scene b. In addition, when it is determined that the moving direction is regularly changed according to a predetermined change pattern, the continuous shooting scene is set as a scene c. Further, when a plurality of moving objects are detected in the continuous image and it is determined that these moving objects overlap each other, the continuous shooting scene is set as a scene d. When a plurality of moving objects are detected in the continuous image and it is determined that one moving object is divided into two or more, the continuous shooting scene is set as a scene e.
図1は、シーンaに分類される連続画像の一例を示す図であり、連続画像を構成する5枚の撮影画像I11〜I19を時系列順(撮影順)に示している。図1では、移動体として鳥O1を写しており、木の枝に止まった鳥(移動体)O1が羽ばたき始めて枝から飛び立ち、フレームアウトする様子が写されている。ここで、移動体O1は、画像中の右下方から左上方に向けて略一直線上を移動している。このように、移動体O1が所定の方向に沿って移動した連写シーンでは、移動体O1が停止した状態を写した撮影画像I11や移動体O1がフレームアウトした後を写した撮影画像I19に比べて、移動体O1が移動を開始した位置の撮影画像I13や、移動途中を写した撮影画像I15、フレームアウトした位置の撮影画像I17がユーザにとって有用と推定できる。 FIG. 1 is a diagram showing an example of continuous images classified into the scene a, and shows five captured images I11 to I19 constituting the continuous image in chronological order (imaging order). In FIG. 1, a bird O1 is shown as a moving object, and a bird (moving object) O1 that has stopped on a branch of a tree starts to flapping, jumps off the branch, and is shown out of the frame. Here, the moving body O1 is moving on a substantially straight line from the lower right to the upper left in the image. As described above, in the continuous shooting scene in which the moving body O1 moves along a predetermined direction, the captured image I11 that captures the state in which the moving body O1 is stopped and the captured image I19 that captures after the moving body O1 is out of frame are displayed. In comparison, it can be estimated that the photographed image I13 at the position where the moving body O1 starts moving, the photographed image I15 taken during the movement, and the photographed image I17 at the position out of the frame are useful for the user.
また、図2は、シーンaに分類される連続画像の他の例を示す図であり、連続画像を構成する5枚の撮影画像I21〜I29を時系列順(撮影順)に示している。図2では、移動体として車O2を写しており、向かって右側から出現した車(移動体)O2が左側に移動してフレームアウトする様子を示している。図2の例では、移動体O2が移動を開始した位置(この場合はフレームインした位置)の撮影画像I21や、移動途中、特に画面の中央付近に位置した撮影画像I25、フレームアウトした位置の撮影画像I29が、ユーザにとって有用と推定できる。 FIG. 2 is a diagram illustrating another example of the continuous images classified into the scene a, and shows the five captured images I21 to I29 constituting the continuous image in time series order (imaging order). FIG. 2 shows a car O2 as a moving body, and shows a state where the car (moving body) O2 that appears from the right side moves toward the left side and goes out of the frame. In the example of FIG. 2, the captured image I21 at the position where the moving body O2 has started moving (in this case, the frame-in position), the captured image I25 positioned in the middle of the screen, particularly near the center of the screen, and the position out of the frame. It can be estimated that the captured image I29 is useful to the user.
そこで、連写シーンがシーンaに分類された連続画像については、移動体の移動開始位置、移動体の移動経路上の中間位置(以下、「移動中心位置」と呼ぶ。)、移動終了位置(移動途中で消失した位置を含む)またはフレームアウト位置を分割位置として連続画像を分割し、分割位置の撮影画像を代表画像として抽出することによって、代表画像をユーザに提示する。 Therefore, for a continuous image in which the continuous shooting scene is classified into the scene a, the movement start position of the moving body, the intermediate position on the movement path of the moving body (hereinafter referred to as “movement center position”), and the movement end position ( The representative image is presented to the user by dividing the continuous image using the frame-out position as a division position and extracting the captured image at the division position as the representative image.
これによれば、例えば図1の例では、移動体O1の動き始めの撮影画像I13や移動途中(移動中心位置)の撮影画像I15、フレームアウト位置の撮影画像I17を代表画像として提示することができる。したがって、ユーザは、提示された代表画像によって連続画像の内容を把握できる。そして例えば、これらの代表画像の中から1つを選択し、選択した代表画像から順番に撮影順が前後に隣接する撮影画像を閲覧するといったことが可能となる。したがって、連続画像を構成する全ての撮影画像を先頭から順次閲覧していく必要がないため、撮影画像I11に示すような移動体O1が木の枝に止まった状態が長時間続くような場合であっても、所望の撮影画像を簡単に選択することができ、ユーザの作業負担を軽減できる。 According to this, for example, in the example of FIG. 1, the captured image I13 at the start of movement of the moving body O1, the captured image I15 in the middle of movement (moving center position), and the captured image I17 at the frame-out position can be presented as representative images. it can. Therefore, the user can grasp the content of the continuous image from the presented representative image. Then, for example, it is possible to select one of these representative images and browse the captured images whose shooting order is adjacent to each other in order from the selected representative image. Accordingly, since it is not necessary to sequentially browse all the captured images constituting the continuous image from the top, the state in which the moving body O1 as shown in the captured image I11 stays on the tree branch continues for a long time. Even if it exists, a desired picked-up image can be selected easily and a user's work burden can be reduced.
また、図3は、シーンcに分類される連続画像の一例を示す図であり、連続画像を構成する5枚の撮影画像I31〜I39を時系列順(撮影順)に示している。図3では、移動体としてイルカO3を写しており、水面から出現したイルカ(移動体)O3が放物線に沿って移動し、放物線の頂点位置で輪をくぐった後水面に潜る様子が写されている。本例では、移動開始位置の撮影画像I31や、移動終了位置(図3では消失位置)の撮影画像I39の他、移動体O3が輪をくぐっている撮影画像I35がユーザにとって有用と推定される。 FIG. 3 is a diagram illustrating an example of continuous images classified into the scene c, and shows the five captured images I31 to I39 constituting the continuous image in time series order (imaging order). In FIG. 3, a dolphin O3 is shown as a moving object, and a state where the dolphin (moving object) O3 that has emerged from the water surface moves along a parabola and passes through a ring at the apex position of the parabola and then dives on the water surface. Yes. In this example, it is presumed that the photographed image I31 at the movement start position and the photographed image I39 at the movement end position (disappearance position in FIG. 3) as well as the photographed image I35 through which the moving body O3 passes are useful for the user. .
そこで、移動体の移動方向が所定の変化パターンに従って規則的に変化しており、連写シーンがシーンcに分類された連続画像については、移動体の移動開始位置、移動体の移動方向の変化位置(図3に例示した移動体O3が放物線に沿って移動した場合であればその頂点位置)、移動終了位置またはフレームアウト位置を分割位置として連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。なお、ここでは、移動体が放物線に沿って移動した場合を例示したが、これに限定されるものではなく、適宜の変化パターンを検出し、移動方向が変化する位置で連続画像を分割することとしてよい。また、複数の位置で方向が変化している場合には、各位置の中から1つまたは複数の位置を選出して分割位置としてもよいし、全ての位置をそれぞれ分割位置としてもよい。 Therefore, for a continuous image in which the moving direction of the moving object is regularly changed according to a predetermined change pattern and the continuous shooting scene is classified into the scene c, the moving start position of the moving object and the change of the moving direction of the moving object are changed. The continuous image is divided by using the position (the vertex position if the moving body O3 illustrated in FIG. 3 moves along the parabola), the movement end position or the frame-out position as a division position, and the captured image at the division position is representative. Extract as an image. In addition, although the case where the moving body moved along a parabola is illustrated here, the present invention is not limited to this, and an appropriate change pattern is detected and a continuous image is divided at a position where the moving direction changes. As good as Further, when the direction changes at a plurality of positions, one or a plurality of positions may be selected from the positions to be divided positions, or all positions may be set as the divided positions.
また、図4は、シーンdに分類される撮影画像の一例を示す図であり、連続画像を構成する5枚の撮影画像I41〜I49を時系列順(撮影順)に示している。図4では、移動体である人物O41が別の移動体であるボールO43をバッティングする様子を写している。本例では、移動体(人物)O41の移動開始位置(バッティング動作の開始位置)の撮影画像I41や、移動体(ボール)O43の移動開始位置(フレームインした位置)の撮影画像I43、移動体(ボール)O43のフレームアウト位置である撮影画像I47の他、バッティングの瞬間、すなわち移動体(人物が持つバット)O41と移動体(ボール)O43とが重なった位置の撮影画像I45がユーザにとって有用と推定される。 FIG. 4 is a diagram illustrating an example of the captured images classified into the scene d, and shows the five captured images I41 to I49 constituting the continuous image in time series order (imaging order). FIG. 4 shows a situation where a person O41, which is a moving body, batting a ball O43, which is another moving body. In this example, the captured image I41 at the movement start position (batting operation start position) of the moving object (person) O41, the captured image I43 at the movement start position (frame-in position) of the moving object (ball) O43, and the moving object. In addition to the shot image I47 that is the frame-out position of the (ball) O43, the shot image I45 at the moment of batting, that is, the position where the moving body (bat held by the person) O41 and the moving body (ball) O43 overlap is useful for the user. It is estimated to be.
そこで、連続画像内で複数の移動体が重なっており、連写シーンがシーンdに分類された連続画像については、移動体の移動開始位置、移動体の重なり位置、移動終了位置またはフレームアウト位置を分割位置として連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。移動体同士が重なった状態としては、例示したような移動体同士が接触した場合の他、移動体が交差する場合等が挙げられる。 Therefore, for a continuous image in which a plurality of moving objects overlap in the continuous image and the continuous shooting scene is classified into the scene d, the movement start position, the overlapping position, the movement end position, or the frame-out position of the moving object. Is divided as a division position, and a captured image at the division position is extracted as a representative image. Examples of the state in which the moving bodies overlap each other include the case where the moving bodies intersect as well as the case where the moving bodies contact each other as illustrated.
また、図示しないが、シーンbに分類される連続画像としては、例えば、移動体としてアイススケートをしている人物を写した連続画像等が挙げられる。連写シーンがシーンbに分類された連続画像については、例えば、シーンaに分類された連続画像と同様に、移動体の移動開始位置、移動中心位置、移動終了位置またはフレームアウト位置を分割位置として連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。 Although not shown, examples of the continuous image classified into the scene b include a continuous image in which a person who is ice skating as a moving body is captured. For a continuous image in which the continuous shooting scene is classified into the scene b, for example, similarly to the continuous image classified into the scene a, the movement start position, the movement center position, the movement end position, or the frame-out position of the moving object is divided into positions. Then, the continuous image is divided, and the captured image at the division position is extracted as a representative image.
また、シーンeに分類される連続画像としては、例えば、移動体として打ち上げ花火を写した連続画像等が挙げられる。連続画像内で移動体が分裂しており、連写シーンがシーンeに分類された連続画像については、例えば、移動体の移動開始位置、移動体の分裂位置、移動終了位置またはフレームアウト位置を分割位置として連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。 Moreover, as a continuous image classified into the scene e, the continuous image etc. which copied the skyrocket as a moving body are mentioned, for example. For a continuous image in which the moving object is split in the continuous image and the continuous shooting scene is classified into the scene e, for example, the moving start position, the split position, the moving end position, or the frame-out position of the moving object is set. A continuous image is divided as a division position, and a captured image at the division position is extracted as a representative image.
図5は、実施の形態1のデジタルカメラ1の構成例を示す概略ブロック図である。図5に示すように、デジタルカメラ1は、撮像光学系11、連続画像取得部としての撮像素子12、AFE(Analog Front End)13、フレームメモリ14、移動体検出部としての動き検出部15、画像処理部16、顔検出部17、記録媒体I/F18、記録媒体保持部19、記録媒体20、ビデオエンコーダ21、表示ドライバ22、表示部23、ビデオ信号出力端子24、操作部25、RAM26、ROM27、コントローラ28等を備える。
FIG. 5 is a schematic block diagram illustrating a configuration example of the
撮像光学系11は、撮像レンズ、絞り、シャッター等を含み、入射される被写体像を撮像素子12に結像する。撮像素子12は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子であり、被写体からの光束を撮像光学系11を介して受光し、光電変換することによってフレーム単位の画像データ(アナログ電気信号)を得るものである。AFE13は、撮像素子12によって得られる画像データに対してCDS(Correlated Double Sampling)やAGC(Automatic Gain Control)等のアナログ信号処理を施した後、A/D変換処理を施してデジタル電気信号に変換する。AFE13によってデジタル化された画像データは、フレームメモリ14および動き検出部15に出力されるとともに、RAM26に一時的に記録される。
The imaging
フレームメモリ14は、動き検出部15による作業用メモリとして用いられる。このフレームメモリ14は、2フレーム分の画像データを保持するための領域を備え、連写モード中において、今回生成した最新の撮影画像(最新画像)の画像データと前回生成した撮影画像(前回画像)の画像データとが保持される。
The
動き検出部15は、AFE13からの画像データをもとに、連写モード中に生成される撮影画像間の動きを検出するためのものであり、所定の撮影間隔毎の連写タイミングで順次撮像素子12から取り込まれてAFE13から出力される撮影画像間で動きベクトルを求めることによって、画像間の動きを検出する。
The
図6は、撮影画像の画角範囲Evに対して設定される移動体検出エリアEaおよび登録移動体エリアEb−1の一例を示す図である。また、図7(a)および図7(b)は、図6に続いて順次取り込まれる撮影画像の画角範囲Evに設定される移動体検出エリアEaおよび登録移動体エリアEb−2,Eb−3の一例をそれぞれ示す図である。実施の形態1では、動き検出部15は、図6に示すように、例えば前回画像の画角範囲(被写体範囲)Evのほぼ全域に対して一点鎖線で示す移動体検出エリアEaを設定するとともに、図6や図7(a)、図7(b)中に二点鎖線で示すように、既に移動体が検出されて登録されている場合には、その移動体(登録移動体)の現在位置に登録移動体エリアEb−1,Eb−2,Eb−3を設定する。ここで、移動体検出エリアEaは、画角範囲Evに対して固定的に設定される。一方、図6や図7(a)、図7(b)に示すように、登録移動体エリアEb−1,Eb−2,Eb−3は、前回生成された撮影画像との間で実行した動き検出の結果に従って決定される登録移動体の位置に設定される。
FIG. 6 is a diagram illustrating an example of the moving object detection area Ea and the registered moving object area Eb-1 set for the field angle range Ev of the captured image. 7 (a) and 7 (b) show the moving body detection area Ea and the registered moving body areas Eb-2 and Eb− that are set in the field angle range Ev of the captured images sequentially captured following FIG. It is a figure which shows an example of 3, respectively. In the first embodiment, as shown in FIG. 6, the
そして、動き検出部15は、移動体検出エリアEaを対象に動き検出を行うことによって最新画像中に出現した移動体を検出するとともに、登録移動体エリアEb−1,Eb−2,Eb−3を対象に動き検出を行うことによって最新画像中の登録移動体の位置を追尾する。具体的には、前回画像に設定した移動体検出エリアEaについて、最新画像との間でパタンマッチングを行うとともに、前回画像に設定した登録移動体エリアEb−1,Eb−2,Eb−3について最新画像との間でパタンマッチングを行う。ここで、パタンマッチングは、精度を高めるため、移動体検出エリアEaや登録移動体エリアEb−1,Eb−2,Eb−3内に複数のマクロブロックを設定し、マクロブロック毎にその動きベクトルを求めることにより行う。例えば、図6や図7(a)、図7(b)に示す例では、移動体検出エリアEaに対して70個のマクロブロックBaを設定している。一方、図6中において画角範囲Evの外に模式的に示すように、あるいは図7(a)や図7(b)に示すように、登録移動体エリアEb−1,Eb−2,Eb−3に対しては、そのサイズに応じた数のマクロブロックBbを設定する。例えば、図6の登録移動体エリアEb−1や図7(a)の登録移動体エリアEb−2には6個のマクロブロックBbを設定しており、図7(b)の登録移動体エリアEb−3には4個のマクロブロックを設定している。なお、登録移動体エリア内に設定するマクロブロックの数は同数であってもよい。また、移動体検出エリアや登録移動体エリア内に設定するマクロブロックのサイズについては、適宜設定できる。
Then, the
なお、ここでは、1つの登録移動体について登録移動体エリアEb−1,Eb−2,Eb−3を設定してこの登録移動体を追尾する場合を例示したが、実際には、移動体検出エリアEaを対象に行った動き検出によって移動体が検出されるたびに、検出された移動体が登録移動体として登録されるようになっており、動き検出部15は、登録移動体毎に登録移動体エリアを設定し、個別に動き検出を行う。
Here, the case where the registered mobile body areas Eb-1, Eb-2, and Eb-3 are set for one registered mobile body and the registered mobile body is tracked is illustrated. Each time a moving object is detected by motion detection performed on the area Ea, the detected moving object is registered as a registered moving object, and the
顔検出部17は、図5に示すように、AFE13によってデジタル化されてRAM26に記録された画像データを処理して顔を検出する。例えば、顔検出部17は、テンプレートマッチング法によって撮影画像中(より具体的には最新画像中)の顔の位置を検出し、目や鼻、口等の顔の特徴点の位置を検出することによって、顔の大きさや向き、角度等を検出する。この顔検出部17による顔検出によって、例えば撮影画像中の顔の有無、顔の位置、顔の大きさ、顔の向き、顔の角度(傾き)等が顔検出結果として得られる。なお、撮影画像中に複数の顔が含まれる場合には、顔毎に顔検出結果が得られる。
As shown in FIG. 5, the
画像処理部16は、RAM26に一旦記録された画像データを読み出し、この画像データに対して各種の画像処理を施すとともに、記録用、あるいは表示用等に適した画像データに変換する処理を行う。例えば、撮影画像の画像データを記録する際、あるいは記録されている画像データを表示する際等に、JPEG(Joint Photographic Experts Group)方式等に基づく画像データの圧縮処理や伸張処理を行う。この画像処理部16で画像処理された画像データは、記録媒体I/F18に出力されて記録媒体20に記録され、あるいはビデオエンコーダ21に出力されて表示部23に表示される。
The
ビデオエンコーダ21は、表示用に変換された画像データを表示ドライバ22に送出する。例えば撮影モードでは、1フレーム毎に撮像素子12から取り込まれて画像処理部16によって画像処理された画像をフレーム単位で表示部23に切換表示させ、ライブビュー画像の表示を行う。一方、再生モードでは、記録媒体20から読み出されて画像処理部16よって画像処理された撮影画像を表示部23に表示させる。また、このビデオエンコーダ21は、ビデオ信号出力端子24に接続された外部機器に対し、必要に応じて表示用の画像データを出力する。表示部23は、撮影画像やライブビュー画像の他、デジタルカメラ1の各種設定情報等を表示するためのものであり、LCD(Liquid Crystal Display)やELディスプレイ(Electroluminescence Display)等の表示装置で実現される。
The video encoder 21 sends the image data converted for display to the
記録媒体I/F18は、記録媒体保持部19によって挿脱自在に保持される記録媒体20に対して、記録用に変換された画像データ等の書き込みや、記録された画像データの読み出し等を行う。記録媒体20は、例えばxD−ピクチャーカード(登録商標)やコンパクトフラッシュ(登録商標)カード等のメモリカードである。
The recording medium I /
操作部25は、連写モードを含む各種の撮影モードや再生モードといったモードの設定操作、撮影開始の指示、連写開始や連写終了の指示、撮影条件の設定操作等、ユーザによる各種操作を受け付けて操作信号をコントローラ28に通知するためのものであり、各種機能が割り当てられたボタンスイッチ、ダイヤル、各種センサ等で実現される。
The
ROM27は、デジタルカメラ1を動作させ、このデジタルカメラ1が備える種々の機能を実現するための各種のカメラプログラムや、このカメラプログラムの実行中に使用されるデータ等を予め記録する。RAM26は、画像処理部16やコントローラ28の作業用メモリとして用いられる。例えば、AFE13からの画像データ等が一時的に記録され、表示部23に表示するライブビュー画像を生成する際の作業用や撮影画像を記録媒体20に記録する際の作業用、連続画像を取得し、この連続画像の中から保存画像として選択された撮影画像を記録媒体20に記録する際の作業用等に用いられる。
The ROM 27 records various camera programs for operating the
コントローラ28は、操作部25からの操作信号等に応じてROM27からカメラプログラムを読み出して実行し、デジタルカメラ1を構成する各部の動作制御やメモリ制御を行ってデジタルカメラ1全体の動作を統括的に制御する。また、AF(自動焦点)、AE(自動露出)、AWB(自動ホワイトバランス)等の処理を行う。このコントローラ28は、変化判別部としての連写シーン分類部281と、画像抽出部としての連続画像分割部283と、重要度算出部285と、表示処理部としての保存画像選択処理部287とを含む。連写シーン分類部281は、連続画像の連写シーンを分類する。連続画像分割部283は、連写シーンに応じた位置で連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。重要度算出部285は、連続画像を構成する各撮影画像の重要度を算出する。保存画像選択処理部287は、連続画像の中から抽出された代表画像をユーザに提示し、ユーザ操作に従って記録媒体20に保存する撮影画像(保存画像)を選択するための処理を行う。
The
次に、デジタルカメラ1が行う処理手順について説明する。図8は、実施の形態1のデジタルカメラ1が行う処理の手順を説明するフローチャートであり、連写モードにおけるデジタルカメラ1の処理手順を示している。
Next, a processing procedure performed by the
連写モードでは、図8に示すように、ユーザによる連写開始の指示を受け付けるまで待機状態となる。そして、連写を開始する場合には(ステップa1:Yes)、撮影処理に移る(ステップa3)。すなわち、所定の撮影間隔毎の連写タイミングで順次撮影処理を行い、撮影画像の画像データを生成する。生成した撮影画像の画像データは、例えば撮影順に割り振られる画像番号と対応付けられてRAM26に記録される。 In the continuous shooting mode, as shown in FIG. 8, the continuous shooting mode is in a standby state until an instruction to start continuous shooting is received from the user. When continuous shooting is started (step a1: Yes), the process proceeds to shooting processing (step a3). That is, shooting processing is sequentially performed at a continuous shooting timing every predetermined shooting interval, and image data of a shot image is generated. The generated image data of the photographed image is recorded in the RAM 26 in association with, for example, an image number assigned in the photographing order.
続いて、動き検出部15が動き検出処理を行う(ステップa5)。この動き検出処理では、動き検出部15は、ステップa3において今回生成した最新の撮影画像(最新画像)と前回生成した撮影画像(前回画像)との間で動き検出を行い、最新画像中の移動体を検出するとともに、最新画像中の登録移動体を追尾する。なお、連写開始直後の最初の撮影処理の後は、直前画像が存在しないためステップa5の動き検出処理は行わない。図9は、動き検出処理の詳細な処理手順を説明するフローチャートである。
Subsequently, the
動き検出処理では、動き検出部15は先ず、登録移動体の有無を判定する。ここで、図9中のステップb13または図10に示して後述する顔検出処理のステップc9で移動体が登録される。このため、連写が開始されて最初に行う動き検出処理では登録移動体はなく(ステップb1:No)、ステップb7に移る。
In the motion detection process, the
一方、登録移動体がある場合には(ステップb1:Yes)、動き検出部15は、その登録移動体について登録移動体エリアを設定し、最新画像と前回画像との間で動き検出を実行する(ステップb3)。このとき、複数の登録移動体が登録されている場合には、登録移動体毎に登録移動体エリアを設定し、動き検出を行う。具体的には、動き検出部15は、前回算出した登録移動体の位置(前回画像中の位置)に登録移動体エリアを設定し、最新画像との間での動き検出を実行する。そして、動き検出部15は、動き検出結果に従って登録移動体の位置(最新画像中の現在位置)を算出し、最新画像の画像番号とともにRAM26に記憶する(ステップb5)。その後、ステップb7に移る。
On the other hand, when there is a registered moving body (step b1: Yes), the
ステップb7では、動き検出部15は、最新画像と前回画像との間で移動体検出エリアの動き検出を実行する。具体的には、動き検出部15は、画角範囲のほぼ全域に移動体検出エリアを設定し、最新画像との間での動き検出を実行する。ここでの動き検出の結果、移動体を検出しなければ(ステップb9:No)、図8のステップa5にリターンし、その後ステップa7に移る。一方、動き検出部15は、移動体を検出した場合には(ステップb9:Yes)、検出した移動体が登録移動体か否かを判定する。そして、検出した移動体が既に登録された登録移動体であれば(ステップb11:Yes)、図8のステップa5にリターンし、その後ステップa7に移る。一方、動き検出部15は、検出した移動体が登録されていない場合には(ステップb11:No)、登録移動体として登録し、現在位置や最新画像の画像番号等とともにRAM26に記憶する(ステップb13)。そして、図8のステップa5にリターンし、その後ステップa7に移る。
In step b7, the
そして、ステップa7では、顔検出部17が顔検出処理を行う。この顔検出処理では、ステップa3で今回生成した最新画像中の顔検出が行われる。図10は、顔検出処理の詳細な処理手順を説明するフローチャートである。
In step a7, the
顔検出処理では、顔検出部17は先ず、最新画像中の顔検出を実行する(ステップc1)。ここでの顔検出の結果、顔を検出しなければ(ステップc3:No)、図8のステップa7にリターンし、その後ステップa9に移る。一方、顔検出部17は、顔を検出した場合には(ステップc3:Yes)、顔検出結果を最新画像の画像番号とともにRAM26に記憶する(ステップc5)。
In the face detection process, the
続いて、顔検出部17は、検出した顔が登録移動体か否かを判定する。具体的には、検出した顔の位置を登録移動体の現在位置(最新画像中の位置)と比較し、一致していれば登録移動体と判定し、一致しない場合には登録移動体ではないと判定する。そして、検出した顔が登録移動体であれば(ステップc7:Yes)、図8のステップa7にリターンし、その後ステップa9に移る。一方、顔検出部17は、検出した顔が登録移動体でない場合には(ステップc7:No)、登録移動体として登録し、現在位置や最新画像の画像番号とともにRAM26に記憶する(ステップc9)。そして、図8のステップa7にリターンし、その後ステップa9に移る。
Subsequently, the
ステップa9では、連写を終了するか否かを判定し、連写を終了するまでの間(ステップa9:No)、ステップa3に戻って処理を繰り返す。そして、連写を終了する場合には(ステップa9:Yes)、ステップa11に移る。例えば、ユーザによる連写終了の指示に応じて連写を終了する。あるいは、所定の連写枚数の撮影画像を生成した場合に連写を終了する。 In step a9, it is determined whether or not continuous shooting is to be ended. Until continuous shooting is ended (step a9: No), the processing returns to step a3 and is repeated. When the continuous shooting is to be ended (step a9: Yes), the process proceeds to step a11. For example, continuous shooting is ended in response to an instruction to end continuous shooting by the user. Alternatively, continuous shooting is terminated when a predetermined number of continuous shot images have been generated.
そして、ステップa11では、連写枚数が所定枚数を超えているか否かを判定する。連写枚数が所定枚数以下の場合には(ステップa11:No)、処理を終える。一方、連写枚数が所定枚数を超えている場合には(ステップa11:Yes)、連写シーン分類部281が連写シーン分類処理を行う(ステップa13)。図11は、連写シーン分類処理の詳細な処理手順を示すフローチャートである。
In step a11, it is determined whether or not the number of continuous shots exceeds a predetermined number. If the number of continuous shots is less than or equal to the predetermined number (step a11: No), the process is terminated. On the other hand, when the number of continuous shots exceeds the predetermined number (step a11: Yes), the continuous shot
連写シーン分類処理では、連写シーン分類部281は先ず、連続画像内で検出された移動体の有無を判定する。連続画像内で移動体が検出されている場合、すなわち、撮影画像を生成するたびに行った動き検出や顔検出の結果、登録移動体として登録された移動体がある場合には(ステップd1:Yes)、移動体状態解析処理を行う(ステップd3)。図12は、移動体状態解析処理の詳細な処理手順を示すフローチャートである。
In the continuous shooting scene classification process, the continuous shooting
移動体状態解析処理では先ず、連写シーン分類部281は、移動体の移動開始位置を解析する(ステップe1)。ここでの処理は、登録移動体として登録された移動体が複数ある場合には、各移動体それぞれについて行う。例えば、その移動体が最初に検出されて登録移動体として登録された撮影画像を移動開始位置とし、画像番号を移動開始画像番号として取得する。
In the moving object state analysis process, first, the continuous shooting
続いて、連写シーン分類部281は、移動体の移動方向を解析する(ステップe3)。ここでの処理は、登録移動体として登録された移動体が複数ある場合には、各移動体それぞれについて行う。例えば、その移動体を登録移動体として行った動き検出結果やその移動体についての顔検出結果によって定まる移動体の移動経路に従って、移動体の移動方向の変化を判別する。そして、移動体が所定の方向に沿って移動している状態を判別した場合には、移動方向を一定とする。移動体の移動方向が不規則で定まらず、不安定な状態を判別した場合には、移動方向を不安定とする。そして、移動体の移動方向が所定の変化パターンに従って規則的に変化した状態を判別した場合には、移動方向が変化する撮影画像の画像番号を方向変化画像番号として取得する。例えば、図3に示して例示したように移動体O3の移動経路が2次曲線に近似できるような場合には、その頂点(極値)位置の撮影画像を移動方向が変化する撮影画像とし、画像番号を方向変化画像番号として取得する。
Subsequently, the continuous shooting
続いて、連写シーン分類部281は、連続画像内で検出された移動体の数を判定する。移動体の数が1つの場合には(ステップe5:No)、ステップe11に移る。一方、検出された移動体が複数ある場合には(ステップe5:Yes)、連写シーン分類部281は、これらの移動体の重なり状態を解析する(ステップe7)。例えば、各移動体を登録移動体として行った動き検出結果やその移動体についての顔検出結果をもとに、これらの移動体の位置が重なった状態を判別し、判別した撮影画像の画像番号を重なり画像番号として取得する。
Subsequently, the continuous shooting
続いて、連写シーン分類部281は、移動体の分裂状態を解析し(ステップe9)、その後、ステップe11に移る。例えば、各移動体を登録移動体として行った動き検出結果やその移動体についての顔検出結果をもとに、いずれか1つの移動体の位置を始点として別の移動体が移動を開始した状態を判別し、判別した撮影画像の画像番号を分裂画像番号として取得する。
Subsequently, the continuous shooting
そして、ステップe11では、連写シーン分類部281は、移動体のフレームアウト位置を解析する。ここでの処理は、登録移動体として登録された移動体が複数ある場合には、各移動体それぞれについて行う。例えば、その移動体が画角範囲の端部に移動し、画角範囲から外れた撮影画像をフレームアウト位置とし、画像番号をフレームアウト画像番号として取得する。
In step e11, the continuous shooting
続いて、連写シーン分類部281は、移動体の移動終了位置を解析する(ステップe13)。ここでの処理は、登録移動体として登録された移動体が複数ある場合には、各移動体それぞれについて行う。例えば、その移動体が停止した撮影画像あるいはその移動体を追尾できなくなった撮影画像を移動終了位置とし、画像番号を移動終了画像番号として取得する。そして、図11のステップd3にリターンし、その後、ステップd5に移る。
Subsequently, the continuous shooting
ステップd5では、連写シーン分類部281は、ステップd3の移動体状態解析処理の結果に従って移動体の移動方向を判定する。そして、連写シーン分類部281は、移動方向が一定の移動体について(ステップd5:Yes)、方向一定フラグをセット(ON)する(ステップd7)。一方、連写シーン分類部281は、移動方向が一定でない移動体であって(ステップd5:No)、移動方向が不安定でない移動体(移動方向が所定の変化パターンに従って規則的に変化した移動体)について(ステップd9:No)、方向変化フラグをセットする(ステップd11)。また、連写シーン分類部281は、移動方向が不安定である移動体については(ステップd9:Yes)、方向不安定フラグをセットする(ステップd13)。
In step d5, the continuous shooting
続いて、連写シーン分類部281は、ステップd3の移動体状態解析処理の結果に従って移動体の重なりを判定する。そして、連写シーン分類部281は、移動体の重なりがあれば(ステップd15:Yes)、重なりフラグをセットし(ステップd17)、連続画像の連写シーンをシーンdとして設定する(ステップd19)。移動体の重なりがない場合には(ステップd15:No)、続いて連写シーン分類部281は、移動体の分裂を判定する。そして、連写シーン分類部281は、移動体の分裂があれば(ステップd21:Yes)、分裂フラグをセットし(ステップd23)、連続画像の連写シーンをシーンeに設定する(ステップd25)。移動体の分裂がない場合には(ステップd21:No)、続いて連写シーン分類部281は、方向不安定フラグを判定する。そして、連写シーン分類部281は、方向不安定フラグがONであれば(ステップd27:Yes)、連続画像の連写シーンをシーンcに設定する(ステップd29)。方向不安定フラグがOFFの場合には(ステップd27:No)、続いて連写シーン分類部281は、方向変化フラグを判定する。そして、連写シーン分類部281は、方向変化フラグがONであれば(ステップd31:Yes)、連続画像の連写シーンをシーンbに設定する(ステップd33)。方向変化フラグがOFFの場合には(ステップd31:No)、連写シーン分類部281は、連続画像の連写シーンをシーンaに設定する(ステップd35)。なお、このステップd35で連続画像の連写シーンがシーンaに設定されるのは、方向フラグがONの場合である。
Subsequently, the continuous shooting
続いて、連写シーン分類部281は、ステップd3の移動体状態解析処理の結果に従って移動体のフレームアウトの有無を判定する。そして、連写シーン分類部281は、フレームアウトしている移動体について(ステップd37:Yes)、フレームアウトフラグをセットする(ステップd39)。
Subsequently, the continuous shooting
続いて、連写シーン分類部281は、ステップd3の移動体状態解析処理の結果に従って移動体が移動を終了したか否かを判定する。そして、連写シーン分類部281は、移動を終了した移動体について(ステップd41:Yes)、移動終了フラグをセットする(ステップd43)。そして、図8のステップa13にリターンし、その後ステップa15に移る。
Subsequently, the continuous shooting
そして、ステップa15では、連続画像分割部283が連続画像分割処理を行う。図13は、実施の形態1の連続画像分割処理の詳細な処理手順を示すフローチャートである。
In step a15, the continuous
連続画像分割処理では、連続画像分割部283は先ず、移動体の移動開始画像番号を取得する(ステップf1)。続いて、連続画像分割部283は、移動終了フラグを判定する。そして、連続画像分割部283は、移動終了フラグがONであれば(ステップf3:Yes)、移動終了画像番号を取得し(ステップf5)、移動終了画像番号から移動開始画像番号を差し引いた値を算出して算出した値が所定値を超えているか否かを判定する。そして、所定値を超えている場合、すなわち移動体が移動を開始してから移動を終了するまでの間の撮影画像の枚数が所定枚数より多い場合には(ステップf7:Yes)、ステップf17に移る。所定値を超えていない場合には(ステップf7:No)、ステップf15に移る。
In the continuous image dividing process, the continuous
一方、ステップf3において判定した移動終了フラグがOFFであれば(ステップf3:No)、続いて連続画像分割部283は、フレームアウトフラグを判定する。そして、連続画像分割部283は、フレームアウトフラグがONであれば(ステップf9:Yes)、フレームアウト画像番号を取得し(ステップf11)、フレームアウト画像番号から移動開始画像番号を差し引いた値を算出して算出した値が所定値を超えているか否かを判定する。そして、所定値を超えている場合、すなわち移動体が移動を開始してからフレームアウトするまでの間の撮影画像の枚数が所定枚数より多い場合には(ステップf13:Yes)、ステップf17に移る。所定値を超えていない場合には(ステップf13:No)、ステップf15に移る。また、ステップf9において判定したフレームアウトフラグがOFFの場合も(ステップf9:No)、ステップf15に移る。
On the other hand, if the movement end flag determined in step f3 is OFF (step f3: No), the continuous
ステップf15では、連続画像分割部283は、最終画像番号から移動開始画像番号を差し引いた値を算出し、算出した値が所定値を超えているか否かを判定する。そして、所定値を超えている場合、すなわち移動体が移動を開始してから連写を終了するまでの間の撮影画像の枚数が所定枚数より多い場合には(ステップf15:Yes)、ステップf17に移る。所定値を超えていない場合には(ステップf15:No)、図8のステップa15にリターンし、その後ステップa17に移る。
In step f15, the continuous
そして、ステップf17では、連続画像分割部283は、図8のステップa13の連写シーン分類処理によって設定されたシーンを判定し、シーンに応じて処理を分岐する。すなわち、連続画像分割部283は、連写シーンがシーンaまたはシーンcの場合にはシーンa/c分割処理を行う(ステップf19)。そして、図8のステップa15にリターンし、その後ステップa17に移る。連写シーンがシーンbであれば、連続画像分割部283は、シーンb分割処理を行う(ステップf21)。そして、図8のステップa15にリターンし、その後ステップa17に移る。連写シーンがシーンdであれば、連続画像分割部283は、シーンd分割処理を行う(ステップf23)。そして、図8のステップa15にリターンし、その後ステップa17に移る。連写シーンがシーンeであれば、連続画像分割部283は、シーンe分割処理を行う(ステップf25)。そして、図8のステップa15にリターンし、その後ステップa17に移る。ここで、ステップf19〜ステップf25の各処理について順次説明する。
In step f17, the continuous
図14は、シーンa/c分割処理の詳細な処理手順を示すフローチャートである。シーンa/c分割処理では、連続画像分割部283は先ず、第1分割位置を移動開始画像番号とする(ステップg1)。続いて、連続画像分割部283は、移動体の移動中心位置を算出する(ステップg3)。すなわち、移動体の移動開始位置から移動終了位置またはフレームアウト位置までの移動経路上の中間位置を移動中心位置として算出する。そして、連続画像分割部283は、第2分割位置を移動中心画像番号とする(ステップg5)。
FIG. 14 is a flowchart showing a detailed processing procedure of the scene a / c division processing. In the scene a / c division process, the continuous
続いて、連続画像分割部283は、移動終了フラグを判定する。そして、移動終了フラグがONならば(ステップg7:Yes)、連続画像分割部283は、第3分割位置を移動終了画像番号とし(ステップg9)、ステップg17に移る。一方、連続画像分割部283は、移動終了フラグがOFFの場合には(ステップg7:No)、続いてフレームアウトフラグを判定する。そして、フレームアウトフラグがONならば(ステップg11:Yes)、連続画像分割部283は、第3分割位置をフレームアウト画像番号とし(ステップg13)、ステップg17に移る。また、フレームアウトフラグがOFFの場合には(ステップg11:No)、連続画像分割部283は、第3分割位置を設定せずになしとする(ステップg15)。そして、連続画像分割部283は、設定した第1分割位置、第2分割位置および第3分割位置の撮影画像を代表画像として抽出し(ステップg17)、その後図13のステップf19にリターンする。
Subsequently, the continuous
図15は、シーンb分割処理の詳細な処理手順を示すフローチャートである。シーンb分割処理では、連続画像分割部283は先ず、第1分割位置を移動開始画像番号とする(ステップh1)。続いて、連続画像分割部283は、方向変化画像番号を取得する(ステップh3)。そして、連続画像分割部283は、第2分割位置を方向変化画像番号とする(ステップh5)。
FIG. 15 is a flowchart showing a detailed processing procedure of the scene b division processing. In the scene b dividing process, the continuous
続いて、連続画像分割部283は、移動終了フラグを判定する。そして、移動終了フラグがONならば(ステップh7:Yes)、連続画像分割部283は、第3分割位置を移動終了画像番号とし(ステップh9)、ステップh17に移る。一方、連続画像分割部283は、移動終了フラグがOFFの場合には(ステップh7:No)、続いてフレームアウトフラグを判定する。そして、フレームアウトフラグがONならば(ステップh11:Yes)、連続画像分割部283は、第3分割位置をフレームアウト画像番号とし(ステップh13)、ステップh17に移る。また、フレームアウトフラグがOFFの場合には(ステップh11:No)、連続画像分割部283は、第3分割位置を設定せずになしとする(ステップh15)。そして、連続画像分割部283は、設定した第1分割位置、第2分割位置および第3分割位置の撮影画像を代表画像として抽出し(ステップh17)、その後図13のステップf21にリターンする。
Subsequently, the continuous
図16は、シーンd分割処理の詳細な処理手順を示すフローチャートである。シーンd分割処理では、連続画像分割部283は先ず、第1分割位置を移動開始画像番号とする(ステップi1)。続いて、連続画像分割部283は、分裂画像番号を取得する(ステップi3)。そして、連続画像分割部283は、第2分割位置を分裂画像番号とする(ステップi5)。
FIG. 16 is a flowchart showing a detailed processing procedure of the scene d division processing. In the scene d division processing, the continuous
続いて、連続画像分割部283は、移動終了フラグを判定する。そして、移動終了フラグがONならば(ステップi7:Yes)、連続画像分割部283は、第3分割位置を移動終了画像番号とし(ステップi9)、ステップi17に移る。一方、連続画像分割部283は、移動終了フラグがOFFの場合には(ステップi7:No)、続いてフレームアウトフラグを判定する。そして、フレームアウトフラグがONならば(ステップi11:Yes)、連続画像分割部283は、第3分割位置をフレームアウト画像番号とし(ステップi13)、ステップi17に移る。また、フレームアウトフラグがOFFの場合には(ステップi11:No)、連続画像分割部283は、第3分割位置を設定せずになしとする(ステップi15)。そして、連続画像分割部283は、設定した第1分割位置、第2分割位置および第3分割位置の撮影画像を代表画像として抽出し(ステップi17)、図13のステップf23にリターンする。
Subsequently, the continuous
図17は、シーンe分割処理の詳細な処理手順を示すフローチャートである。シーンe分割処理では、連続画像分割部283は先ず、第1分割位置を移動開始画像番号とする(ステップj1)。続いて、連続画像分割部283は、重なり画像番号を取得する(ステップj3)。そして、連続画像分割部283は、第2分割位置を重なり画像番号とする(ステップj5)。
FIG. 17 is a flowchart showing a detailed processing procedure of the scene e division processing. In the scene e division processing, the continuous
続いて、連続画像分割部283は、移動終了フラグを判定する。そして、移動終了フラグがONならば(ステップj7:Yes)、連続画像分割部283は、第3分割位置を移動終了画像番号とし(ステップj9)、ステップj17に移る。一方、連続画像分割部283は、移動終了フラグがOFFの場合には(ステップj7:No)、続いてフレームアウトフラグを判定する。そして、フレームアウトフラグがONならば(ステップj11:Yes)、連続画像分割部283は、第3分割位置をフレームアウト画像番号とし(ステップj13)、ステップj17に移る。また、フレームアウトフラグがOFFの場合には(ステップj11:No)、連続画像分割部283は、第3分割位置を設定せずになしとする(ステップj15)。そして、連続画像分割部283は、設定した第1分割位置、第2分割位置および第3分割位置の撮影画像を代表画像として抽出し(ステップj17)、図13のステップf25にリターンする。
Subsequently, the continuous
連続画像分割処理を終えると、続いて図8に示すように、重要度算出部285が移動体重要度算出処理を行う(ステップa17)。図18は、移動体重要度算出処理の詳細な処理手順を示すフローチャートである。この優先度採点処理では、連続画像を構成する全ての撮影画像についてそれぞれループAの処理を行う(ステップk1〜ステップk25)。以下、ループAで処理の対象とする撮影画像を処理画像と呼ぶ。
When the continuous image dividing process is finished, the
すなわち先ず、重要度算出部285は、処理画像中の移動体の有無を判定する。処理画像中で移動体が検出されていない場合、すなわち処理画像中で登録移動体の動きが検出されていない場合には(ステップk3:No)、ステップk11に移る。
That is, first, the importance
一方、処理画像中で移動体が検出されている検出されている場合、すなわち処理画像中で登録移動体の動きが検出されている場合には(ステップk3:Yes)、重要度算出部285は、移動体の位置を採点する(ステップk5)。例えば、画角範囲の中心に位置するほど重要度が高いと推定し、重要度算出部285は、処理画像中で検出されている移動体の位置が画角範囲の中心に近いほど採点値を大きく設定する。
On the other hand, when the moving object is detected in the processed image, that is, when the movement of the registered moving object is detected in the processed image (step k3: Yes), the
続いて重要度算出部285は、移動体の速度変化を採点する(ステップk7)。例えば、移動体の移動速度が速いほど重要度が高いと推定する。重要度算出部285は、例えば処理画像よりも前に生成した数枚分の撮影画像中における登録移動体の位置を参照してその位置の変位をもとに移動体の移動速度を算出する。そして、重要度算出部285は、その移動速度が速いほど採点値を大きく設定する。
Subsequently, the importance
続いて重要度算出部285は、移動体の方向変化を採点する(ステップk9)。例えば、移動体の移動方向の変化が大きいほど重要度が高いと推定する。重要度算出部285は、例えば処理画像よりも前に生成した数枚分の撮影画像中の移動体の位置を参照してその位置の変位をもとに移動方向の変化を判定する。そして、重要度算出部285は、判定した移動方向の変化が大きいほど採点値を大きく設定する。
Subsequently, the
続くステップk11では、重要度算出部285は、処理画像中の顔の有無を判定する。処理画像中に顔がない場合、すなわち処理画像中の顔検出の結果顔が検出されていない場合には(ステップk11:No)、ステップk21に移る。
In subsequent step k11, the
一方、処理画像中に顔がある場合、すなわち処理画像中の顔検出の結果顔が検出されている場合には(ステップk11:Yes)、重要度算出部285は、顔の大きさを採点する(ステップk13)。サイズの大きい顔は、サイズの小さい顔に比べて重要度が高い。そこで、例えば重要度算出部285は、顔が大きいほど採点値を大きく設定する。
On the other hand, when there is a face in the processed image, that is, when a face is detected as a result of face detection in the processed image (step k11: Yes), the
続いて重要度算出部285は、顔の位置を採点する(ステップk15)。顔の位置が画角範囲の中心に近いほど重要度が高い。一方、顔の位置が画角範囲の端部に位置している場合、その顔は次の撮影画像でフレームアウトする可能性があるため、重要度は低い。そこで、例えば重要度算出部285は、顔の位置が画角範囲の中心に近いほど採点値を大きく設定する。
Subsequently, the
続いて重要度算出部285は、顔の向きを採点する(ステップk17)。例えば、顔が正面向きから外れた方向を向いているほど重要度が低いと推定し、重要度算出部285は、顔が正面を向いている場合の採点値を小さくし、顔の向きが正面から外れるほど採点値を大きく設定する。
Subsequently, the
続いて重要度算出部285は、顔の角度を採点する(ステップk19)。例えば、処理画像の縦方向に対して顔が傾いていないほど重要度が高いと推定し、重要度算出部285は、顔が傾いていない場合の採点値を小さくし、顔の角度が大きいほど採点値を大きく設定する。
Subsequently, the
続いて、重要度算出部285は、各採点値に対する重み付けを行う(ステップk21)。ここで行う重み付けは、例えば、移動体の位置、移動体の速度変化、移動体の方向変化、顔の大きさ、顔の位置、顔の向きおよび顔の角度の各採点項目について予め重み係数を設定しておき、各採点値に重み係数を乗じて行う。重み係数は、採点項目の重要度に応じて適宜設定しておくことができる。例えば、ユーザが画角範囲の中央に移動体が写っている撮影画像を重要視しているような場合であれば、移動体の位置や顔の位置の重み係数を大きく設定しておくことで、これらの採点値が高い撮影画像の重要度を高く設定することができる。
Subsequently, the
そして、重要度算出部285は、重み付けした各採点値の総和を処理画像の重要度として算出する(ステップk23)。そして、連続画像を構成する全ての撮影画像を処理画像としてループAの処理を行ったならば、図8のステップa17にリターンし、その後ステップa19に移る。なお、上記した移動体重要度算出処理は一例であって、採点方法や採点項目はこれに限定されず、適宜設定できる。
Then, the importance
続いて、保存画像選択処理部287が、表示部23に対し、ステップa15の連続画像分割処理の結果抽出された代表画像を表示する処理を行うとともに、分割シーンの選択依頼の通知を表示する処理を行う(ステップa19)。例えば、代表画像のサムネイルを一覧表示し、代表画像の選択操作を受け付けることによって分割シーンを選択する構成としてもよいし、代表画像を1枚ずつユーザ操作に従って順次切換表示し、代表画像の選択操作を受け付けることによって分割シーンを選択する構成としてもよい。
Subsequently, the saved image
そして、保存画像選択処理部287は、選択依頼の通知に応答して分割シーンが選択された場合には(ステップa21:Yes)、続いて、選択された分割シーンの撮影画像を表示する処理を行うとともに、保存画像の選択依頼の通知を表示する処理を行う(ステップa23)。このとき、保存画像選択処理部287は、例えば、選択された代表画像と撮影順が後順の代表画像との間の撮影画像、例えば第1分割位置の代表画像が選択された場合であれば、第1分割位置の撮影画像および第1分割位置と第2分割位置との間の撮影画像を分割シーンの撮影画像として選出する。そして、保存画像選択処理部287は、ステップa17の移動体重要度算出処理の結果をもとに、選出した撮影画像を重要度の高い順番で並び替える。そして、保存画像選択処理部287は、並び替えた順番で選出した撮影画像のサムネイルを一覧表示し、保存する撮影画像の選択操作を受け付ける。これによれば、選択された分割シーンの撮影画像のうち、重要度の高いものから順番にユーザに提示することができる。したがってユーザは、分割シーンの撮影画像の枚数が多い場合であっても効率よく撮影画像を閲覧することができるので、作業負担をより軽減できる。
Then, when the divided scene is selected in response to the notification of the selection request (step a21: Yes), the saved image
なお、分割シーンの撮影画像のうち、重要度の高いものから所定数の撮影画像をさらに選出して一覧表示し、保存画像の選択を受け付ける構成としてもよい。また、重要度による並び替えを行わずに、撮影順に一覧表示する構成としてもよい。また、ここでは、選択された分割シーンの撮影画像のサムネイルを一覧表示することとしたが、選択された分割シーンの撮影画像を1枚ずつユーザ操作に従って順次切換表示し、保存する撮影画像の選択操作を受け付ける構成としてもよい。そしてこのとき、ステップa17の重要度算出処理の結果をもとに、分割シーンの撮影画像を重要度の高い順番で並び替えて、並び替えた順番で切換表示するようにしてもよい。 A configuration may be adopted in which a predetermined number of photographed images having a higher importance are selected from among the photographed images of the divided scenes, displayed in a list, and a selection of saved images is accepted. Moreover, it is good also as a structure which displays a list in order of imaging | photography, without rearranging by importance. Here, the thumbnails of the captured images of the selected divided scene are displayed as a list, but the captured images of the selected divided scene are sequentially switched and displayed one by one in accordance with the user operation, and the selected captured image is selected. It is good also as a structure which receives operation. At this time, the captured images of the divided scenes may be rearranged in the order of importance and switched and displayed in the rearranged order based on the result of the importance calculation process in step a17.
そして、保存画像選択処理部287は、選択依頼の通知に応答して保存画像が選択された場合には(ステップa25:Yes)、保存処理を行い(ステップa27)、ステップa29に移る。
If the saved image is selected in response to the selection request notification (step a25: Yes), the saved image
ステップa29では、保存画像選択処理部287は、分割シーンの変更操作の有無を監視する。そして、保存画像選択処理部287は、分割シーンの変更操作があった場合には(ステップa29:Yes)、ステップa19に戻って再度分割シーンの選択依頼を通知し、上記した処理を行う。一方、保存画像選択処理部287は、分割シーンの変更操作がない場合には(ステップa29:No)、保存完了操作の有無によって保存を完了するか否かを判定し、保存を完了するまでの間(ステップa31:No)、ステップa25に戻って上記した処理を行う。一方、保存を完了する場合には(ステップa31:Yes)、本処理を終える。
In step a29, the saved image
以上説明したように、実施の形態1によれば、連続画像を構成する撮影画像間で動き検出を行って連続画像中に出現する移動体の動きを検出し、動き検出結果をもとに連続画像内での移動体の状態変化を判別することによって、連続画像の中から代表画像を抽出することができる。詳細には、移動体の状態変化をもとに連続画像を連写シーンに分類し、分類した連写シーンに応じた位置で連続画像を分割することによって、分割した位置の撮影画像を代表画像として抽出することができる。これによれば、連続画像中で移動体がどのように動いたかによって代表画像を抽出することができるので、連続画像の中からユーザにとって有用な代表画像を適切に抽出することができる。また、抽出した代表画像を表示部23に表示してユーザに提示することができる。したがって、連続画像の中から保存する撮影画像を選択する際のユーザの作業負担を軽減できる。
As described above, according to the first embodiment, motion detection is performed between captured images constituting a continuous image to detect the movement of a moving body that appears in the continuous image, and the motion detection results are continuously generated based on the motion detection result. By determining the state change of the moving body in the image, the representative image can be extracted from the continuous image. Specifically, the continuous images are classified into continuous shooting scenes based on the change in the state of the moving object, and the continuous images are divided at positions corresponding to the classified continuous shooting scenes. Can be extracted as According to this, since the representative image can be extracted depending on how the moving body moves in the continuous image, it is possible to appropriately extract the representative image useful for the user from the continuous image. Further, the extracted representative image can be displayed on the
なお、上記した実施の形態1では、連続画像の連写シーンがシーンaに分類された場合に、移動体の移動中心位置を分割位置として代表画像を抽出することとした。これに対し、移動体が撮影画角の中央に最も近接した位置で連続画像を分割するようにしてもよい。これによれば、移動体が中央付近に写る撮影画像を代表画像として抽出することができる。
In
また、連続画像の連写シーンをシーンcに分類した場合に、移動方向の変化位置を分割位置として代表画像を抽出する場合について例示したが、これに限定されるものではない。例えば、移動体の移動方向が所定の変化パターンに従って規則的に変化している場合には、移動体の移動開始位置から移動終了位置またはフレームアウト位置までの間を予め設定される所定数に等分割し、分割した位置の撮影画像を代表画像として抽出することとしてもよい。 Moreover, although the case where a continuous image of continuous images is classified into the scene c and the representative image is extracted with the change position in the moving direction as the division position is illustrated, the present invention is not limited to this. For example, when the moving direction of the moving body changes regularly according to a predetermined change pattern, the distance from the moving start position to the moving end position or frame-out position of the moving body is set to a predetermined number. It is good also as dividing and extracting the picked-up image of the divided position as a representative image.
また、移動体が顔である場合に、顔検出部17によって検出された顔の位置、顔の大きさ、顔の向き、顔の角度(傾き)等を加味して移動体の状態変化を判別するようにしてもよい。
Further, when the moving body is a face, the state change of the moving body is determined by taking into consideration the face position, face size, face orientation, face angle (tilt), etc. detected by the
また、代表画像としてユーザに提示する撮影画像の枚数を予め設定しておくようにしてもよい。そして、設定された枚数以上の代表画像が抽出された場合には、抽出された代表画像の中から設定された枚数の代表画像を選出するようにしてもよい。このとき、重要度算出部285によって撮影画像毎に算出される重要度の値を用いて、重要度の高い代表画像から順番に設定された枚数の代表画像を選出するようにしてもよい。
Further, the number of photographed images to be presented to the user as representative images may be set in advance. Then, when more than the set number of representative images are extracted, a set number of representative images may be selected from the extracted representative images. At this time, using the importance value calculated for each captured image by the
また、上記した実施の形態1では、連続画像分割部283によって分割位置とされた位置の撮影画像を代表画像として抽出する場合について説明したが、これに限定されるものではない。例えば、分割位置とされた位置を基準として前後に隣接する所定枚数の撮影画像を代表画像として抽出するようにしてもよい。
In the first embodiment described above, the case where the captured image at the position determined by the continuous
また、上記した実施の形態1では、連続画像分割部283によって抽出された代表画像を表示部23に表示してユーザに提示し、保存画像の選択操作を受け付けることとしたが、抽出した代表画像を自動的に保存画像とし、記録媒体20に記録するようにしてもよい。またこの場合に、変形例として上記したように、分割位置を基準として前後に隣接する所定枚数の撮影画像を代表画像として抽出し、抽出した代表画像を保存するようにしてもよい。これによれば、代表画像と例えばその前後数枚の撮影画像を自動的に記録媒体20に記録することができる。
In the first embodiment described above, the representative image extracted by the continuous
また、連続画像内において複数の移動体が検出された場合には、例えばユーザ操作に従って1つまたは複数の移動体を選択し、選択した移動体について動き検出を行ってその状態変化を判別するようにしてもよい。これによれば、複数の移動体のうちの所望の移動体に着目した代表画像の抽出が実現できる。 Further, when a plurality of moving bodies are detected in the continuous image, for example, one or a plurality of moving bodies are selected according to a user operation, and motion detection is performed on the selected moving bodies to determine the state change. It may be. According to this, extraction of a representative image focusing on a desired moving body among a plurality of moving bodies can be realized.
(実施の形態2)
図19は、実施の形態2の代表画像の抽出原理を説明する図であり、連続画像を構成する各撮影画像に写る移動体の移動経路(移動体の位置の変化)の一例として、放物線を描いて移動する移動体の移動経路を示している。
(Embodiment 2)
FIG. 19 is a diagram for explaining the principle of extracting a representative image according to the second embodiment. As an example of a moving path (change in the position of the moving object) of the moving object shown in each captured image constituting the continuous image, a parabola is used. The moving path of the moving body which draws and moves is shown.
実施の形態2では、撮影画像間の移動体の動き(移動量)をもとに、移動速度を解析する。続いて、移動体の移動区間内を、例えば移動速度が予め設定される所定の基準速度以上の区間と移動速度が基準速度に満たない区間とに区切り、各区間内を所定数に等分割する。この基準速度については、予め固定値として設定しておく構成としてもよいし、例えばユーザ操作に従って可変に設定する構成としてもよい。そして、各区間内を等分割した分割位置の撮影画像を代表画像として抽出する。図19では、移動体の移動区間内を、移動速度が基準速度以上の区間Aおよび区間Cと、移動速度が基準速度に満たない区間Bとに区切っている。そして、各区間A,B,C内をそれぞれ等分割し、区間Aから5枚の代表画像I51〜I55、区間Bから5枚の代表画像I61〜I65、区間Cから5枚の代表画像I71〜I75を抽出する様子を示している。図20−1〜5は、図19の区間Aから抽出された代表画像I51〜I55を示す図であり、図21−1〜5は、図19の区間Bから抽出された代表画像I61〜I65を示す図であり、図22−1〜5は、図19の区間Cから抽出された代表画像I71〜I75を示す図である。 In the second embodiment, the movement speed is analyzed based on the movement (movement amount) of the moving body between the captured images. Subsequently, the moving section of the moving body is divided into, for example, a section where the moving speed is equal to or higher than a predetermined reference speed and a section where the moving speed is less than the reference speed, and each section is equally divided into a predetermined number. . The reference speed may be set in advance as a fixed value, or may be set variably according to a user operation, for example. And the picked-up image of the division position equally divided in each section is extracted as a representative image. In FIG. 19, the moving section of the moving body is divided into a section A and a section C in which the moving speed is equal to or higher than the reference speed, and a section B in which the moving speed is less than the reference speed. Then, the sections A, B, and C are equally divided into five representative images I51 to I55 from the section A, five representative images I61 to I65 from the section B, and five representative images I71 to 71 from the section C. It shows how I75 is extracted. 20-1 to 5 are diagrams showing representative images I51 to I55 extracted from the section A in FIG. 19, and FIGS. 21-1 to 5 are representative images I61 to I65 extracted from the section B in FIG. FIGS. 22-1 to 5 are diagrams illustrating representative images I71 to I75 extracted from the section C in FIG.
なお、ここでは、各区間A,B,Cからそれぞれ同数の撮影画像を抽出する場合を例示したが、分割数は個別に設定してもよい。例えば、移動速度の速い区間の分割数を、移動速度の低い区間の分割数よりも多く設定してもよい。また、区間内の撮影画像の枚数を計数し、計数した枚数に応じた分割数で等分割することとしてもよい。また、移動速度の速い区間のみ分割し、移動速度の遅い区間は分割しないようにしてもよい。逆に、移動速度の遅い区間のみ分割し、移動速度の速い区間は分割しないようにしてもよい。また、図示しないが、移動体の移動速度が基準速度以上となる区間が存在しない場合には、移動体の移動区間全体を等分割して例えば5枚の撮影画像を抽出する。 In addition, although the case where the same number of photographed images is extracted from each of the sections A, B, and C is illustrated here, the number of divisions may be set individually. For example, the number of divisions in a section with a high moving speed may be set larger than the number of divisions in a section with a low moving speed. Further, the number of photographed images in the section may be counted and equally divided by the number of divisions corresponding to the counted number. Further, it is possible to divide only a section having a high movement speed and not to divide a section having a low movement speed. On the contrary, it is possible to divide only a section having a low movement speed and not to divide a section having a high movement speed. Although not shown, when there is no section where the moving speed of the moving body is equal to or higher than the reference speed, the entire moving section of the moving body is equally divided and, for example, five captured images are extracted.
図23は、実施の形態2のデジタルカメラのコントローラ28bの構成を示す図である。なお、実施の形態2のデジタルカメラは、実施の形態1において図5に示したデジタルカメラ1の構成において、コントローラ28を図23に示すコントローラ28bに置き換えた構成で実現できる。また、図23において、実施の形態1と同様の構成には、同一の符号を付している。
FIG. 23 is a diagram illustrating a configuration of the
図23に示すように、実施の形態2では、コントローラ28bは、変化判別部としての移動体状態解析部282bと、画像抽出部としての連続画像分割部283bと、重要度算出部285と、表示処理部としての保存画像選択処理部287とを含む。移動体状態解析部282bは、連続画像内に出現した移動体の状態を解析して状態変化を判別する。実施の形態2では、移動体状態解析部282bは、移動体の移動開始位置、フレームアウト位置、移動終了位置および移動体の移動速度を解析する。連続画像分割部283bは、移動体の移動速度に応じた位置で連続画像を分割し、分割位置の撮影画像を代表画像として抽出する。
As shown in FIG. 23, in the second embodiment, the
図24は、実施の形態2のデジタルカメラが行う処理の手順を説明するフローチャートであり、連写モードにおけるデジタルカメラの処理手順を示している。なお、図24では、実施の形態1と同様の処理工程については、同一の符号を付している。 FIG. 24 is a flowchart for explaining a processing procedure performed by the digital camera according to the second embodiment, and shows a processing procedure of the digital camera in the continuous shooting mode. In FIG. 24, the same reference numerals are assigned to the same processing steps as those in the first embodiment.
実施の形態2では、連写枚数が所定枚数より多い場合に(ステップa11:Yes)、移動体状態解析部282bが移動体状態解析処理を行う(ステップl13)。図25は、移動体状態解析処理の詳細な処理手順を示すフローチャートである。
In the second embodiment, when the number of continuous shots is greater than the predetermined number (step a11: Yes), the moving body
移動体状態解析処理では先ず、移動体状態解析部282bは、移動体の移動開始位置を解析する(ステップm1)。例えば、その移動体が最初に検出されて登録移動体として登録された撮影画像を移動開始位置とし、画像番号を移動開始画像番号として取得する。
In the moving body state analyzing process, first, the moving body
続いて、移動体状態解析部282bは、移動体の移動速度を解析する(ステップm3)。例えば、移動体状態解析部282bは、連続画像を構成する各撮影画像間での移動体の動き検出結果をもとに、各撮影画像間での移動体の移動量を移動速度として算出する。
Subsequently, the moving body
続いて、移動体状態解析部282bは、移動体のフレームアウト位置を解析する(ステップm5)。例えば、その移動体が画角範囲の端部に移動し、画角範囲から外れた撮影画像をフレームアウト位置とし、画像番号をフレームアウト画像番号として取得する。
Subsequently, the moving body
続いて、移動体状態解析部282bは、移動体の移動終了位置を解析する(ステップm7)。例えば、その移動体が停止した撮影画像あるいはその移動体を追尾できなくなった撮影画像を移動終了位置とし、画像番号を移動終了画像番号として取得する。そして、図24のステップl13にリターンし、その後、ステップl15に移る。
Subsequently, the moving body
ステップl15では、連続画像分割部283bが、連続画像分割処理を行う。図26は、連続画像分割処理の詳細な処理手順を示すフローチャートである。
In step l15, the continuous
連続画像分割処理では、連続画像分割部283bは先ず、移動体の移動開始画像番号を取得する(ステップn1)。そして、連続画像分割部283bは、連続画像内で移動体が移動している区間(移動区間)の先頭の撮影画像を移動開始画像番号とする(ステップn3)。続いて、連続画像分割部283bは、移動終了フラグを判定する。そして、連続画像分割部283bは、移動終了フラグがONであれば(ステップn5:Yes)、移動区間の最後尾の撮影画像を移動終了画像番号とし(ステップn7)、ステップn15に移る。
In the continuous image dividing process, the continuous
一方、ステップn5において判定した移動終了フラグがOFFであれば(ステップn5:No)、続いて連続画像分割部283bは、フレームアウトフラグを判定する。そして、連続画像分割部283bは、フレームアウトフラグがONであれば(ステップn9:Yes)、移動区間の最後尾の撮影画像をフレームアウト画像番号とし(ステップn11)、ステップn15に移る。
On the other hand, if the movement end flag determined in step n5 is OFF (step n5: No), the continuous
また、ステップn9において判定したフレームアウトフラグがOFFの場合には(ステップn9:No)、移動区間の最後尾の撮影画像を連続画像の最終画像番号とし(ステップn13)、ステップn15に移る。 If the frame-out flag determined in step n9 is OFF (step n9: No), the last captured image number of the moving section is set as the final image number of the continuous image (step n13), and the process proceeds to step n15.
ステップn15では、連続画像分割部283bは、移動体の移動速度の変化を判別する。そして、連続画像分割部283bは、いずれかの撮影画像間で移動速度が所定の基準速度以上となっていれば(ステップn15:Yes)、移動区間内を移動速度が基準速度以上の区間と基準速度に満たない区間とに区切り、先ず、移動速度が基準速度以上の区間内を所定数に等分割して分割位置を設定する(ステップn17)。続いて、連続画像分割部283bは、移動速度が基準速度に満たない区間内を所定数に等分割して分割位置を設定する(ステップn19)。そして、ステップn23に移る。一方、移動速度が基準速度以上となっていない場合には(ステップn15:No)、移動区間全体を所定数に等分割して分割位置を設定する(ステップn21)。そして、ステップn23に移る。
In step n15, the continuous
ステップn23では、分割位置の撮影画像を代表画像として抽出する。そして、図24のステップl15にリターンし、その後ステップa17に移る。 In step n23, the captured image at the division position is extracted as a representative image. Then, the process returns to step l15 in FIG. 24, and then proceeds to step a17.
以上説明したように、実施の形態2によれば、連続画像を構成する撮影画像間で動き検出を行って連続画像中に出現する移動体の動きを検出し、動き検出結果をもとに連続画像内での移動体の状態変化として移動速度の変化を判別することができる。そして、移動体の移動速度に応じた分割位置で連続画像を分割することによって、分割した位置の撮影画像を代表画像として抽出することができる。例えば、移動体の移動区間内を、移動速度が所定の基準速度以上の区間と基準速度に満たない区間とに区切り、区間内を等分割して分割位置を設定し、代表画像を抽出することができる。したがって、連続画像中での移動体の移動速度の変化に応じて代表画像を抽出し、ユーザに提示できる。 As described above, according to the second embodiment, motion detection is performed between captured images constituting a continuous image to detect the movement of a moving body that appears in the continuous image, and the motion detection results are continuously detected based on the motion detection result. A change in the moving speed can be determined as a change in the state of the moving body in the image. Then, by dividing the continuous image at the division position according to the moving speed of the moving body, the captured image at the divided position can be extracted as the representative image. For example, the moving section of the moving object is divided into a section where the moving speed is equal to or higher than a predetermined reference speed and a section where the moving speed is less than the reference speed, and the section is equally divided to set a division position and extract a representative image. Can do. Therefore, a representative image can be extracted according to a change in the moving speed of the moving body in the continuous image and presented to the user.
なお、上記した実施の形態1では、移動体の重なり状態や分裂状態、移動体の移動方向が一定なのか不安定なのかそれとも所定の変化パターンに従って規則的に変化しているのかを判別して連写シーンに分類し、連写シーンに応じた位置で連続画像を分割することとした。一方、実施の形態2では、移動体の状態変化として移動速度の変化を判別し、判別した移動方向の変化に応じた位置で連続画像を分割することとした。これに対し、移動体の大きさの変化を判別し、判別した大きさの変化に応じた位置で連続画像を分割することとしてもよい。例えば、実施の形態2の適用例と同様にして、移動体の大きさが所定の基準サイズ以上である区間と、基準サイズに満たない区間とに区切り、区間内を等分割して分割位置を設定し、代表画像を抽出することとしてもよい。また、移動体の大きさが基準サイズ以上となる区間が存在しない場合には、移動体の移動区間全体を等分割して分割位置を設定することとしてもよい。 In the first embodiment described above, it is determined whether the overlapping state or split state of the moving body, whether the moving direction of the moving body is constant or unstable, or whether the moving body changes regularly according to a predetermined change pattern. The continuous images were classified into continuous shooting scenes, and continuous images were divided at positions corresponding to the continuous shooting scenes. On the other hand, in the second embodiment, a change in moving speed is determined as a change in the state of the moving body, and a continuous image is divided at positions corresponding to the determined change in moving direction. On the other hand, a change in the size of the moving body may be determined, and the continuous image may be divided at a position corresponding to the determined change in size. For example, in the same manner as in the application example of the second embodiment, the moving body is divided into a section having a size equal to or larger than a predetermined reference size and a section that does not satisfy the reference size, and the section is divided into equal parts. It is good also as setting and extracting a representative image. Further, when there is no section where the size of the moving body is equal to or larger than the reference size, the entire moving section of the moving body may be equally divided to set the division position.
またこの場合には、実施の形態2と同様に、移動体の大きさが大きい区間と、移動体の大きさが小さい区間とを異なる分割数で分割することとしてもよい。例えば、サイズの大きい区間の分割数を、サイズの小さい区間の分割数よりも多く設定してもよい。また、区間内の撮影画像の枚数を計数し、計数した枚数に応じた分割数で等分割することとしてもよい。また、サイズの大きい区間のみ分割し、サイズの小さい区間は分割しないようにしてもよい。逆に、サイズの小さい区間のみ分割し、サイズの大きい区間は分割しないようにしてもよい。 In this case, similarly to the second embodiment, the section in which the size of the moving object is large and the section in which the size of the moving object is small may be divided by different numbers of divisions. For example, the number of divisions in a large size section may be set larger than the number of divisions in a small size section. Further, the number of photographed images in the section may be counted and equally divided by the number of divisions corresponding to the counted number. Further, only a section having a large size may be divided, and a section having a small size may not be divided. On the contrary, it is possible to divide only a small-sized section and not divide a large-sized section.
また、移動体の移動方向の変化、移動速度の変化および大きさの変化の少なくとも2つ以上を組み合わせて移動体の状態変化を判別し、分割位置を設定するようにしてもよい。さらにこのとき、移動体が顔である場合に、顔検出部17によって検出された顔の位置、顔の大きさ、顔の向きおよび顔の角度(傾き)の少なくともいずれか1つの変化を加味してを加味して移動体の状態変化を判別するようにしてもよい。
Further, the division position may be set by determining the state change of the moving body by combining at least two or more of the change in the moving direction of the moving body, the change in the moving speed, and the change in the magnitude. Further, at this time, when the moving body is a face, a change in at least one of the face position, the face size, the face direction, and the face angle (tilt) detected by the
また、画像処理部16、コントローラ28または28bを構成する連写シーン分類部281、移動体状態解析部282b、連続画像分割部283,283b、重要度算出部285、保存画像選択処理部287は、ハードウェアで実現する構成としてもよいし、所定のプログラムを実行することによってソフトウェアとして実現することとしてもよい。ソフトウェアとして実現する場合には、例えば、図8〜図18に示した処理、あるいは図24〜図26に示した処理の一部または全部を実現するためのプログラムをROM27に記録しておく。そして、コントローラ28,28bがこのプログラムを読み出して実行することによって、連写シーン分類部281、移動体状態解析部282b、連続画像分割部283,283b、重要度算出部285、保存画像選択処理部287の構成を実現するようにしてもよい。
Further, the
また、上記した実施の形態では、本発明の撮影装置をデジタルカメラに適用した例について説明したが、適用対象はデジタルカメラに限定されず、携帯電話機に付属のカメラやPC付属のカメラに適用してもよい。 In the above-described embodiment, an example in which the photographing apparatus of the present invention is applied to a digital camera has been described. However, the application target is not limited to a digital camera, and is applied to a camera attached to a mobile phone or a camera attached to a PC. May be.
1 デジタルカメラ
11 撮像光学系
12 撮像素子
13 AFE
14 フレームメモリ
15 動き検出部
16 画像処理部
17 顔検出部
18 記録媒体I/F
19 記録媒体保持部
20 記録媒体
21 ビデオエンコーダ
22 表示ドライバ
23 表示部
24 ビデオ信号出力端子
25 操作部
26 RAM
27 ROM
28,28b コントローラ
281 連写シーン分類部
282b 移動体状態解析部
283,283b 連続画像分割部
285 重要度算出部
287 保存画像選択処理部
1
14
DESCRIPTION OF
27 ROM
28,
Claims (14)
前記複数の撮影画像毎に、隣接する撮影画像との間の動きを検出して前記撮影画像中の移動体を検出する移動体検出部と、
前記移動体検出部による検出結果をもとに、前記連続画像内での前記移動体の状態変化を判別する変化判別部と、
前記変化判別部による判別結果をもとに、前記連続画像の中から代表画像を抽出する画像抽出部と、
を備えることを特徴とする撮影装置。 A continuous image acquisition unit that continuously performs shooting processing to acquire a continuous image composed of image data of a plurality of captured images;
For each of the plurality of captured images, a moving body detection unit that detects a movement between adjacent captured images and detects a moving body in the captured images;
Based on the detection result by the moving body detection unit, a change determination unit that determines a state change of the moving body in the continuous image;
Based on the determination result by the change determination unit, an image extraction unit that extracts a representative image from the continuous image;
An imaging apparatus comprising:
前記画像抽出部は、前記変化判別部によって前記規則的な変化が判別された場合に、前記移動体の移動方向が変化した位置で前記連続画像を分割することを特徴とする請求項3に記載の撮影装置。 The change determining unit determines a state in which the moving direction of the moving body is regularly changed according to a predetermined change pattern;
The said image extraction part divides | segments the said continuous image in the position where the moving direction of the said mobile body changed, when the said regular change is discriminate | determined by the said change discrimination | determination part. Shooting device.
前記画像抽出部は、前記変化判別部によって前記所定方向に沿った変化または前記不規則な変化が判別された場合に、前記移動体の移動開始位置から前記移動体の移動終了位置までの移動経路上の中間位置で前記連続画像を分割することを特徴とする請求項3に記載の撮影装置。 The change determining unit determines a state in which the moving body moves along a predetermined direction without changing a direction or a state in which the moving direction of the moving body changes irregularly,
The image extraction unit includes a movement path from a movement start position of the moving body to a movement end position of the moving body when the change determination section determines a change along the predetermined direction or the irregular change. The photographing apparatus according to claim 3, wherein the continuous image is divided at an upper intermediate position.
前記画像抽出部は、前記変化判別部によって前記所定方向に沿った変化または前記不規則な変化が判別された場合に、前記移動体が撮影画角の中央に最も近接した位置で前記連続画像を分割することを特徴とする請求項3に記載の撮影装置。 The change determining unit determines a state in which the moving body moves along a predetermined direction without changing a direction or a state in which the moving direction of the moving body changes irregularly,
The image extraction unit, when the change determination unit determines a change along the predetermined direction or the irregular change, the moving body displays the continuous image at a position closest to the center of the shooting angle of view. The photographing apparatus according to claim 3, wherein the photographing apparatus is divided.
前記変化判別部は、前記移動体同士が重なった状態を重なり状態として判別し、
前記画像抽出部は、前記移動体同士が重なった位置で前記連続画像を分割することを特徴とする請求項3に記載の撮影装置。 The moving body detection unit is configured to be able to detect a plurality of moving bodies,
The change determination unit determines the overlapping state of the moving bodies as an overlapping state,
The imaging apparatus according to claim 3, wherein the image extraction unit divides the continuous image at a position where the moving bodies overlap each other.
前記変化判別部は、前記複数の移動体のうちのいずれか1つの移動体の位置を始点として他の移動体が移動を開始した状態を分裂状態として判別し、
前記画像抽出部は、前記移動体が分裂した位置で前記連続画像を分割することを特徴とする請求項3に記載の撮影装置。 The moving body detection unit is configured to be able to detect a plurality of moving bodies,
The change determining unit determines, as a split state, a state in which another moving body starts moving, starting from the position of any one of the plurality of moving bodies.
The imaging apparatus according to claim 3, wherein the image extraction unit divides the continuous image at a position where the moving body is divided.
前記複数の撮影画像毎に、隣接する撮影画像との間の動きを検出して前記撮影画像中の移動体を検出する移動体検出工程と、
前記移動体検出工程による検出結果をもとに、前記連続画像内での前記移動体の状態変化を判別する変化判別工程と、
前記変化判別工程による判別結果をもとに、前記連続画像の中から代表画像を抽出する画像抽出工程と、
を含むことを特徴とする撮影方法。 A continuous image acquisition step of performing continuous shooting processing to acquire a continuous image composed of image data of a plurality of captured images;
For each of the plurality of captured images, a moving object detection step of detecting a movement between adjacent captured images and detecting a moving object in the captured images;
Based on the detection result of the moving body detection step, a change determination step for determining a state change of the moving body in the continuous image;
Based on the determination result by the change determination step, an image extraction step of extracting a representative image from the continuous image;
A photographing method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009021993A JP5209521B2 (en) | 2009-02-02 | 2009-02-02 | Imaging apparatus and imaging method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009021993A JP5209521B2 (en) | 2009-02-02 | 2009-02-02 | Imaging apparatus and imaging method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010178318A true JP2010178318A (en) | 2010-08-12 |
JP2010178318A5 JP2010178318A5 (en) | 2012-03-08 |
JP5209521B2 JP5209521B2 (en) | 2013-06-12 |
Family
ID=42708774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009021993A Expired - Fee Related JP5209521B2 (en) | 2009-02-02 | 2009-02-02 | Imaging apparatus and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5209521B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120026284A1 (en) * | 2010-08-02 | 2012-02-02 | Canon Kabushiki Kaisha | Imaging apparatus and control method therefor |
WO2013031241A1 (en) * | 2011-09-02 | 2013-03-07 | 株式会社ニコン | Electronic camera, image-processing apparatus, and image-processing program |
JP2013066144A (en) * | 2011-08-29 | 2013-04-11 | Casio Comput Co Ltd | Image editing device and program |
JP2013198012A (en) * | 2012-03-21 | 2013-09-30 | Casio Comput Co Ltd | Information processor, still-image frame sampling method and program |
JP2014036421A (en) * | 2012-08-10 | 2014-02-24 | Canon Inc | Image processing apparatus, method, and program |
JP2015119323A (en) * | 2013-12-18 | 2015-06-25 | カシオ計算機株式会社 | Imaging apparatus, image acquiring method and program |
JP2016012834A (en) * | 2014-06-30 | 2016-01-21 | ブラザー工業株式会社 | Image processing system and computer program |
JP2021093616A (en) * | 2019-12-10 | 2021-06-17 | シャープ株式会社 | Electronic device, control device, control method, and control program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180076A (en) * | 2002-11-28 | 2004-06-24 | Fuji Photo Film Co Ltd | Imaging device, imaging method, and image processing device |
JP2005176274A (en) * | 2003-12-15 | 2005-06-30 | Canon Inc | Image pickup device and image pickup control method |
JP2006333189A (en) * | 2005-05-27 | 2006-12-07 | Matsushita Electric Ind Co Ltd | Image summary generator |
-
2009
- 2009-02-02 JP JP2009021993A patent/JP5209521B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180076A (en) * | 2002-11-28 | 2004-06-24 | Fuji Photo Film Co Ltd | Imaging device, imaging method, and image processing device |
JP2005176274A (en) * | 2003-12-15 | 2005-06-30 | Canon Inc | Image pickup device and image pickup control method |
JP2006333189A (en) * | 2005-05-27 | 2006-12-07 | Matsushita Electric Ind Co Ltd | Image summary generator |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120026284A1 (en) * | 2010-08-02 | 2012-02-02 | Canon Kabushiki Kaisha | Imaging apparatus and control method therefor |
JP2013066144A (en) * | 2011-08-29 | 2013-04-11 | Casio Comput Co Ltd | Image editing device and program |
US9214189B2 (en) | 2011-08-29 | 2015-12-15 | Casio Computer Co., Ltd. | Image editing apparatus, image editing method, and storage medium storing image editing control program |
US9792677B2 (en) | 2011-09-02 | 2017-10-17 | Nikon Corporation | Electronic camera, image processing device, and image processing program |
JP2013055455A (en) * | 2011-09-02 | 2013-03-21 | Nikon Corp | Electronic camera, image processing device, and image processing program |
WO2013031241A1 (en) * | 2011-09-02 | 2013-03-07 | 株式会社ニコン | Electronic camera, image-processing apparatus, and image-processing program |
US10489898B2 (en) | 2011-09-02 | 2019-11-26 | Nikon Corporation | Electronic camera, image-processing device, and image-processing program |
JP2013198012A (en) * | 2012-03-21 | 2013-09-30 | Casio Comput Co Ltd | Information processor, still-image frame sampling method and program |
JP2014036421A (en) * | 2012-08-10 | 2014-02-24 | Canon Inc | Image processing apparatus, method, and program |
JP2015119323A (en) * | 2013-12-18 | 2015-06-25 | カシオ計算機株式会社 | Imaging apparatus, image acquiring method and program |
JP2016012834A (en) * | 2014-06-30 | 2016-01-21 | ブラザー工業株式会社 | Image processing system and computer program |
JP2021093616A (en) * | 2019-12-10 | 2021-06-17 | シャープ株式会社 | Electronic device, control device, control method, and control program |
JP7366722B2 (en) | 2019-12-10 | 2023-10-23 | シャープ株式会社 | Electronic equipment, control device, control method, and control program |
Also Published As
Publication number | Publication date |
---|---|
JP5209521B2 (en) | 2013-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5209521B2 (en) | Imaging apparatus and imaging method | |
US11012614B2 (en) | Image processing device, image processing method, and program | |
US8797381B2 (en) | Image processing apparatus and image processing method | |
JP5623256B2 (en) | Imaging apparatus, control method thereof, and program | |
JP5293206B2 (en) | Image search apparatus, image search method and program | |
JP2008009263A (en) | Imaging device and program therefor | |
JP2008276214A (en) | Digital camera | |
JP2010081535A (en) | Imaging apparatus, imaging method, and program | |
US8965192B2 (en) | Automatic focusing apparatus | |
US9055212B2 (en) | Imaging system, image processing method, and image processing program recording medium using framing information to capture image actually intended by user | |
KR20100013701A (en) | Apparatus and mthod for self timer image capture by checking the number of person | |
JP5289993B2 (en) | TRACKING DEVICE AND TRACKING METHOD | |
JP2010199694A (en) | Image capturing apparatus, angle-of-view adjusting method, and program | |
JP2011217103A (en) | Compound eye photographing method and apparatus | |
WO2011099092A1 (en) | Motion-recognizing remote-control receiving device, and motion-recognizing remote-control control method | |
JP2007318292A (en) | Motion vector detector and its program | |
JP5448868B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP5858658B2 (en) | Imaging device | |
JP5278483B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP4877186B2 (en) | Image processing apparatus, image processing method, and program | |
JP5832618B2 (en) | Imaging apparatus, control method thereof, and program | |
JP2011097502A (en) | Photographing control device, and photographing control method | |
JP2011139123A (en) | Image processor and image processing program | |
JP2008104070A (en) | Portable apparatus with camera and program for portable apparatus with camera | |
JP2005215495A (en) | Image photographing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120123 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130221 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5209521 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |