JP6115815B2 - Composite image generation apparatus and composite image generation method - Google Patents

Composite image generation apparatus and composite image generation method Download PDF

Info

Publication number
JP6115815B2
JP6115815B2 JP2013094232A JP2013094232A JP6115815B2 JP 6115815 B2 JP6115815 B2 JP 6115815B2 JP 2013094232 A JP2013094232 A JP 2013094232A JP 2013094232 A JP2013094232 A JP 2013094232A JP 6115815 B2 JP6115815 B2 JP 6115815B2
Authority
JP
Japan
Prior art keywords
subject
area
composition ratio
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013094232A
Other languages
Japanese (ja)
Other versions
JP2014216926A (en
Inventor
景洋 長尾
景洋 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Imaging Co Ltd
Original Assignee
Ricoh Imaging Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Imaging Co Ltd filed Critical Ricoh Imaging Co Ltd
Priority to JP2013094232A priority Critical patent/JP6115815B2/en
Publication of JP2014216926A publication Critical patent/JP2014216926A/en
Application granted granted Critical
Publication of JP6115815B2 publication Critical patent/JP6115815B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)

Description

本発明は、複数枚の画像を合成することにより、被写体の移動軌跡を一枚の画像に収めたストロボ画像を生成することが可能な合成画像生成装置及び合成画像生成方法に関する。   The present invention relates to a composite image generation apparatus and a composite image generation method capable of generating a strobe image in which a movement trajectory of a subject is stored in a single image by combining a plurality of images.

移動する被写体を固定された撮影装置で連写撮影し、連写撮影によって得られた複数枚の画像を合成することにより、被写体の移動軌跡を一枚の画像に収めたストロボ画像を生成する技術が知られている。この種の技術については、例えば特許文献1に開示されている。   Technology that generates a strobe image that captures the movement trajectory of a subject in a single image by continuously shooting a moving subject with a fixed imaging device and combining multiple images obtained by continuous shooting It has been known. This type of technology is disclosed in Patent Document 1, for example.

特許文献1には、フレーム画像の中から映像オブジェクト(被写体)の候補を抽出し、抽出された被写体の候補の画像の中から予め設定されている抽出条件に基づいて追跡対象となる被写体の位置及び特徴量を求め、求められた被写体の移動軌跡のみを作画した軌跡画像を生成し、生成された軌跡画像とフレーム画像とを合成することにより、ストロボ画像を得る構成が記載されている。抽出条件としては、面積、輝度、色、アスペクト比及び円形度が挙げられている。   In Patent Document 1, a candidate for a video object (subject) is extracted from a frame image, and the position of a subject to be tracked is extracted based on a preset extraction condition from the extracted subject candidate images. In addition, a configuration is described in which a strobe image is obtained by obtaining a trajectory image in which only the obtained movement trajectory of the subject is created, and a trajectory image generated by combining the generated trajectory image and a frame image. Examples of extraction conditions include area, luminance, color, aspect ratio, and circularity.

特開2005−123824号公報JP 2005-123824 A

特許文献1において、例えば任意の被写体を抽出するためには抽出条件を適切に設定する必要がある。具体的には、ユーザは、任意の被写体の抽出に適した項目(例えば輝度)を選択し、選択された項目について被写体の抽出に適した値(例えば輝度値)を設定する必要がある。しかし、任意の被写体の抽出に適した項目を選択すること及び値を設定することは、選択する項目の種類や設定値次第で被写体の抽出精度が変動するため、ユーザにとって容易な作業ではない。例えば、抽出条件の項目数が少ないほど被写体の抽出精度が劣化し、追跡対象の被写体が抽出される確率が低下すると共に追跡対象外の被写体が抽出される確率が上昇する。一方、抽出条件の項目数を増加させると被写体の抽出精度が向上し、追跡対象の被写体が抽出される確率が上昇すると共に追跡対象外の被写体が抽出される確率が低下する。しかし、この場合、項目の組合せを適切に選択すると共に各項目の設定値を項目の組合せ等を考慮して適切に設定しなければ、追跡対象の被写体が抽出対象から外れてしまう虞がある。また、項目数が多いほど処理演算が複雑になるという別の問題が発生する。そのため、被写体の抽出精度を向上させたい場合であっても項目数を安易には増やすことができない。このように、特許文献1では、任意の被写体に対して適切な抽出条件を設定することが難しい。そのため、任意の被写体を追尾対象としたストロボ画像を生成するには不向きであった。   In Patent Document 1, for example, in order to extract an arbitrary subject, it is necessary to appropriately set extraction conditions. Specifically, the user needs to select an item (for example, luminance) suitable for extraction of an arbitrary subject and set a value (for example, luminance value) suitable for extraction of the subject for the selected item. However, selecting an item suitable for extraction of an arbitrary subject and setting a value are not easy operations for the user because subject extraction accuracy varies depending on the type of item to be selected and the set value. For example, as the number of extraction condition items decreases, the subject extraction accuracy deteriorates, the probability that a tracking target subject is extracted decreases, and the probability that a subject that is not a tracking target is extracted increases. On the other hand, when the number of extraction condition items is increased, the accuracy of subject extraction is improved, the probability that a subject to be tracked will be increased, and the probability that a subject that is not a target will be extracted will decrease. However, in this case, if the combination of items is appropriately selected and the setting value of each item is not appropriately set in consideration of the combination of items, the subject to be tracked may be excluded from the extraction target. In addition, another problem arises that the processing operation becomes more complicated as the number of items increases. Therefore, the number of items cannot be easily increased even when it is desired to improve the extraction accuracy of the subject. As described above, in Patent Document 1, it is difficult to set an appropriate extraction condition for an arbitrary subject. Therefore, it is unsuitable for generating a strobe image with an arbitrary subject as a tracking target.

本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、任意の被写体を追跡対象としたストロボ画像を生成するのに好適な合成画像生成装置及び画像生成方法を提供することである。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a composite image generation apparatus and an image generation method suitable for generating a strobe image with an arbitrary subject as a tracking target. That is.

本発明の一形態に係る合成画像生成装置は、撮影画像を所定の表示画面に表示する表示手段と、表示画面に表示される撮影画像内の範囲をユーザに指定させる範囲指定手段と、指定された範囲に含まれる被写体を登録する被写体登録手段と、複数の撮影画像の各々から、被写体登録手段により登録された登録被写体と同一とみなすことができる被写体を検出する被写体検出手段と、被写体が検出された複数の撮影画像を合成する画像合成手段とを備える。   A composite image generating apparatus according to an aspect of the present invention is specified by a display unit that displays a captured image on a predetermined display screen, and a range specifying unit that allows a user to specify a range in the captured image displayed on the display screen. A subject registration unit for registering a subject included in the range, a subject detection unit for detecting a subject that can be regarded as the same as the registered subject registered by the subject registration unit from each of a plurality of captured images, and a subject detection Image synthesizing means for synthesizing the plurality of captured images.

範囲指定手段は、表示画面に表示される撮影画像に所定の枠を重畳的に表示させ、枠により囲われる撮影画像内の範囲をユーザの操作に応じて変更させ、枠により囲われる撮影画像内の範囲をユーザに指定させる構成としてもよい。枠は、例えば、ユーザの操作に応じて形及び大きさ並びに撮影画像内における位置が変更される。   The range designating unit displays a predetermined frame in a superimposed manner on the captured image displayed on the display screen, changes the range in the captured image surrounded by the frame according to the user's operation, and It is good also as a structure which makes a user designate the range of this. For example, the shape and size of the frame and the position in the captured image are changed according to the user's operation.

また、合成画像生成装置は、撮影画像内の領域であって、被写体検出手段により被写体が検出された被写体領域と被写体領域以外の非被写体領域とに異なる合成比率を設定する合成比率設定手段を備える構成としてもよい。この場合、画像合成手段は、合成対象の撮影画像の各々に対して合成比率設定手段により設定された合成比率に基づいて重み付けを行い、重み付け後の複数の撮影画像を合成する。   Further, the composite image generating apparatus includes a composite ratio setting unit that sets different composite ratios for a subject region in which a subject is detected by the subject detection unit and a non-subject region other than the subject region, in the captured image. It is good also as a structure. In this case, the image synthesizing unit weights each of the captured images to be synthesized based on the synthesis ratio set by the synthesis ratio setting unit, and synthesizes the plurality of weighted captured images.

合成比率設定手段は、例えば、被写体領域に設定される合成比率を第一の合成比率と定義し、非被写体領域に設定される合成比率を第二の合成比率と定義した場合に、被写体領域と非被写体領域との境界付近において合成比率が第一の合成比率から第二の合成比率へ連続的に変化するように設定する。   For example, when the composition ratio set in the subject area is defined as the first composition ratio and the composition ratio set in the non-subject area is defined as the second composition ratio, the composition ratio setting unit The composition ratio is set so as to continuously change from the first composition ratio to the second composition ratio in the vicinity of the boundary with the non-subject region.

また、合成比率設定手段は、非被写体領域に対して被写体領域よりも低い合成比率を設定する構成としてもよい。   Further, the composition ratio setting means may be configured to set a composition ratio lower than that of the subject area for the non-subject area.

また、合成比率設定手段は、画像合成手段により合成される撮影画像の枚数がNと定義される場合、非被写体領域に対して被写体領域の1/N倍の合成比率を設定する構成としてもよい。   Further, the composition ratio setting means may be configured to set a composition ratio of 1 / N times the subject area with respect to the non-subject area when the number of photographed images synthesized by the image composition means is defined as N. .

また、合成比率設定手段は、画像合成手段により合成されると被写体領域が互いに重なることになる2つ以上の撮影画像がある場合、合成後の画像にて被写体が重なって表示されないように、2つ以上の撮影画像内の被写体領域の合成比率を設定する構成としてもよい。   In addition, when there are two or more photographed images whose subject areas overlap each other when they are synthesized by the image synthesizing unit, the synthesis ratio setting unit 2 prevents the subject from being overlapped and displayed in the synthesized image. A composition ratio of subject areas in two or more captured images may be set.

また、合成比率設定手段は、2つ以上の撮影画像のうち1つの撮影画像内の被写体領域の合成比率を正の値に設定し、1つの撮影画像以外の撮影画像内の被写体領域の合成比率をゼロに設定する構成としてもよい。   The composition ratio setting means sets the composition ratio of the subject area in one captured image among two or more captured images to a positive value, and the composition ratio of the subject areas in the captured image other than the one captured image. It is good also as a structure which sets to zero.

また、本発明の別の形態に係る合成画像生成装置は、複数の撮影画像の中から1つの撮影画像をユーザに選択させる撮影画像選択手段と、選択された撮影画像内の範囲をユーザに指定させる範囲指定手段と、指定された範囲に含まれる被写体を登録する被写体登録手段と、撮影画像選択手段により選択されなかった撮影画像の各々から、被写体登録手段により登録された登録被写体と同一とみなすことができる被写体を検出する被写体検出手段と、撮影画像選択手段により選択された撮影画像及び被写体検出手段により被写体が検出された撮影画像を合成する画像合成手段とを備える。   According to another aspect of the present invention, there is provided a composite image generating apparatus that specifies a captured image selection unit that allows a user to select one captured image from a plurality of captured images, and a range within the selected captured image. Range registration means, subject registration means for registering subjects included in the designated range, and photographed images not selected by the photographed image selection means are regarded as the same as the registered subject registered by the subject registration means. A subject detection unit that detects a subject that can be detected, and an image synthesis unit that combines the captured image selected by the captured image selection unit and the captured image from which the subject is detected by the subject detection unit.

また、本発明の一形態に係る合成画像生成方法は、撮影画像を所定の表示画面に表示する表示ステップと、表示画面に表示される撮影画像内の範囲をユーザに指定させる範囲指定ステップと、指定された範囲に含まれる被写体を登録する被写体登録ステップと、複数の撮影画像の各々から、被写体登録ステップにて登録された登録被写体と同一とみなすことができる被写体を検出する被写体検出ステップと、被写体が検出された複数の撮影画像を合成する画像合成ステップとを含む方法である。   Moreover, the composite image generation method according to an aspect of the present invention includes a display step of displaying a captured image on a predetermined display screen, a range specifying step of allowing a user to specify a range within the captured image displayed on the display screen, A subject registration step for registering a subject included in a specified range; a subject detection step for detecting a subject that can be regarded as the same as the registered subject registered in the subject registration step from each of a plurality of captured images; And an image synthesis step of synthesizing a plurality of captured images in which the subject is detected.

また、本発明の別の形態に係る合成画像生成方法は、複数の撮影画像の中から1つの撮影画像をユーザに選択させる撮影画像選択ステップと、選択された撮影画像内の範囲をユーザに指定させる範囲指定ステップと、指定された範囲に含まれる被写体を登録する被写体登録ステップと、撮影画像選択ステップにて選択されなかった撮影画像の各々から、被写体登録ステップにて登録された登録被写体と同一とみなすことができる被写体を検出する被写体検出ステップと、撮影画像選択ステップにて選択された撮影画像及び被写体検出ステップにて被写体が検出された撮影画像を合成する画像合成ステップとを含む方法である。   According to another aspect of the present invention, there is provided a method for generating a composite image in which a user selects a captured image selection step from which a user selects one captured image from a plurality of captured images, and specifies a range within the selected captured image. The same as the registered subject registered in the subject registration step from each of the range designation step to be performed, the subject registration step for registering subjects included in the designated range, and the photographed image not selected in the photographed image selection step A subject detection step for detecting a subject that can be regarded as a subject, and an image synthesis step for synthesizing the captured image selected in the captured image selection step and the captured image in which the subject is detected in the subject detection step. .

本発明に係る合成画像生成装置及び合成画像生成方法によれば、ユーザが任意の被写体を撮影画像から直接指定することができ、他の撮影画像からはユーザが指定した被写体と同一とみなされる被写体が検出される。そのため、任意の被写体を追跡したストロボ画像が高い精度で得られる。   According to the composite image generation apparatus and the composite image generation method according to the present invention, the user can directly specify an arbitrary subject from the captured image, and the subject that is regarded as the same as the subject specified by the user from other captured images Is detected. Therefore, a strobe image tracking an arbitrary subject can be obtained with high accuracy.

本発明の実施形態の撮影装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device of embodiment of this invention. 本発明の実施形態のストロボ画像の撮影及び生成フローを示す図である。It is a figure which shows the imaging | photography and production | generation flow of the flash image of embodiment of this invention. 図2の処理ステップS1(被写体の登録)を示すフローチャートである。3 is a flowchart showing a process step S1 (subject registration) of FIG. 被写体登録モードの実行時に撮影装置のLCD(Liquid Crystal Display)に表示される表示画面例を示す図である。It is a figure which shows the example of a display screen displayed on LCD (Liquid Crystal Display) of an imaging device at the time of execution of subject registration mode. 図2の処理ステップS4(被写体の検出)を説明するための図である。It is a figure for demonstrating process step S4 (object detection) of FIG. 図2の処理ステップS5(合成比率の設定)を示すフローチャートである。It is a flowchart which shows process step S5 (setting of a synthetic | combination ratio) of FIG. 初期的な合成比率配列及び領域ラベルを概念的に示す図である。It is a figure which shows notionally an initial composition ratio arrangement | sequence and a region label. 1フレーム目の撮影画像に対する合成比率配列及び領域ラベルを概念的に示す図である。It is a figure which shows notionally the synthetic | combination ratio arrangement | sequence and area | region label with respect to the picked-up image of the 1st frame. 2フレーム目の撮影画像に対する合成比率配列及び領域ラベルを概念的に示す図である。It is a figure which shows notionally the synthetic | combination ratio arrangement | sequence and area | region label with respect to the picked-up image of the 2nd frame. 2フレーム目の撮影画像に対する合成比率配列及び領域ラベルを概念的に示す図である。It is a figure which shows notionally the synthetic | combination ratio arrangement | sequence and area | region label with respect to the picked-up image of the 2nd frame. ストロボ画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of a flash image. ストロボ画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of a flash image. 追跡対象の被写体とその周辺領域との境界付近で合成比率が連続的に変化する態様を概念的に示す図である。It is a figure which shows notionally the aspect that a synthetic | combination ratio changes continuously in the vicinity of the boundary of the to-be-tracked object and its surrounding area.

以下、図面を参照して、本発明の実施形態に係る合成画像生成装置について説明する。本実施形態において、合成画像生成装置は、デジタル画像を撮影することが可能な撮影装置に搭載されている。撮影装置は、例えば、撮影レンズを交換可能なデジタル一眼レフカメラ(クイックリターンミラー付)若しくはミラーレス一眼レフカメラ、又はコンパクトデジタルカメラやカムコーダ、携帯電話端末、PHS(Personal Handy phone System)、スマートフォン、フィーチャフォン、携帯ゲーム機等である。   Hereinafter, a composite image generation apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, the composite image generation device is mounted on a photographing device capable of photographing a digital image. The photographing device is, for example, a digital single lens reflex camera (with a quick return mirror) or a mirrorless single lens reflex camera with a replaceable photographing lens, a compact digital camera, a camcorder, a mobile phone terminal, a PHS (Personal Handy phone System), a smartphone, Feature phones, portable game machines, etc.

[撮影装置1の構成]
図1は、本実施形態の撮影装置1の構成を示すブロック図である。図1に示されるように、撮影装置1は、CPU(Central Processing Unit)100、DSP(Digital Signal Processor)102、操作部104、撮影レンズ106、絞り108、シャッタ110、イメージセンサ112、絞り・シャッタ駆動回路114、ROM(Read Only Memory)116、メモリカードアダプタ118及びLCD120を備えている。
[Configuration of the photographing apparatus 1]
FIG. 1 is a block diagram showing a configuration of the photographing apparatus 1 of the present embodiment. As shown in FIG. 1, a photographing apparatus 1 includes a central processing unit (CPU) 100, a digital signal processor (DSP) 102, an operation unit 104, a photographing lens 106, a diaphragm 108, a shutter 110, an image sensor 112, and a diaphragm / shutter. A drive circuit 114, a ROM (Read Only Memory) 116, a memory card adapter 118, and an LCD 120 are provided.

操作部104には、電源スイッチやレリーズスイッチ、モード設定スイッチなど、ユーザが撮影装置1を操作するために必要な各種スイッチが含まれる。ユーザにより電源スイッチが押されると、図示省略されたバッテリから撮影装置1の各種回路に電源ラインを通じて電源供給が行われる。CPU100は電源供給後、ROM116にアクセスして制御プログラムを読み出して内蔵メモリ(不図示)にロードし、ロードされた制御プログラムを実行することにより、撮影装置1全体の制御を行う。なお、図1において図面を明瞭にする便宜上、CPU100と他の回路との結線は省略する。   The operation unit 104 includes various switches necessary for the user to operate the photographing apparatus 1, such as a power switch, a release switch, and a mode setting switch. When the user presses the power switch, power is supplied from the battery (not shown) to the various circuits of the photographing apparatus 1 through the power line. After supplying power, the CPU 100 accesses the ROM 116 to read out a control program, loads it into a built-in memory (not shown), and executes the loaded control program to control the entire photographing apparatus 1. In FIG. 1, for the sake of clarity, the connection between the CPU 100 and other circuits is omitted.

DSP102は、撮影装置1に内蔵されたTTL(Through The Lens)露出計(不図示)で測定された測光値に基づき適正露出が得られるように、絞り・シャッタ駆動回路114を介して絞り108及びシャッタ110を駆動制御する。より詳細には、絞り108及びシャッタ110の駆動制御は、プログラムAE(Automatic Exposure)、シャッタ速度優先AE、絞り優先AEなど、モード設定スイッチにより指定されるAE機能に基づいて行われる。また、DSP102はAE制御と併せてAF(Autofocus)制御を行う。AF制御には、アクティブ方式、相差検出方式、コントラスト検出方式等が適用される。なお、この種のAE及びAFの構成及び制御については周知であるため、ここでの詳細な説明は省略する。   The DSP 102 includes an aperture 108 and an aperture 108 via an aperture / shutter drive circuit 114 so that an appropriate exposure can be obtained based on a photometric value measured by a TTL (Through The Lens) exposure meter (not shown) built in the photographing apparatus 1. The shutter 110 is driven and controlled. More specifically, drive control of the aperture 108 and the shutter 110 is performed based on an AE function designated by a mode setting switch, such as a program AE (Automatic Exposure), a shutter speed priority AE, and an aperture priority AE. The DSP 102 performs AF (Autofocus) control together with AE control. An active method, a phase difference detection method, a contrast detection method, and the like are applied to the AF control. Since the configuration and control of this type of AE and AF are well known, detailed description thereof is omitted here.

被写体からの光束は、撮影レンズ106、絞り108、シャッタ110を通過してイメージセンサ112により受光される。イメージセンサ112は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサであり、撮像面上の各画素で結像した光学像を光量に応じた電荷として蓄積して、電気信号に変換する。DSP102は、イメージセンサ112より入力される電気信号(撮影データ)に対して色補間、マトリクス演算、Y/C分離等の所定の信号処理を施して輝度信号Y、色差信号Cb、Crを生成し、JPEG(Joint Photographic Experts Group)等の所定のフォーマットで圧縮する。圧縮画像信号(撮影画像データ)は、メモリカードアダプタ118に差し込まれたメモリカード200に保存される。また、DSP102は、Y/C分離後の信号をフレームメモリ(不図示)にフレーム単位でバッファリングする。DSP102は、バッファリングされた信号を所定のタイミングで各フレームメモリから掃き出して画像信号に変換して画像を生成し、LCD120に表示させる。ユーザは、AE制御及びAF制御に基づいて適正な輝度及びピントで撮影されたリアルタイムのスルー画を、LCD120を通じて視認することができる。   The light flux from the subject passes through the photographing lens 106, the diaphragm 108, and the shutter 110 and is received by the image sensor 112. The image sensor 112 is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and accumulates an optical image formed by each pixel on the imaging surface as a charge corresponding to the amount of light, Convert to electrical signal. The DSP 102 performs predetermined signal processing such as color interpolation, matrix calculation, and Y / C separation on the electrical signal (photographing data) input from the image sensor 112 to generate a luminance signal Y and color difference signals Cb and Cr. , And compressed in a predetermined format such as JPEG (Joint Photographic Experts Group). The compressed image signal (photographed image data) is stored in the memory card 200 inserted into the memory card adapter 118. Further, the DSP 102 buffers the signal after Y / C separation in a frame memory (not shown) in units of frames. The DSP 102 sweeps the buffered signal from each frame memory at a predetermined timing, converts it into an image signal, generates an image, and displays it on the LCD 120. The user can view through the LCD 120 a real-time through image captured with appropriate brightness and focus based on AE control and AF control.

[撮影装置1によるストロボ画像の撮影及び生成]
次に、撮影装置1によるストロボ画像の撮影について説明する。図2は、ストロボ画像の撮影及び生成フローを示す図である。ストロボ画像の撮影は、通常、背景画像等のブレを防止するため、撮影装置1を三脚等に固定させた状態で行われる。
[Shooting and Generation of Strobe Image by Shooting Apparatus 1]
Next, shooting of a strobe image by the shooting apparatus 1 will be described. FIG. 2 is a diagram showing a strobe image capturing and generating flow. Shooting of a strobe image is normally performed in a state where the photographing apparatus 1 is fixed to a tripod or the like in order to prevent blurring of a background image or the like.

[図2のS1(被写体の登録)]
DSP102は、被写体登録部102aを備えている。被写体登録部102aは、追跡する対象となる被写体を登録することができる。図3に、本処理ステップS1(被写体の登録)をより詳細に説明するフローチャートを示す。図3に示されるように、被写体登録部102aは、ユーザによる操作部104の操作に従い、被写体登録モードに遷移する(図3のS101)。図4(a)〜図4(c)に、被写体登録モードの実行時にLCD120に表示される表示画面例を示す。
[S1 in FIG. 2 (Subject Registration)]
The DSP 102 includes a subject registration unit 102a. The subject registration unit 102a can register a subject to be tracked. FIG. 3 shows a flowchart for explaining this processing step S1 (subject registration) in more detail. As shown in FIG. 3, the subject registration unit 102a transitions to the subject registration mode in accordance with the operation of the operation unit 104 by the user (S101 in FIG. 3). 4A to 4C show examples of display screens displayed on the LCD 120 when the subject registration mode is executed.

被写体登録部102aは、被写体登録モードに遷移すると、図4(a)に示されるように、LCD120に表示されているスルー画に枠Aを重畳的に表示させる(図3のS102)。図4(a)の例では、枠Aは、画面中央に表示される。ユーザは、例えば撮影装置1の向きを調節することにより、追跡対象の被写体Bを画面中央に表示された枠A内に収めることができる。ユーザはまた、操作部104を操作することにより、枠Aを画面内の任意の位置に移動させることができる。ユーザは、枠Aを画面内で移動させることによっても、追跡対象の被写体Bを枠A内に収めることができる。なお、追跡対象の被写体の大きさや形は多様である。そのため、被写体が大きい場合、被写体が枠A内に収まらないことがある。また、枠Aに対して被写体が小さすぎると場合、追跡対象の被写体と枠Aとの間の領域に追跡対象以外の被写体が入り込んでしまう。被写体の外形輪郭と枠Aの形とが大きく異なる場合も、追跡対象の被写体と枠Aとの間の領域に追跡対象以外の被写体が入り込みやすい。そこで、図4(a)に示されるように、枠Aのサイズは、操作部104を操作することにより、拡大又は縮小させることができる。また、図4(b)に示されるように、枠Aの形は、操作部104を操作することにより、矩形以外の形状(円形、楕円形、多角形など)に変更することができ、また、縦横比を変更することができる。また、枠Aの形は、フリーフォームにより決定できるようにしてもよい。   When the subject registration unit 102a transitions to the subject registration mode, the frame A is superimposed on the through image displayed on the LCD 120 as shown in FIG. 4A (S102 in FIG. 3). In the example of FIG. 4A, the frame A is displayed at the center of the screen. For example, the user can fit the subject B to be tracked in the frame A displayed in the center of the screen by adjusting the orientation of the photographing apparatus 1. The user can also move the frame A to an arbitrary position in the screen by operating the operation unit 104. The user can also place the subject B to be tracked in the frame A by moving the frame A within the screen. There are various sizes and shapes of the subject to be tracked. Therefore, when the subject is large, the subject may not fit within the frame A. If the subject is too small with respect to the frame A, a subject other than the tracking target enters the area between the subject to be tracked and the frame A. Even when the outer contour of the subject and the shape of the frame A are greatly different, subjects other than the tracking target tend to enter the area between the subject to be tracked and the frame A. Therefore, as illustrated in FIG. 4A, the size of the frame A can be enlarged or reduced by operating the operation unit 104. 4B, the shape of the frame A can be changed to a shape other than a rectangle (such as a circle, an ellipse, or a polygon) by operating the operation unit 104. The aspect ratio can be changed. The shape of the frame A may be determined by free form.

被写体登録部102aは、ユーザにより操作部104の登録ボタンが押されると、図4(c)に示されるように、枠Aにより囲われる撮影画像内の範囲を切り取って所定のメッセージ及び選択肢と共にLCD120に表示させる(図3のS103)。所定のメッセージは、「この被写体を登録します」である。選択肢は、「OK」及び「キャンセル」である。ユーザは、LCD120の表示を視ることにより、追跡対象の被写体Bが選択できているか否かを確認することができる。ユーザは、追跡対象の被写体Bが選択できている場合「OK」を選択し、追跡対象の被写体Bが選択できていない場合「キャンセル」を選択する。被写体登録部102aは、「OK」が選択されると(図3のS104:YES)、枠Aにより囲われた被写体Bを登録(画像情報及び座標情報を記憶)する(図3のS105)。以下、被写体登録部102aに登録された被写体を「登録被写体」と記す。これにより、被写体登録モードが終了して、撮影装置1のモードが被写体登録モードへの遷移直前のモードに復帰する。被写体登録部102aは、「キャンセル」が選択されると(図3のS104:NO)、図3の処理ステップS102に処理を戻す。   When the registration button of the operation unit 104 is pressed by the user, the subject registration unit 102a cuts out the range in the photographed image surrounded by the frame A as shown in FIG. (S103 in FIG. 3). The predetermined message is “Register this subject”. The options are “OK” and “Cancel”. The user can confirm whether or not the subject B to be tracked can be selected by viewing the display on the LCD 120. The user selects “OK” when the subject B to be tracked can be selected, and selects “Cancel” when the subject B to be tracked cannot be selected. When “OK” is selected (S104: YES in FIG. 3), the subject registration unit 102a registers the subject B surrounded by the frame A (stores image information and coordinate information) (S105 in FIG. 3). Hereinafter, the subject registered in the subject registration unit 102a is referred to as “registered subject”. As a result, the subject registration mode ends, and the mode of the photographing apparatus 1 returns to the mode immediately before the transition to the subject registration mode. When “cancel” is selected (S104 in FIG. 3: NO), the subject registration unit 102a returns the process to the processing step S102 in FIG.

[図2のS2(撮影操作の待機)]
DSP102は、ユーザによるストロボ画像の撮影操作の入力を待機する。DSP102は、操作部104のレリーズスイッチが押されると(図2のS2:YES)、図2の処理ステップS3(画像の撮影)に処理を進める。
[S2 in FIG. 2 (Standby for Shooting Operation)]
The DSP 102 waits for an input of a strobe image photographing operation by the user. When the release switch of the operation unit 104 is pressed (S2: YES in FIG. 2), the DSP 102 proceeds to the processing step S3 (image shooting) in FIG.

[図2のS3(画像の撮影)]
DSP102は、絞り108、シャッタ110及びイメージセンサ112を駆動制御することにより被写体を撮影し、イメージセンサ112より入力される撮影データを処理して画像を生成する。撮影処理は、周知の連写機能を用いて行われる。連写機能により、例えばレリーズスイッチが押されている期間中、1秒間当たり複数枚の画像が撮影される。連写速度は、操作部104の操作を通じて適宜変更可能である。なお、連写撮影の期間は、例えば、レリーズスイッチが押されてから所定時間が経過するまでとしてもよく、また、レリーズスイッチが押されてから所定の条件が満たされるまで(例えば、次に説明する処理ステップS4(被写体の検出)にて撮影画像から被写体が検出されなくなるまで)としてもよい。
[S3 in FIG. 2 (Image Capture)]
The DSP 102 controls the aperture 108, the shutter 110, and the image sensor 112 to photograph the subject, and processes the photographing data input from the image sensor 112 to generate an image. The photographing process is performed using a well-known continuous shooting function. With the continuous shooting function, for example, a plurality of images are taken per second while the release switch is being pressed. The continuous shooting speed can be appropriately changed through the operation of the operation unit 104. The continuous shooting period may be, for example, until a predetermined time elapses after the release switch is pressed, or until a predetermined condition is satisfied after the release switch is pressed (for example, described below). Processing step S4 (until no subject is detected from the photographed image in subject detection) may be used.

[図2のS4(被写体の検出)]
DSP102は、被写体検出部102bを備えている。図2の処理ステップS3(画像の撮影)にて連写機能による画像の撮影及び生成が行われる都度、撮影画像が被写体検出部102bに転送される。被写体検出部102bは、転送された撮影画像の中から、被写体登録部102aに登録された登録被写体と同一とみなすことができる被写体を検出する。以下、登録被写体と同一とみなすことができる被写体を「追跡対象被写体」と記す。被写体検出部102bは、検出された追跡対象被写体の座標を記憶する。より正確には、被写体検出部102bは、追跡対象被写体の全体を含む最小の矩形範囲であり、実質的に追跡対象被写体のみを含む範囲の座標を記憶する。なお、「最小の矩形範囲」は、枠Aの設定に応じて「最小の円形範囲」や「最小の楕円形範囲」、「最小の多角形範囲」等に置き換わる。以下、かかる範囲を「追跡対象範囲」と記す。追跡対象被写体の検出は、例えば、テンプレートマッチング法、Condensation法、パーティクルフィルタ法等の周知の手法を用いて行われる。本実施形態において登録被写体は、図4等に示されるように鳥である。鳥は羽根を畳んだり広げたりするため、撮影画像上で形が変化する。また、距離に応じて撮影画像上で大きさも変化する。しかし、Condensation法やパーティクルフィルタ法等を用いると、追跡対象の鳥が羽根を畳む又は広げる若しくは遠くへ飛ぶことによって撮影画像上の形や大きさが変化した場合も、これらの鳥を同一とみなすことができる。そのため、各撮影画像において被写体の形や大きさが変化することが追跡対象被写体を検出する上で実質問題とはならない。なお、下記文献においてCondensation法の例示的な説明を参照することができる。
(Condensation法を例示的に説明する文献)
Contour tracking by stochastic propagation of conditional density
Michael Isard and Andrew Blake
Proc. European Conference on Computer Vision, vol. 1, pp. 343--356, Cambridge UK, (1996).
[S4 in FIG. 2 (Subject Detection)]
The DSP 102 includes a subject detection unit 102b. Each time an image is captured and generated by the continuous shooting function in the processing step S3 (image capturing) in FIG. 2, the captured image is transferred to the subject detection unit 102b. The subject detection unit 102b detects a subject that can be regarded as the same as the registered subject registered in the subject registration unit 102a from the transferred captured image. Hereinafter, a subject that can be regarded as the same as the registered subject is referred to as a “tracking subject”. The subject detection unit 102b stores the coordinates of the detected tracking target subject. More precisely, the subject detection unit 102b stores the coordinates of a range that is the smallest rectangular range that includes the entire tracking target subject and that substantially includes only the tracking target subject. The “minimum rectangular range” is replaced with “minimum circular range”, “minimum elliptical range”, “minimum polygonal range”, etc. according to the setting of the frame A. Hereinafter, such a range is referred to as a “tracking target range”. The tracking target subject is detected using a known method such as a template matching method, a condensation method, or a particle filter method. In this embodiment, the registered subject is a bird as shown in FIG. Because birds fold or spread their wings, their shape changes on the captured image. Further, the size of the captured image also changes depending on the distance. However, when the Condensation method, particle filter method, etc. are used, even when the shape or size of the captured image changes due to the bird being tracked folding or spreading its wings or flying away, these birds are regarded as the same. be able to. Therefore, a change in the shape and size of the subject in each captured image does not cause a substantial problem in detecting the tracking target subject. In addition, an exemplary description of the Condensation method can be referred to in the following document.
(Literature explaining the Condensation method by way of example)
Contour tracking by stochastic propagation of conditional density
Michael Isard and Andrew Blake
Proc. European Conference on Computer Vision, vol. 1, pp. 343--356, Cambridge UK, (1996).

図5は、本処理ステップS4(被写体の検出)を説明するための図である。図5の左欄の4図は撮影画像I〜Iを示し、図5の右欄の4図は、撮影画像I〜Iの各々における追跡対象範囲I’〜I’を示す。図5の例では、本処理ステップS4(被写体の検出)の実行により、各撮影画像I〜Iの中から追跡対象被写体(鳥)が検出され、検出された追跡対象被写体(鳥)を含む追跡対象範囲I’〜I’の座標が記憶される。なお、撮影画像I及びIには、動的な被写体として自動車も含まれている。しかし、車は登録被写体でないため、本処理ステップS4(被写体の検出)において検出されることはない。 FIG. 5 is a diagram for explaining the processing step S4 (subject detection). 4 in the left column of FIG. 5 shows captured images I 1 to I 4 , and FIG. 4 in the right column of FIG. 5 shows tracking target ranges I 1 ′ to I 4 ′ in each of the captured images I 1 to I 4. Show. In the example of FIG. 5, the tracking target subject (bird) is detected from each of the captured images I 1 to I 4 by executing this processing step S4 (subject detection), and the detected tracking target subject (bird) is selected. The coordinates of the tracking target range I 1 ′ to I 4 ′ are stored. The captured images I 3 and I 4 include a car as a dynamic subject. However, since the car is not a registered subject, it is not detected in this processing step S4 (subject detection).

このように、本実施形態では、被写体検出部102bが追跡対象被写体を自動的に検出しているが、別の実施形態では、ユーザが各撮影画像から追跡対象被写体を手動操作で個別に選択するようにしてもよい。   As described above, in this embodiment, the subject detection unit 102b automatically detects the tracking target subject. However, in another embodiment, the user individually selects the tracking target subject from each captured image by manual operation. You may do it.

[図2のS5(合成比率の設定)]
DSP102は、連写機能による画像の撮影及び生成並びに生成された各撮影画像に対する追跡対象被写体の検出処理が完了すると、追跡対象被写体が検出された各撮影画像の合成比率を設定する。合成比率は、各撮影画像を合成する際の重み係数である。図6に、本処理ステップS5(合成比率の設定)のフローチャートを示す。
[S5 in FIG. 2 (Setting of Composite Ratio)]
When the DSP 102 completes the shooting and generation of images by the continuous shooting function and the detection processing of the tracking target subject for each generated captured image, the DSP 102 sets the composition ratio of the captured images from which the tracking target subject is detected. The composition ratio is a weighting coefficient when composing each captured image. FIG. 6 shows a flowchart of the processing step S5 (setting of the composition ratio).

ここで、追跡対象被写体が検出された撮影画像のフレーム数をNと定義し、n(=1〜N)フレーム目の撮影画像の画素毎の合成比率を示す合成比率配列をWn(x、y)と定義し、追跡対象被写体の重なりを避けるために使用される領域ラベルをL(x、y)と定義し、追跡対象範囲に対応する、合成比率配列Wn(x、y)内及び領域ラベルL(x、y)内の領域をRn(x、y)と定義する。「追跡対象被写体の重なり」とは、複数フレームの撮影画像を合成すると互いの追跡対象被写体(より正確には追跡対象範囲)がストロボ画像上重なることをいう。合成比率配列Wn(x、y)及び領域ラベルL(x、y)は、撮影画像の各画素に対応する領域を有したものであり、撮影画像と同じサイズ(同じ画素配列相当の領域)を持つ。合成比率配列Wn(x、y)は、各フレームの撮影画像に対して1つずつ用意されている。一方、領域ラベルL(x、y)は、全フレームの撮影画像に対して共通に使用されるものであり、1つしかない。   Here, the number of frames of the captured image in which the tracking target subject is detected is defined as N, and a composite ratio array indicating the composite ratio for each pixel of the captured image of the n (= 1 to N) frame is represented by Wn (x, y ), And the region label used to avoid the overlapping of the tracking target subjects is defined as L (x, y), and within the composition ratio array Wn (x, y) and the region label corresponding to the tracking target range A region in L (x, y) is defined as Rn (x, y). “Overlapping tracking target subjects” means that when a plurality of frames of captured images are combined, each other's tracking target subjects (more precisely, the tracking target range) overlap on the strobe image. The composite ratio array Wn (x, y) and the area label L (x, y) have areas corresponding to the respective pixels of the captured image, and have the same size (area corresponding to the same pixel array) as the captured image. Have. One composite ratio array Wn (x, y) is prepared for each frame of captured images. On the other hand, the region label L (x, y) is used in common for the captured images of all frames, and there is only one.

DSP102は、合成比率設定部102cを備えている。合成比率設定部102cは、各フレームの撮影画像に対応する合成比率配列Wn(x、y)の全ての領域に対して合成比率(重み係数)の初期値(=1/N)を設定する(図6のS201)。合成比率設定部102cはまた、領域ラベルL(x、y)の全ての領域に対して値ゼロを設定する。図7(a)に、全ての領域に対して合成比率(初期値1/N)が設定された合成比率配列Wn(x、y)の概念的なイメージを視覚化して示す。また、図7(b)に、全ての領域に対して値(初期値ゼロ)が設定された領域ラベルL(x、y)の概念的なイメージを視覚化して示す。   The DSP 102 includes a composition ratio setting unit 102c. The composition ratio setting unit 102c sets the initial value (= 1 / N) of the composition ratio (weighting factor) for all the regions of the composition ratio array Wn (x, y) corresponding to the captured image of each frame ( S201 in FIG. 6). The composition ratio setting unit 102c also sets a value of zero for all regions of the region label L (x, y). FIG. 7A shows a conceptual image of the composition ratio array Wn (x, y) in which the composition ratio (initial value 1 / N) is set for all regions. FIG. 7B shows a conceptual image of a region label L (x, y) in which values (initial values of zero) are set for all regions.

合成比率配列Wn(x、y)に設定された合成比率1/NでNフレームの撮影画像の各々を乗算し、乗算後の全てのフレーム(Nフレーム)の撮影画像を合成すると、合成後の画像(ストロボ画像)の各画素において合成比率の合計値が1となる。そのため、Nフレーム全てが重なる被写体(背景等の固定された被写体)については、ストロボ画像において通常画像と同等の輝度再現性が実現される。これに対し、追跡対象被写体はフレーム間で移動するため、基本的には画像合成時に重ならない。例えば、1フレーム目の追跡対象被写体に対応する画素について合成比率を1/N等の低い値に設定すると、ストロボ画像に現れる1フレーム目の追跡対象被写体は、輝度が通常画像の場合と比べてかなり低くなる。   When each of the N frames of the captured images is multiplied by the composite ratio 1 / N set in the composite ratio array Wn (x, y) and the captured images of all the frames (N frames) after the multiplication are combined, The total value of the composition ratio is 1 in each pixel of the image (flash image). For this reason, with respect to a subject in which all N frames overlap (a subject with a fixed background or the like), a luminance reproducibility equivalent to that of a normal image is realized in the strobe image. On the other hand, since the tracking target subject moves between frames, it basically does not overlap during image synthesis. For example, when the composition ratio is set to a low value such as 1 / N for the pixel corresponding to the tracking target subject of the first frame, the luminance of the tracking target subject of the first frame appearing in the strobe image is higher than that of the normal image. It becomes quite low.

そこで、合成比率設定部102cは、1フレーム目の撮影画像Iに対応する合成比率配列W(x、y)の領域R(x、y)に設定されている合成比率を初期値1/Nから値valに変更する(図6のS202)。値valは、便宜上設定される値であり、例えば10000など、領域R(x、y)以外の領域に設定されている合成比率(ここでは1/N)が実質的に無視できるほどの大きな正の値である。なお、値valは、撮影画像を合成する際、例えば1に再設定される。このように、合成比率設定部102cは、領域R(x、y)の合成比率を高い値に設定することにより、ストロボ画像上での1フレーム目の追跡対象被写体の輝度を確保する。なお、領域R(x、y)以外の領域に設定されている合成比率は、初期値1/Nのままである。図8(a)に、1フレーム目の撮影画像I及び追跡対象範囲I’を示す。また、図8(b)に、領域R(x、y)の合成比率が値valに変更された合成比率配列W(x、y)の概念的なイメージを視覚化して示す。 Therefore, the composition ratio setting unit 102c sets the composition ratio set in the region R 1 (x, y) of the composition ratio array W 1 (x, y) corresponding to the captured image I 1 of the first frame to an initial value of 1. The value is changed from / N to the value val (S202 in FIG. 6). The value val is a value set for convenience, for example, 10000, for example, a synthesis ratio (here, 1 / N) set in a region other than the region R 1 (x, y) is so large that it can be substantially ignored. It is a positive value. Note that the value val is reset to 1, for example, when the captured image is synthesized. In this manner, the composition ratio setting unit 102c ensures the luminance of the tracking target subject in the first frame on the strobe image by setting the composition ratio of the region R 1 (x, y) to a high value. Note that the composition ratio set in the region other than the region R 1 (x, y) remains the initial value 1 / N. FIG. 8A shows the captured image I 1 and tracking target range I 1 ′ of the first frame. FIG. 8B shows a conceptual image of the composition ratio array W 1 (x, y) in which the composition ratio of the region R 1 (x, y) is changed to the value val.

合成比率設定部102cは、領域ラベルL(x、y)の領域R(x、y)に設定されている値を初期値ゼロから1に更新する(図6のS203)。領域ラベルL(x、y)内で値が1に設定される領域は、ストロボ画像で追跡対象被写体(より正確には追跡対象範囲)の配置が予定される領域を示す。以下、領域ラベルL(x、y)内で値が1に設定される領域を、「追跡対象配置領域」と記す。なお、領域R(x、y)以外の領域に設定されている値は、初期値ゼロのままである。図8(c)に、領域R(x、y)の値が更新された領域ラベルL(x、y)の概念的なイメージを視覚化して示す。 The composition ratio setting unit 102c updates the value set in the region R 1 (x, y) of the region label L (x, y) from the initial value zero to 1 (S203 in FIG. 6). A region where the value is set to 1 in the region label L (x, y) indicates a region where the tracking target subject (more precisely, the tracking target range) is planned to be arranged in the strobe image. Hereinafter, an area whose value is set to 1 in the area label L (x, y) is referred to as a “tracking target arrangement area”. Note that values set in regions other than the region R 1 (x, y) remain at the initial value zero. FIG. 8C shows a conceptual image of the region label L (x, y) in which the value of the region R 1 (x, y) is updated.

合成比率設定部102cは、次フレームの撮影画像とそれまでのフレームの撮影画像との間で「追跡対象被写体の重なり」が生じるか否かを判定する(図6のS204)。具体的には、合成比率設定部102cは、領域ラベルL(x、y)内において追跡対象配置領域と次フレームの領域R(x、y)とが一部分でも重複する場合、「追跡対象被写体の重なり」が生じると判定する(図6のS204:YES)。合成比率設定部102cは、追跡対象配置領域と次フレームの領域R(x、y)とが一部分も重複しない場合、「追跡対象被写体の重なり」が生じないと判定する(図6のS204:NO)。   The composition ratio setting unit 102c determines whether or not “overlapping subject to be tracked” occurs between the captured image of the next frame and the captured image of the previous frame (S204 in FIG. 6). Specifically, the composition ratio setting unit 102c determines that the tracking target subject area and the area R (x, y) of the next frame overlap at least partially in the area label L (x, y). It is determined that “overlap” occurs (S204 in FIG. 6: YES). The composition ratio setting unit 102c determines that the “tracking target subject overlap” does not occur when the tracking target arrangement region and the region R (x, y) of the next frame do not overlap at all (S204 of FIG. 6: NO). ).

ここでは、2フレーム目を例に取り、「追跡対象被写体の重なり」の判定処理について説明する。この例では、1フレーム目の領域R(x、y)が追跡対象配置領域となる。合成比率設定部102cは、領域ラベルL(x、y)内において追跡対象配置領域と2フレーム目の領域R(x、y)とが一部分でも重複するか否かを判定する。 Here, taking the second frame as an example, the “overlapping subject to be tracked” determination process will be described. In this example, the area R 1 (x, y) of the first frame is the tracking target arrangement area. The composition ratio setting unit 102c determines whether or not the tracking target arrangement region and the region R 2 (x, y) of the second frame overlap even partly in the region label L (x, y).

図9(a)に、2フレーム目の撮影画像I及び追跡対象範囲I’の一例を示す。図9(a)の例では、追跡対象範囲I’と追跡対象範囲I’とが一部分重なっている。この場合、領域ラベルL(x、y)内においても追跡対象配置領域と2フレーム目の領域R(x、y)とが一部分重なる。そのため、撮影画像Iに含まれる追跡対象被写体をストロボ画像に含めると「追跡対象被写体の重なり」が生じる。合成比率設定部102cは、追跡対象配置領域と2フレーム目の領域R(x、y)とが重なると判定し(図6のS204:YES)、図6の処理ステップS205に処理を進める。 FIG. 9A shows an example of the captured image I 2 and tracking target range I 2 ′ of the second frame. In the example of FIG. 9A, the tracking target range I 1 ′ and the tracking target range I 2 ′ partially overlap each other. In this case, the tracking target arrangement region and the region R 2 (x, y) of the second frame partially overlap even within the region label L (x, y). Therefore, the inclusion of the tracking target subject included in the captured image I 2 on the stroboscopic image "overlapping tracked subject" occurs. The composition ratio setting unit 102c determines that the tracking target arrangement region and the region R 2 (x, y) of the second frame overlap (S204 of FIG. 6: YES), and proceeds to the processing step S205 of FIG.

図6の処理ステップS205において、合成比率設定部102cは、図9(b)に示されるように、2フレーム目の撮影画像Iに対応する合成比率配列W(x、y)について領域R(x、y)の合成比率を変更する。具体的には、合成比率設定部102cは、合成比率配列W(x、y)の領域R(x、y)に設定されている合成比率を初期値1/Nからゼロに変更する。このように、合成比率設定部102cは、領域R(x、y)の合成比率をゼロに設定することにより、「追跡対象被写体の重なり」を生じさせる原因である2フレーム目の追跡対象被写体をストロボ画像上現れないようにする。 In processing step S205 of FIG. 6, the composition ratio setting unit 102c performs region R on the composition ratio array W 2 (x, y) corresponding to the captured image I 2 of the second frame, as shown in FIG. 9B. 2 The composition ratio of (x, y) is changed. Specifically, the composition ratio setting unit 102c changes the composition ratio set in the region R 2 (x, y) of the composition ratio array W 2 (x, y) from the initial value 1 / N to zero. In this way, the composition ratio setting unit 102c sets the composition ratio of the region R 2 (x, y) to zero, thereby causing the “tracking target object” to cause “tracking target object overlap”. Is not displayed on the strobe image.

合成比率設定部102cは、2フレーム目の追跡対象被写体がストロボ画像に配置されないため、図9(c)に示されるように、領域ラベルL(x、y)については更新しない(2フレーム目の領域R(x、y)を追跡対象配置領域として追加しない)。 The composition ratio setting unit 102c does not update the region label L (x, y) as shown in FIG. 9C because the tracking target subject of the second frame is not arranged in the strobe image (the second frame). Region R 2 (x, y) is not added as a tracking target placement region).

また、図10(a)に、2フレーム目の撮影画像I及び追跡対象範囲I’の一例を示す。図10(a)の例では、追跡対象範囲I’と追跡対象範囲I’とが重ならない。この場合、領域ラベルL(x、y)内においても追跡対象配置領域と2フレーム目の領域R(x、y)とが重ならない。そのため、撮影画像Iに含まれる追跡対象被写体をストロボ画像に含めても「追跡対象被写体の重なり」が生じない。合成比率設定部102cは、追跡対象配置領域と2フレーム目の領域R(x、y)とが重ならないと判定し(図6のS204:NO)、図6の処理ステップS206に処理を進める。 FIG. 10A shows an example of the captured image I 2 and tracking target range I 2 ′ of the second frame. In the example of FIG. 10A, the tracking target range I 1 ′ and the tracking target range I 2 ′ do not overlap. In this case, the tracking target arrangement area does not overlap with the area R 2 (x, y) in the second frame even in the area label L (x, y). Therefore, "overlapping tracked subject" does not occur even including tracked object included in the captured image I 2 on the stroboscopic image. The composition ratio setting unit 102c determines that the tracking target arrangement region and the region R 2 (x, y) in the second frame do not overlap (S204 of FIG. 6: NO), and proceeds to the processing step S206 of FIG. .

図6の処理ステップS206において、合成比率設定部102cは、1フレーム目と同様に、2フレーム目の撮影画像Iに対応する合成比率配列W(x、y)について領域R(x、y)に設定されている合成比率を初期値1/Nから値valに変更する。このように、合成比率設定部102cは、領域R(x、y)の合成比率を高い値に設定することにより、ストロボ画像上での2フレーム目の追跡対象被写体の輝度を確保する。図10(b)に、領域R(x、y)の合成比率が変更された合成比率配列W(x、y)の概念的なイメージを視覚化して示す。 In the processing step S206 of FIG. 6, similarly to the first frame, the composition ratio setting unit 102c performs the region R 2 (x, y) on the composition ratio array W 2 (x, y) corresponding to the captured image I 2 of the second frame. The composition ratio set in y) is changed from the initial value 1 / N to the value val. In this way, the composition ratio setting unit 102c ensures the luminance of the tracking target subject in the second frame on the strobe image by setting the composition ratio of the region R 2 (x, y) to a high value. FIG. 10B shows a conceptual image of the composition ratio array W 2 (x, y) in which the composition ratio of the region R 2 (x, y) is changed.

合成比率設定部102cはまた、図10(c)に示されるように、領域R(x、y)を追跡対象配置領域とする領域ラベルL(x、y)について領域R(x、y)の値を初期値ゼロから1に更新する。合成比率設定部102cは、更新後の領域ラベルL(x、y)を参照することにより、領域R(x、y)及び領域R(x、y)に対応するストロボ画像上の領域に追跡対象被写体(より正確には追跡対象範囲)が配置されることを把握することができる。 Synthesis rate setting unit 102c also, as shown in FIG. 10 (c), the region R 1 (x, y) region labels tracked disposed region L (x, y) for the region R 2 (x, y ) Is updated from the initial value zero to 1. The composition ratio setting unit 102c refers to the updated region label L (x, y), and thereby sets the region on the strobe image corresponding to the region R 1 (x, y) and the region R 2 (x, y). It is possible to grasp that the tracking target subject (more precisely, the tracking target range) is arranged.

合成比率設定部102cは、追跡対象被写体が検出された全ての撮影画像(Nフレーム)について図6の処理ステップS205又はS206が実行されたか否かを判定する(図6のS207)。合成比率設定部102cは、全ての撮影画像(Nフレーム)について図6の処理ステップS205又はS206が実行されたと判定した場合(図6のS207:YES)、図2の処理ステップS6(撮影画像の合成)に処理を進める。合成比率設定部102cは、図6の処理ステップS205又はS206を実行していないフレームが残っていると判定した場合(図6のS207:NO)、図6の処理ステップS204に処理を戻し、次フレームの撮影画像を対象に図6の処理ステップS204以降の処理を実行する。   The composition ratio setting unit 102c determines whether or not the processing step S205 or S206 of FIG. 6 has been executed for all captured images (N frames) in which the tracking target subject is detected (S207 of FIG. 6). When the composition ratio setting unit 102c determines that the processing step S205 or S206 of FIG. 6 has been executed for all captured images (N frames) (S207: YES in FIG. 6), the processing step S6 of FIG. The process proceeds to (Composition). If the composition ratio setting unit 102c determines that there are still frames for which the processing step S205 or S206 in FIG. 6 has not been executed (S207: NO in FIG. 6), the process returns to the processing step S204 in FIG. Processes subsequent to step S204 in FIG. 6 are executed for the captured image of the frame.

なお、図6のフローチャートに示す処理では、「追跡対象被写体の重なり」が生じた場合、先に撮影された画像の追跡対象被写体ほどストロボ画像に優先して配置されるようになっている。別の実施形態では、後に撮影された画像の追跡対象被写体ほどストロボ画像に優先して配置されるようにしてもよく、また、ストロボ画像に配置される追跡対象被写体をユーザが任意に選ぶことができるようにしてもよい。   In the process shown in the flowchart of FIG. 6, when “overlapping subject to be tracked” occurs, the subject to be tracked of the previously captured image is arranged with priority over the strobe image. In another embodiment, the tracking target subject of an image captured later may be arranged with priority over the strobe image, and the user may arbitrarily select the tracking target subject arranged in the strobe image. You may be able to do it.

[図2のS6(撮影画像の合成)]
DSP102は、画像合成部102dを備えている。画像合成部102dは、図2の処理ステップS5(合成比率の設定)にて合成比率が設定された合成比率配列Wn(x、y)に対応するNフレームの撮影画像のRGB輝度値i(x、y)、i(x、y)、i(x、y)を合成比率配列W(x、y)に対する加重平均で合成する。すなわち、画像合成部102dは、ストロボ画像をI(x、y)、I(x、y)、I(x、y)と定義した場合に、次式によりストロボ画像を生成する。
[S6 in FIG. 2 (Composition of Captured Image)]
The DSP 102 includes an image composition unit 102d. The image composition unit 102d performs RGB luminance value i R (N) of the captured image of N frames corresponding to the composition ratio array Wn (x, y) for which the composition ratio is set in the processing step S5 (composition ratio setting) in FIG. x, y), i G (x, y), i B (x, y) are synthesized by a weighted average with respect to the synthesis ratio array W n (x, y). That is, when the strobe image is defined as I R (x, y), I G (x, y), I B (x, y), the image composition unit 102d generates a strobe image according to the following equation.

Figure 0006115815
Figure 0006115815

画像合成部102dは、生成したストロボ画像をユーザに視認させるため、LCD120に表示させる。画像合成部102dは、LCD120へのストロボ画像の表示後、ユーザによる操作部104の操作に応じてストロボ画像をメモリカード200に保存する。なお、ユーザは、LCD120に表示されているストロボ画像を視認し、例えば被写体が希望通りに追跡や合成できていない場合に、ストロボ画像を調整することができる。一例として、ユーザは、図2の処理ステップS4(被写体の検出)にて自動検出された各フレームの撮影画像内の追跡対象範囲の位置や大きさを微調節することができる。合成比率設定部102c及び画像合成部102dは、追跡対象範囲が微調節された撮影画像を用いて合成比率の設定及び撮影画像の合成を行う。これにより、ユーザは、自身の希望に一層応じたストロボ画像を得ることができる。   The image composition unit 102d displays the generated strobe image on the LCD 120 so that the user can visually recognize the generated strobe image. After displaying the strobe image on the LCD 120, the image composition unit 102d stores the strobe image in the memory card 200 in accordance with the operation of the operation unit 104 by the user. The user can visually recognize the strobe image displayed on the LCD 120 and adjust the strobe image when, for example, the subject cannot be tracked or combined as desired. As an example, the user can finely adjust the position and size of the tracking target range in the captured image of each frame automatically detected in the processing step S4 (subject detection) in FIG. The composition ratio setting unit 102c and the image composition unit 102d perform setting of the composition ratio and composition of the captured image using the captured image whose tracking target range is finely adjusted. As a result, the user can obtain a strobe image that further meets his / her desire.

図11及び図12に、本実施形態によるストロボ画像の生成を説明するための図を示す。図11の左欄の5図は、合成対象の撮影画像I〜Iを示す。図11の中央欄の5図は、撮影画像I〜Iに対応する合成比率配列W(x、y)〜W(x、y)を示す。図11の右欄の5図は、撮影画像I〜Iについて図6の処理ステップS205又はS206を実行する都度更新される、領域ラベルL(x、y)を示す。なお、図11においては、説明の便宜上、合成対象の撮影画像を5フレームとする。しかし、通常、合成対象の撮影画像のフレーム数は5フレームより遙かに多い。 11 and 12 are diagrams for explaining the generation of the strobe image according to the present embodiment. FIG. 5 in the left column of FIG. 11 shows captured images I 1 to I 5 to be combined. FIG. 5 in the center column of FIG. 11 shows the composition ratio arrays W 1 (x, y) to W 5 (x, y) corresponding to the captured images I 1 to I 5 . FIG. 5 in the right column of FIG. 11 shows the region label L (x, y) that is updated each time the processing step S205 or S206 of FIG. 6 is executed for the captured images I 1 to I 5 . In FIG. 11, for convenience of explanation, the captured image to be combined is assumed to be 5 frames. However, the number of frames of the captured image to be synthesized is usually much larger than 5 frames.

図11の例では、1フレーム目について、合成比率配列W(x、y)の領域R(x、y)に設定されている合成比率が初期値1/Nから値valに変更されると共に、領域ラベルL(x、y)内において領域R(x、y)が追跡対象配置領域に設定される。2フレーム目では、領域R(x、y)が追跡対象配置領域と重なると判定される。そのため、合成比率配列W(x、y)の領域R(x、y)に設定されている合成比率が初期値1/Nからゼロに変更される。但し、領域ラベルL(x、y)内において領域R(x、y)は追跡対象配置領域として追加されない(すなわち領域ラベルL(x、y)は更新されない。)。3フレーム目では、合成比率配列W(x、y)の領域R(x、y)に設定されている合成比率が初期値1/Nから値valに変更されると共に、領域ラベルL(x、y)内において領域R(x、y)が追跡対象配置領域として追加される。4フレーム目では、領域R(x、y)が追跡対象配置領域と重なると判定される。そのため、合成比率配列W(x、y)の領域R(x、y)に設定されている合成比率が初期値1/Nからゼロに変更される。但し、領域ラベルL(x、y)内において領域R(x、y)は追跡対象配置領域として追加されない(すなわち領域ラベルL(x、y)は更新されない。)。5フレーム目では、合成比率配列W(x、y)の領域R(x、y)に設定されている合成比率が初期値1/Nから値valに変更されると共に、領域ラベルL(x、y)内において領域R(x、y)が追跡対象配置領域として追加される。この結果、図11の例では、次の5フレームの撮影画像が合成される。
・撮影画像I
追跡対象範囲I’の合成比率が値valで、それ以外の画像領域の合成比率1/N
・撮影画像I
追跡対象範囲I’の合成比率がゼロで、それ以外の画像領域の合成比率1/N
・撮影画像I
追跡対象範囲I’の合成比率が値valで、それ以外の画像領域の合成比率1/N
・撮影画像I
追跡対象範囲I’の合成比率がゼロで、それ以外の画像領域の合成比率1/N
・撮影画像I
追跡対象範囲I’の合成比率が値valで、それ以外の画像領域の合成比率1/N
In the example of FIG. 11, for the first frame, the composition ratio set in the region R 1 (x, y) of the composition ratio array W 1 (x, y) is changed from the initial value 1 / N to the value val. At the same time, the region R 1 (x, y) is set as the tracking target placement region in the region label L (x, y). In the second frame, it is determined that the region R 2 (x, y) overlaps the tracking target placement region. Therefore, the composition ratio set in the region R 2 (x, y) of the composition ratio array W 2 (x, y) is changed from the initial value 1 / N to zero. However, the area R 2 (x, y) is not added as the tracking target arrangement area in the area label L (x, y) (that is, the area label L (x, y) is not updated). In the third frame, the composition ratio set in the region R 3 (x, y) of the composition ratio array W 3 (x, y) is changed from the initial value 1 / N to the value val, and the region label L ( A region R 3 (x, y) is added as a tracking target arrangement region in x, y). In the fourth frame, it is determined that the region R 4 (x, y) overlaps the tracking target placement region. Therefore, the composition ratio set in the region R 4 (x, y) of the composition ratio array W 4 (x, y) is changed from the initial value 1 / N to zero. However, the region R 4 (x, y) is not added as the tracking target arrangement region in the region label L (x, y) (that is, the region label L (x, y) is not updated). In the fifth frame, the composition ratio set in the region R 5 (x, y) of the composition ratio array W 5 (x, y) is changed from the initial value 1 / N to the value val, and the region label L ( A region R 5 (x, y) is added as a tracking target arrangement region in x, y). As a result, in the example of FIG. 11, the captured images of the next five frames are synthesized.
・ Photographed image I 1
The composition ratio of the tracking target range I 1 ′ is the value val, and the composition ratio 1 / N of the other image area
・ Image I 2
The composition ratio of the tracking target range I 2 ′ is zero, and the composition ratio 1 / N of other image areas
・ Photograph I 3
The composition ratio of the tracking target range I 3 ′ is the value val, and the composition ratio 1 / N of the other image area
・ Photograph I 4
The composition ratio of the tracking target range I 4 ′ is zero, and the composition ratio 1 / N of other image areas
・ Photograph I 5
The composition ratio of the tracking target range I 5 ′ is the value val, and the composition ratio 1 / N of the other image area

このように、図11の例では、1フレーム目の追跡対象被写体(鳥)と2フレーム目の追跡対象被写体(鳥)とが重なるため、2フレーム目の追跡対象被写体(鳥)について合成比率をゼロとすることにより、2フレーム目の追跡対象被写体(鳥)がストロボ画像に現れないようにしている。また、3フレーム目の追跡対象被写体(鳥)と4フレーム目の追跡対象被写体(鳥)とが重なるため、4フレーム目の追跡対象被写体(鳥)について合成比率をゼロとすることにより、4フレーム目の追跡対象被写体(鳥)がストロボ画像に現れないようにしている。   In this way, in the example of FIG. 11, the tracking target subject (bird) in the first frame and the tracking target subject (bird) in the second frame overlap, so the composition ratio is set for the tracking target subject (bird) in the second frame. By setting it to zero, the tracking target subject (bird) in the second frame is prevented from appearing in the strobe image. Further, since the tracking target subject (bird) in the third frame and the tracking target subject (bird) in the fourth frame overlap each other, the synthesis ratio is set to zero for the tracking target subject (bird) in the fourth frame. The eye tracking subject (bird) is prevented from appearing in the strobe image.

図12に、上記5フレームの撮影画像を合成することにより得られるストロボ画像を示す。2フレーム目及び4フレーム目の追跡対象被写体(鳥)について合成比率をゼロとなっている。そのため、図12に示されるように、ストロボ画像には、互いに重ならない3フレーム分(1、3、5フレーム)の追跡対象被写体(鳥)が現れる。なお、撮影画像I及びIには、動的な被写体として自動車も含まれている。しかし、自動車が写る画素は、合成比率が1/Nに設定されている。自動車について合成比率が低い値に設定されている(一般にNは5よりも遙かに大きいため、1/Nは1と比べて遙かに低い値である。)ため、ストロボ画像には、自動車が実質的に現れない(又は現れたとしても目立たない。)。このように、本実施形態によれば、「追跡対象被写体の重なり」が避けられると共に、移動する被写体が複数存在する場合であっても、追跡対象被写体の移動軌跡をストロボ画像に収めつつ他の被写体の移動軌跡をストロボ画像から排除することができる(つまりユーザにより選択された任意の被写体を確実に追跡することができる。)。 FIG. 12 shows a stroboscopic image obtained by synthesizing the five frames of the captured image. The composition ratio is zero for the tracking subject (bird) in the second frame and the fourth frame. Therefore, as shown in FIG. 12, the subject to be tracked (birds) for three frames (1, 3, 5 frames) that do not overlap each other appears in the strobe image. The captured images I 3 and I 4 include a car as a dynamic subject. However, the composition ratio is set to 1 / N for the pixels in which the automobile is shown. The composition ratio is set to a low value for automobiles (generally, N is much larger than 5 and 1 / N is much lower than 1). Does not appear substantially (or does not stand out if it appears). As described above, according to the present embodiment, “overlapping of tracking target subjects” can be avoided, and even when there are a plurality of moving subjects, the movement trajectory of the tracking target subjects can be stored in the strobe image while The movement trajectory of the subject can be excluded from the strobe image (that is, the arbitrary subject selected by the user can be traced reliably).

なお、ストロボ画像において追跡対象被写体が互いに重なっていることの方が都合のよい場合がある(例えばピッチャーの球筋を視認したい場合など)。この場合、ユーザは、操作部104の操作を通じて「追跡対象被写体の重なり」を許容することができる。具体的には、合成比率設定部102cは、図2の処理ステップS5(合成比率の設定)の実行時に領域ラベルL(x、y)を使用せず、各フレームの合成比率配列W(x、y)の領域R(x、y)について合成比率を一律に値valに設定する。これにより、画像合成部102dにより生成されるストロボ画像は、追跡対象被写体の重なりが許容されたものとなる。 In some cases, it is more convenient for the tracking target subjects to overlap each other in the strobe image (for example, when it is desired to visually recognize the pitcher's ball). In this case, the user can allow “overlapping of tracking target subjects” through the operation of the operation unit 104. Specifically, the composition ratio setting unit 102c does not use the region label L (x, y) when executing the processing step S5 (setting of the composition ratio) in FIG. 2, and the composition ratio array W n (x , Y) for the region R n (x, y), the synthesis ratio is uniformly set to the value val. As a result, the strobe image generated by the image composition unit 102d is allowed to overlap the tracking subject.

以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本願の実施形態に含まれる。   The above is the description of the exemplary embodiments of the present invention. Embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention. For example, the embodiment of the present application also includes an embodiment that is exemplarily specified in the specification or a combination of obvious embodiments and the like as appropriate.

例えば、本実施形態では、合成比率配列W(x、y)において領域R(x、y)とその周辺領域とで合成比率が値valから値1/Nへ無段階で変化している(例えば図8(b)参照)。別の実施形態では、合成比率配列W(x、y)において領域R(x、y)とその周辺領域との境界付近で合成比率が値valから値1/Nへ連続的に変化するようにしてもよい。図13に、領域R(x、y)とその周辺領域との境界付近で合成比率が値valと値1/Nとの間で連続的に変化する態様を概念的に示す。合成比率設定部102cは、領域R(x、y)とその周辺領域との境界から領域R(x、y)の中心に向かう4近傍距離(City block distance)をdと定義し、合成比率を連続的に変化させる領域の幅をwdと定義した場合に、幅wd内の合成比率を次式を用いて設定する。
wd(x、y)={val*d+(1/N)*(wd−d)}/wd
なお、4近傍距離に代えて、例えば、8近傍距離(Chess board distance)や8角形距離(Octagonal distance)、ユークリッド距離(Euclidean distance)を用いてもよい。この実施形態によれば、追跡対象被写体を合成したときの、追跡対象被写体と背景等との境界付近の輝度変化が滑らかとなるため、境界付近が不自然に見える虞が無くなる。
For example, in the present embodiment, in the composition ratio array W n (x, y), the composition ratio changes in a stepless manner from the value val to the value 1 / N in the region R n (x, y) and its peripheral region. (For example, see FIG. 8B). In another embodiment, the composition ratio continuously changes from the value val to the value 1 / N near the boundary between the region R n (x, y) and the surrounding region in the composition ratio array W n (x, y). You may do it. FIG. 13 conceptually shows an aspect in which the composition ratio continuously changes between the value val and the value 1 / N near the boundary between the region R n (x, y) and the surrounding region. The composition ratio setting unit 102c defines a four neighborhood distance (City block distance) from the boundary between the region R n (x, y) and the surrounding region to the center of the region R n (x, y) as d, When the width of the region where the ratio is continuously changed is defined as wd, the composition ratio in the width wd is set using the following equation.
wd n (x, y) = {val * d + (1 / N) * (wd−d)} / wd
Instead of the 4-neighbor distance, for example, an 8-neighbor distance (Chess board distance), an octagonal distance (Ectlideal distance), or an Euclidean distance may be used. According to this embodiment, when the tracking target subject is synthesized, the luminance change near the boundary between the tracking target subject and the background becomes smooth, so there is no possibility that the vicinity of the boundary looks unnatural.

また、本実施形態では、以下に概略的に示される処理ステップ(A)〜(E)によりストロボ画像が生成されている。
(A)スルー画の視認を通じた被写体の登録
(B)連写撮影及び撮影画像の保存
(C)連写撮影された複数の撮影画像の各々から追跡対象被写体を検出(又は手動操作で追跡対象被写体を個別に選択)
(D)合成比率の設定
(E)設定された合成比率に基づくストロボ画像の生成及び保存
In the present embodiment, the strobe image is generated by the processing steps (A) to (E) schematically shown below.
(A) Registration of subject through visual recognition of through image (B) Continuous shooting and storage of captured image (C) Detection of tracking target subject from each of a plurality of captured images taken continuously (or tracking target by manual operation) Select subjects individually)
(D) Setting of composition ratio (E) Generation and storage of strobe image based on set composition ratio

これに対し、別の実施形態では、以下に概略的に示される処理ステップ(a)〜(f)によりストロボ画像が生成されるようにしてもよい。
(a)連写撮影及び撮影画像の保存
(b)連写撮影された複数の撮影画像の中からユーザが1つの撮影画像(以下、「代表画像」)を選択
(c)代表画像から被写体を登録
(d)代表画像以外の撮影画像の各々から追跡対象被写体を検出(又は手動操作で追跡対象被写体を個別に選択)
(e)合成比率の設定
(f)設定された合成比率に基づくストロボ画像の生成及び保存
On the other hand, in another embodiment, a strobe image may be generated by processing steps (a) to (f) schematically shown below.
(A) Continuous shooting and storage of captured images (b) The user selects one captured image (hereinafter referred to as “representative image”) from a plurality of continuously captured images. (C) A subject is selected from the representative image. Registration (d) Detecting the tracking target subject from each of the captured images other than the representative image (or manually selecting the tracking target subject by manual operation)
(E) Composition ratio setting (f) Strobe image generation and storage based on the set composition ratio

処理ステップ(b)では、ユーザは、例えば操作部104を操作することにより、連写撮影により得られた全ての撮影画像の中から代表画像を選択することができる。または、所定数の撮影画像(例えば操作部104の操作で指定されたフレームから10フレーム)の中から代表画像を選択できるようにしてもよい。   In the processing step (b), the user can select a representative image from all the captured images obtained by continuous shooting by operating the operation unit 104, for example. Alternatively, a representative image may be selected from a predetermined number of captured images (for example, 10 frames from a frame designated by operation of the operation unit 104).

1 撮影装置
100 CPU
102 DSP
102a 被写体登録部
102b 被写体検出部
102c 合成比率設定部
102d 画像合成部
104 操作部
106 撮影レンズ
108 絞り
110 シャッタ
112 イメージセンサ
114 絞り・シャッタ駆動回路
116 ROM
118 メモリカードアダプタ
120 LCD
200 メモリカード
1 photographing apparatus 100 CPU
102 DSP
102a Subject registration unit 102b Subject detection unit 102c Composition ratio setting unit 102d Image composition unit 104 Operation unit 106 Shooting lens 108 Aperture 110 Shutter 112 Image sensor 114 Aperture / shutter drive circuit 116 ROM
118 Memory card adapter 120 LCD
200 memory card

Claims (14)

撮影画像を所定の表示画面に表示する表示手段と、
前記表示画面に表示される撮影画像内の範囲をユーザに指定させる範囲指定手段と、
前記指定された範囲に含まれる被写体を登録する被写体登録手段と、
複数の撮影画像の各々から、前記被写体登録手段により登録された登録被写体と同一とみなすことができる被写体を検出する被写体検出手段と、
前記検出された被写体の領域である被写体領域を前記撮影画像の全画素に対応する領域データに設定する領域設定手段と、
前記撮影画像内の全領域のうち、前記領域データに設定された被写体領域に第一の合成比率を設定し、該被写体領域以外の非領域に該第一の合成比率よりも低い第二の合成比率を設定する合成比率設定手段と、
前記複数の撮影画像の各々に対して前記合成比率設定手段により設定された合成比率に基づいて重み付けを行い、重み付けされた該複数の撮影画像を合成する画像合成手段と、
を備え、
前記領域設定手段は、
前記領域データに設定されている現フレームよりも前のフレームの被写体領域と現フレームの被写体領域とを比較し、
前記領域データが規定する領域内で両者が重ならない場合には、両方の被写体領域を前記領域データに設定し、
前記領域データが規定する領域内で両者が少なくとも一部重なる場合には、一方の被写体領域だけを前記領域データに設定する、
合成画像生成装置。
Display means for displaying a captured image on a predetermined display screen;
A range specifying means for allowing a user to specify a range in a captured image displayed on the display screen;
Subject registration means for registering subjects included in the specified range;
Subject detection means for detecting a subject that can be regarded as the same as the registered subject registered by the subject registration means from each of a plurality of photographed images;
A region setting means for setting a subject region, which is a region of the detected subject, to region data corresponding to all pixels of the captured image;
A first composition ratio is set for a subject area set in the area data among all areas in the captured image, and a second composition lower than the first composition ratio is set for a non-area other than the subject area. A composition ratio setting means for setting the ratio;
Image combining means for weighting each of the plurality of photographed images based on the composition ratio set by the composition ratio setting means, and combining the plurality of weighted photographed images;
With
The area setting means includes
Compare the subject area of the frame before the current frame set in the area data with the subject area of the current frame,
If both do not overlap within the area defined by the area data, set both subject areas in the area data,
When both overlap at least partially within the area defined by the area data, only one subject area is set as the area data.
Composite image generation device.
前記範囲指定手段は、
前記表示画面に表示される撮影画像に所定の枠を重畳的に表示させ、
前記枠により囲われる前記撮影画像内の範囲をユーザの操作に応じて変更させ、
前記枠により囲われる前記撮影画像内の範囲をユーザに指定させる
請求項1に記載の合成画像生成装置。
The range specifying means includes
Displaying a predetermined frame superimposed on the captured image displayed on the display screen;
The range in the captured image surrounded by the frame is changed according to a user operation,
Allowing the user to specify a range within the captured image enclosed by the frame ;
The composite image generation apparatus according to claim 1.
前記枠は、
ユーザの操作に応じて形及び大きさ並びに前記撮影画像内における位置が変更される
請求項2に記載の合成画像生成装置。
The frame is
The shape and size and the position in the captured image are changed according to the user's operation .
The composite image generation apparatus according to claim 2.
前記合成比率設定手段は、
前記第一の合成比率が設定された被写体領域と、前記第二の合成比率が設定された非領域との境界付近において合成比率が該第一の合成比率から該第二の合成比率へ連続的に変化するように設定する
請求項1から請求項3の何れか一項に記載の合成画像生成装置。
The synthesis ratio setting means includes
The composition ratio is continuously changed from the first composition ratio to the second composition ratio in the vicinity of the boundary between the subject area in which the first composition ratio is set and the non-region in which the second composition ratio is set . It is set so as to change to,
The composite image generation apparatus according to any one of claims 1 to 3 .
前記合成比率設定手段は、
前記画像合成手段により合成される撮影画像の枚数がNと定義される場合、前記非領域に対して前記被写体領域の1/N倍の合成比率を設定する
請求項から請求項の何れか一項に記載の合成画像生成装置。
The synthesis ratio setting means includes
When the number of photographed images to be synthesized by the image synthesizing unit is defined as N, a synthesis ratio of 1 / N times the subject area is set for the non-area .
Synthetic image generating apparatus according to any one of claims 1 to 4.
前記合成比率設定手段は、
前記領域設定手段において前記領域データが規定する領域内で少なくとも一部重なると判定された2つの被写体領域のうち、該領域データに設定された被写体領域の合成比率を正の値に設定し、該領域データに設定されなかった被写体領域の合成比率をゼロに設定する
請求項に記載の合成画像生成装置。
The synthesis ratio setting means includes
Wherein one of the two object region determined to overlap at least a portion in a region domain data defining sets the mixing ratio of the object area set to the area data to a positive value in the area setting unit, the Set the composition ratio of the subject area that was not set in the area data to zero ,
The composite image generation apparatus according to claim 5 .
複数の撮影画像の中から1つの撮影画像をユーザに選択させる撮影画像選択手段と、
前記選択された撮影画像内の範囲をユーザに指定させる範囲指定手段と、
前記指定された範囲に含まれる被写体を登録する被写体登録手段と、
前記撮影画像選択手段により選択されなかった撮影画像の各々から、前記被写体登録手段により登録された登録被写体と同一とみなすことができる被写体を検出する被写体検出手段と、
前記検出された被写体の領域である被写体領域を前記撮影画像の全画素に対応する領域データに設定する領域設定手段と、
前記撮影画像内の全領域のうち、前記領域データに設定された被写体領域に第一の合成比率を設定し、該被写体領域以外の非領域に該第一の合成比率よりも低い第二の合成比率を設定する合成比率設定手段と、
前記複数の撮影画像の各々に対して前記合成比率設定手段により設定された合成比率に基づいて重み付けを行い、重み付けされた該複数の撮影画像を合成する画像合成手段と、
を備え、
前記領域設定手段は、
前記領域データに設定されている現フレームよりも前のフレームの被写体領域と現フレームの被写体領域とを比較し、
前記領域データが規定する領域内で両者が重ならない場合には、両方の被写体領域を前記領域データに設定し、
前記領域データが規定する領域内で両者が少なくとも一部重なる場合には、一方の被写体領域だけを前記領域データに設定する、
合成画像生成装置。
Photographed image selection means for allowing the user to select one photographed image from a plurality of photographed images;
A range specifying means for allowing a user to specify a range in the selected captured image;
Subject registration means for registering subjects included in the specified range;
Subject detection means for detecting a subject that can be regarded as the same as the registered subject registered by the subject registration means from each of the photographed images not selected by the photographed image selection means;
A region setting means for setting a subject region, which is a region of the detected subject, to region data corresponding to all pixels of the captured image;
A first composition ratio is set for a subject area set in the area data among all areas in the captured image, and a second composition lower than the first composition ratio is set for a non-area other than the subject area. A composition ratio setting means for setting the ratio;
Image combining means for weighting each of the plurality of photographed images based on the composition ratio set by the composition ratio setting means, and combining the plurality of weighted photographed images;
With
The area setting means includes
Compare the subject area of the frame before the current frame set in the area data with the subject area of the current frame,
If both do not overlap within the area defined by the area data, set both subject areas in the area data,
When both overlap at least partially within the area defined by the area data, only one subject area is set as the area data.
Composite image generation device.
撮影画像を所定の表示画面に表示する表示ステップと、
前記表示画面に表示される撮影画像内の範囲をユーザに指定させる範囲指定ステップと、
前記指定された範囲に含まれる被写体を登録する被写体登録ステップと、
複数の撮影画像の各々から、前記被写体登録ステップにて登録された登録被写体と同一とみなすことができる被写体を検出する被写体検出ステップと、
前記検出された被写体の領域である被写体領域を前記撮影画像の全画素に対応する領域データに設定する領域設定ステップと、
前記撮影画像内の全領域のうち、前記領域データに設定された被写体領域に第一の合成比率を設定し、該被写体領域以外の非領域に該第一の合成比率よりも低い第二の合成比率を設定する合成比率設定ステップと、
前記複数の撮影画像の各々に対して前記合成比率設定ステップにて設定された合成比率に基づいて重み付けを行い、重み付けされた該複数の撮影画像を合成する画像合成ステップと、
を含み、
前記領域設定ステップにて、
前記領域データに設定されている現フレームよりも前のフレームの被写体領域と現フレームの被写体領域とを比較し、
前記領域データが規定する領域内で両者が重ならない場合には、両方の被写体領域を前記領域データに設定し、
前記領域データが規定する領域内で両者が少なくとも一部重なる場合には、一方の被写体領域だけを前記領域データに設定する、
合成画像生成方法。
A display step for displaying the photographed image on a predetermined display screen;
A range specifying step for allowing a user to specify a range in a captured image displayed on the display screen;
A subject registration step for registering a subject included in the designated range;
A subject detection step for detecting a subject that can be regarded as the same as the registered subject registered in the subject registration step from each of a plurality of captured images;
A region setting step for setting a subject region, which is a region of the detected subject, in region data corresponding to all pixels of the captured image;
A first composition ratio is set for a subject area set in the area data among all areas in the captured image, and a second composition lower than the first composition ratio is set for a non-area other than the subject area. A composition ratio setting step for setting the ratio;
Weighting based on the composition ratio set in the composition ratio setting step for each of the plurality of photographed images, and an image composition step of compositing the weighted photographed images;
Including
In the region setting step,
Compare the subject area of the frame before the current frame set in the area data with the subject area of the current frame,
If both do not overlap within the area defined by the area data, set both subject areas in the area data,
When both overlap at least partially within the area defined by the area data, only one subject area is set as the area data.
Composite image generation method.
前記範囲指定ステップにて、
前記表示画面に表示される撮影画像に所定の枠を重畳的に表示させ、
前記枠により囲われる前記撮影画像内の範囲をユーザの操作に応じて変更させ、
前記枠により囲われる前記撮影画像内の範囲をユーザに指定させる、
請求項に記載の合成画像生成方法。
In the range specifying step,
Displaying a predetermined frame superimposed on the captured image displayed on the display screen;
The range in the captured image surrounded by the frame is changed according to a user operation,
Allowing the user to specify a range within the captured image enclosed by the frame;
The synthetic image generation method according to claim 8 .
前記枠は、
ユーザの操作に応じて形及び大きさ並びに前記撮影画像内における位置が変更される、
請求項に記載の合成画像生成方法。
The frame is
The shape and size and the position in the captured image are changed according to the user's operation.
The synthetic image generation method according to claim 9 .
前記合成比率設定ステップにて、
前記第一の合成比率が設定された被写体領域と、前記第二の合成比率が設定された非領域との境界付近において合成比率が該第一の合成比率から該第二の合成比率へ連続的に変化するように設定する、
請求項8から請求項10の何れか一項に記載の合成画像生成方法。
In the composition ratio setting step,
The composition ratio is continuously changed from the first composition ratio to the second composition ratio in the vicinity of the boundary between the subject area in which the first composition ratio is set and the non-region in which the second composition ratio is set . Set to change to
The synthetic | combination image generation method as described in any one of Claims 8-10 .
前記合成比率設定ステップにて、
前記画像合成ステップにて合成される撮影画像の枚数がNと定義される場合、前記非領域に対して前記被写体領域の1/N倍の合成比率を設定する、
請求項から請求項11の何れか一項に記載の合成画像生成方法。
In the composition ratio setting step,
When the number of captured images to be combined in the image combining step is defined as N, a combination ratio of 1 / N times the subject area is set for the non-area .
Synthetic image generating method according to any one of claims 11 to claim 8.
前記合成比率設定ステップにて、
前記領域設定ステップにて前記領域データが規定する領域内で少なくとも一部重なると判定された2つの被写体領域のうち、該領域データに設定された被写体領域の合成比率を正の値に設定し、該領域データに設定されなかった被写体領域の合成比率をゼロに設定する、
請求項12に記載の合成画像生成方法。
In the composition ratio setting step,
Of the two subject regions determined to overlap at least partially within the region defined by the region data in the region setting step, the composition ratio of the subject region set in the region data is set to a positive value, Set the composition ratio of the subject area not set in the area data to zero,
The synthetic image generation method according to claim 12 .
複数の撮影画像の中から1つの撮影画像をユーザに選択させる撮影画像選択ステップと、
前記選択された撮影画像内の範囲をユーザに指定させる範囲指定ステップと、
前記指定された範囲に含まれる被写体を登録する被写体登録ステップと、
前記撮影画像選択ステップにて選択されなかった撮影画像の各々から、前記被写体登録ステップにて登録された登録被写体と同一とみなすことができる被写体を検出する被写体検出ステップと、
前記検出された被写体の領域である被写体領域を前記撮影画像の全画素に対応する領域データに設定する領域設定ステップと、
前記撮影画像内の全領域のうち、前記領域データに設定された被写体領域に第一の合成比率を設定し、該被写体領域以外の非領域に該第一の合成比率よりも低い第二の合成比率を設定する合成比率設定ステップと、
前記複数の撮影画像の各々に対して前記合成比率設定ステップにて設定された合成比率に基づいて重み付けを行い、重み付けされた該複数の撮影画像を合成する画像合成ステップと、
を含み、
前記領域設定ステップにて、
前記領域データに設定されている現フレームよりも前のフレームの被写体領域と現フレームの被写体領域とを比較し、
前記領域データが規定する領域内で両者が重ならない場合には、両方の被写体領域を前記領域データに設定し、
前記領域データが規定する領域内で両者が少なくとも一部重なる場合には、一方の被写体領域だけを前記領域データに設定する、
合成画像生成方法。
A captured image selection step for allowing the user to select one captured image from a plurality of captured images;
A range specifying step for allowing a user to specify a range in the selected captured image;
A subject registration step for registering a subject included in the designated range;
A subject detection step for detecting a subject that can be regarded as the same as the registered subject registered in the subject registration step, from each of the captured images not selected in the captured image selection step;
A region setting step for setting a subject region, which is a region of the detected subject, in region data corresponding to all pixels of the captured image;
A first composition ratio is set for a subject area set in the area data among all areas in the captured image, and a second composition lower than the first composition ratio is set for a non-area other than the subject area. A composition ratio setting step for setting the ratio;
Weighting based on the composition ratio set in the composition ratio setting step for each of the plurality of photographed images, and an image composition step of compositing the weighted photographed images;
Including
In the region setting step,
Compare the subject area of the frame before the current frame set in the area data with the subject area of the current frame,
If both do not overlap within the area defined by the area data, set both subject areas in the area data,
When both overlap at least partially within the area defined by the area data, only one subject area is set as the area data.
Composite image generation method.
JP2013094232A 2013-04-26 2013-04-26 Composite image generation apparatus and composite image generation method Active JP6115815B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013094232A JP6115815B2 (en) 2013-04-26 2013-04-26 Composite image generation apparatus and composite image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013094232A JP6115815B2 (en) 2013-04-26 2013-04-26 Composite image generation apparatus and composite image generation method

Publications (2)

Publication Number Publication Date
JP2014216926A JP2014216926A (en) 2014-11-17
JP6115815B2 true JP6115815B2 (en) 2017-04-19

Family

ID=51942248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013094232A Active JP6115815B2 (en) 2013-04-26 2013-04-26 Composite image generation apparatus and composite image generation method

Country Status (1)

Country Link
JP (1) JP6115815B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016201627A (en) * 2015-04-08 2016-12-01 オリンパス株式会社 Imaging apparatus, composite imaging method and composite imaging program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3946676B2 (en) * 2003-08-28 2007-07-18 株式会社東芝 Captured image processing apparatus and method
JP2006025312A (en) * 2004-07-09 2006-01-26 Konica Minolta Photo Imaging Inc Imaging apparatus and image acquisition method
WO2007032082A1 (en) * 2005-09-16 2007-03-22 Fujitsu Limited Image processing method, and image processing device
JP4513869B2 (en) * 2008-02-13 2010-07-28 カシオ計算機株式会社 Imaging apparatus, strobe image generation method, and program
JP5683851B2 (en) * 2009-08-20 2015-03-11 株式会社ザクティ Imaging apparatus and image processing apparatus
JP5446847B2 (en) * 2009-12-25 2014-03-19 カシオ計算機株式会社 Image processing apparatus and method, and program
JP2013162333A (en) * 2012-02-06 2013-08-19 Sony Corp Image processing device, image processing method, program, and recording medium

Also Published As

Publication number Publication date
JP2014216926A (en) 2014-11-17

Similar Documents

Publication Publication Date Title
JP6512810B2 (en) Image pickup apparatus, control method and program
US9025044B2 (en) Imaging device, display method, and computer-readable recording medium
US10827107B2 (en) Photographing method for terminal and terminal
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP6119235B2 (en) Imaging control apparatus, imaging system, imaging control method, and program
JP4509081B2 (en) Digital camera and digital camera program
CN110740260B (en) Shooting method and device and computer readable storage medium
JP2023010751A (en) Image processing apparatus, control method therefor and program
JP2010268019A (en) Photographing apparatus
JP2020107956A (en) Imaging apparatus, imaging method, and program
JP5479850B2 (en) Moving image creating apparatus and moving image creating method
JP2014068081A (en) Imaging apparatus and control method of the same, program and storage medium
JP6115815B2 (en) Composite image generation apparatus and composite image generation method
JP5800600B2 (en) Imaging apparatus, imaging method, and program
JP2019169985A (en) Image processing apparatus
JP5359930B2 (en) Imaging apparatus, display method, and program
CN110896444A (en) Double-camera switching method and equipment
JPWO2018168228A1 (en) Image processing apparatus, image processing method, and image processing program
JP5718502B2 (en) Image creating apparatus and image creating method
CN112653841A (en) Shooting method and device and electronic equipment
JP2017041778A (en) Imaging apparatus, moving picture formation method and program
CN112640430A (en) Imaging element, imaging device, image data processing method, and program
JP2015118274A (en) Imaging device, imaging device control method, and program
JP2015152723A (en) Imaging device and imaging program
JP6493746B2 (en) Image tracking device and image tracking method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170309

R150 Certificate of patent or registration of utility model

Ref document number: 6115815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170717