JP2021040265A - Image processing device, imaging apparatus, image processing method, and program - Google Patents

Image processing device, imaging apparatus, image processing method, and program Download PDF

Info

Publication number
JP2021040265A
JP2021040265A JP2019161325A JP2019161325A JP2021040265A JP 2021040265 A JP2021040265 A JP 2021040265A JP 2019161325 A JP2019161325 A JP 2019161325A JP 2019161325 A JP2019161325 A JP 2019161325A JP 2021040265 A JP2021040265 A JP 2021040265A
Authority
JP
Japan
Prior art keywords
images
image
subject
image processing
composite image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019161325A
Other languages
Japanese (ja)
Inventor
智実 千葉
Tomomi Chiba
智実 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019161325A priority Critical patent/JP2021040265A/en
Publication of JP2021040265A publication Critical patent/JP2021040265A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a device that automatically creates a composite image that conforms to a user's intention when creating a locus composite image.SOLUTION: An image processing device has acquisition means for acquiring subject information from a plurality of images, extracting means for extracting feature areas from the subject information based on a predetermined rule, and compositing means for creating a composite image representing a locus of the subject in the plurality of images using at least some of the plurality of images. The composite image includes the feature areas.SELECTED DRAWING: Figure 3

Description

本発明は、複数の画像から合成画像の作成する画像処理装置に関するものである。 The present invention relates to an image processing device that creates a composite image from a plurality of images.

連写などで撮像された複数の写真から、被写体の軌跡を簡単に把握する必要な場合がある。特許文献1では、画像処理装置を用いて、複数の画像から同じ被写体を抽出し、被写体が複数回現れる合成画像を作成する技術が開示されている。 It may be necessary to easily grasp the trajectory of the subject from a plurality of photographs taken by continuous shooting or the like. Patent Document 1 discloses a technique of extracting the same subject from a plurality of images by using an image processing device and creating a composite image in which the subject appears a plurality of times.

特開2014−164652号公報Japanese Unexamined Patent Publication No. 2014-164652

しかしながら、特許文献1に開示の技術を用いては、以下のようなシーンにおける合成ができない。例えば、高跳びの選手がジャンプしている様子に対して軌跡合成を行い、選手が最も高い位置にいるときの画像を合成に用いる場合がある。特許文献1に記載の技術では、自動的にこうした合成画像を作成することができない。 However, using the technique disclosed in Patent Document 1, synthesis cannot be performed in the following scenes. For example, there is a case where a locus composition is performed on a state in which a high jumping player is jumping, and an image when the player is at the highest position is used for the composition. The technique described in Patent Document 1 cannot automatically create such a composite image.

本発明は、上記の課題を鑑みてなされたものであり、軌跡合成を行うとき、被写体の動きを考慮したうえで、自動的に合成画像を作成する画像処理装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing device that automatically creates a composite image in consideration of the movement of a subject when performing trajectory synthesis. ..

上記課題を解決するため、本願発明は、複数の画像から被写体情報を取得する取得手段と、前記被写体情報から所定の規則に基づいて特徴領域を抽出する抽出手段と、前記複数の画像のうちの少なくとも一部の画像を用いて、前記複数の画像における被写体の軌跡を表す合成画像を作成する合成手段と、を有し、前記合成画像は、前記特徴領域を含むことを特徴とする画像処理装置を提供する。 In order to solve the above problems, the present invention comprises an acquisition means for acquiring subject information from a plurality of images, an extraction means for extracting a feature region from the subject information based on a predetermined rule, and the plurality of images. An image processing apparatus comprising: a compositing means for creating a composite image representing a locus of a subject in the plurality of images using at least a part of the images, and the composite image includes the feature region. I will provide a.

本発明の構成によれば、軌跡合成を行うとき、被写体の動きに基づいて、合成画像を作成する画像処理装置を提供することができる。 According to the configuration of the present invention, it is possible to provide an image processing device that creates a composite image based on the movement of a subject when performing trajectory synthesis.

本発明の実施形態における画像処理装置としてのデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera as an image processing apparatus in embodiment of this invention. 本発明の実施形態における軌跡合成の方法を説明するための図である。It is a figure for demonstrating the method of the locus synthesis in embodiment of this invention. 本発明の実施形態における軌跡合成を説明するためのフローチャートである。It is a flowchart for demonstrating the locus synthesis in embodiment of this invention. 本発明の実施形態における表示部の表示を説明するための図である。It is a figure for demonstrating the display of the display part in embodiment of this invention.

以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本実施形態における画像処理装置としてのデジタルカメラ100の構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of a digital camera 100 as an image processing device according to the present embodiment.

シャッター101は絞り機能を備える機械式シャッターであり、撮像部22は光学像を電気信号に変換する撮像素子を備え、A/D変換器23は撮像部22からのアナログ信号の出力をデジタル信号に変換する。撮像部22の撮像素子は、本実施形態ではR、G、Bの画素が規則的に配置されたベイヤー配列の構成となっているが、これに限るわけではない。システム制御部50は、撮像部22、撮像レンズ103、シャッター101を制御する。 The shutter 101 is a mechanical shutter having an aperture function, the imaging unit 22 includes an imaging element that converts an optical image into an electric signal, and the A / D converter 23 converts the output of an analog signal from the imaging unit 22 into a digital signal. Convert. In the present embodiment, the image sensor of the image pickup unit 22 has a Bayer array in which the pixels of R, G, and B are regularly arranged, but the present invention is not limited to this. The system control unit 50 controls the image pickup unit 22, the image pickup lens 103, and the shutter 101.

シャッター101は機械式シャッター以外に、撮像素子のリセットタイミングの制御により蓄積時間を制御する電子シャッターを使用することも可能である。 In addition to the mechanical shutter, the shutter 101 can also use an electronic shutter whose storage time is controlled by controlling the reset timing of the image sensor.

画像処理部24は、A/D変換器23からのデータあるいはメモリ制御部15からのデータに対して所定の画素補間処理やシェーディング補正などの各種補正処理、ホワイトバランス処理、γ補正処理、色変換処理などを行う。また画像処理部24によって画像の切り出し、変倍処理を行うことで電子ズーム機能が実現される。シェーディング補正処理は、A/D変換器23からのデータあるいはメモリ制御部15からのデータに対して撮像レンズ103の特性や撮像部22の収差などの特性に起因して生じるシェーディングを補正するように、画面内の輝度レベルの補正を行う。ホワイトバランス(WB)処理は、画面内の白基準を白に合わせるホワイトバランス処理をシェーディング補正処理後の画像データに対して行う。本実施形態においては、シェーディング補正は撮像部22の撮像素子の2次元の座標(位置)に応じて画素ごとにゲインをかける補正であり、ホワイトバランス処理は、ベイヤー配列のR、G1、G2、Bごとに異なるゲインをかける処理である。また、画像合成部54は、複数の画像データを合成する合成処理回路を備える。また、画像合成部54は画像処理部24と一体に構成されていてもよい。 The image processing unit 24 performs various correction processing such as predetermined pixel interpolation processing and shading correction, white balance processing, γ correction processing, and color conversion for the data from the A / D converter 23 or the data from the memory control unit 15. Perform processing etc. Further, the electronic zoom function is realized by cutting out the image and performing the scaling process by the image processing unit 24. The shading correction process corrects the shading caused by the characteristics of the image pickup lens 103 and the aberration of the image pickup unit 22 with respect to the data from the A / D converter 23 or the data from the memory control unit 15. , Correct the brightness level in the screen. In the white balance (WB) process, the white balance process for adjusting the white reference in the screen to white is performed on the image data after the shading correction process. In the present embodiment, the shading correction is a correction that applies a gain for each pixel according to the two-dimensional coordinates (positions) of the image sensor of the image pickup unit 22, and the white balance processing is the correction of R, G1, G2, of the Bayer arrangement. This is a process of applying different gains for each B. Further, the image synthesizing unit 54 includes a synthesizing processing circuit for synthesizing a plurality of image data. Further, the image synthesizing unit 54 may be integrally configured with the image processing unit 24.

また、画像処理部24においては、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御などの制御を行い、TTL方式のAF処理、AE処理、EF処理などを行う。 Further, in the image processing unit 24, a predetermined calculation process is performed using the captured image data, and the system control unit 50 performs control such as exposure control and distance measurement control based on the obtained calculation result, and the TTL method is used. AF processing, AE processing, EF processing, etc. are performed.

メモリ制御部15は、メモリ32を制御する。 The memory control unit 15 controls the memory 32.

A/D変換器23のデータが画像処理部24、メモリ制御部15を介して、あるいはA/D変換器23のデータが直接メモリ制御部15を介して、メモリ32に書き込む。 The data of the A / D converter 23 is written to the memory 32 via the image processing unit 24 and the memory control unit 15, or the data of the A / D converter 23 is directly written to the memory 32 via the memory control unit 15.

表示部28は、メモリ32に書き込まれた表示用の画像データなどを表示する。 The display unit 28 displays image data for display written in the memory 32 and the like.

表示部28は、撮像部22で所定の周期で露光及び読み出しを繰り返し行って順次撮像した画像データを順次取得し表示すれば、ライブビュー表示や電子ファインダー機能を実現することが可能である。 The display unit 28 can realize the live view display and the electronic finder function by sequentially acquiring and displaying the image data sequentially captured by repeatedly exposing and reading the image in the image capturing unit 22 at a predetermined cycle.

また、表示部28は、システム制御部50の指示により任意に表示をON/OFFすることが可能であり、表示をOFFにした場合にはデジタルカメラ100の電力消費を大幅に低減することができる。 Further, the display unit 28 can arbitrarily turn on / off the display according to the instruction of the system control unit 50, and when the display is turned off, the power consumption of the digital camera 100 can be significantly reduced. ..

メモリ32は、撮像した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに必要な記憶量を備えている。 The memory 32 is a memory for storing captured still images and moving images, and has a storage amount necessary for storing a predetermined number of still images and moving images for a predetermined time.

また、メモリ32はシステム制御部50の作業領域として使用することも可能である。 The memory 32 can also be used as a work area for the system control unit 50.

システム制御部50は、デジタルカメラ100の全体を制御する。システム制御部50は、不揮発性メモリ56に記録されているプログラムを実行することで、本実施形態の各ステップにおける処理を実現させる。システムメモリ52はRAMなどが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読みだしたプログラムなどが展開される。また、システム制御部50は、メモリ32、表示部28などを制御することにより表示制御も行う。 The system control unit 50 controls the entire digital camera 100. The system control unit 50 realizes the processing in each step of the present embodiment by executing the program recorded in the non-volatile memory 56. RAM or the like is used as the system memory 52. In the system memory 52, constants and variables for the operation of the system control unit 50, a program read from the non-volatile memory 56, and the like are expanded. The system control unit 50 also controls the display by controlling the memory 32, the display unit 28, and the like.

システムタイマー53は各種制御に用いる時間を計測する計時部である。 The system timer 53 is a time measuring unit that measures the time used for various controls.

不揮発性メモリ56は、フラッシュメモリなどで構成されている。システム制御部50が実行するプログラムコードは不揮発性メモリ56に書き込まれ、逐次読み出しながらプログラムコードを実行する。また、不揮発性メモリ56内にはシステム情報を記憶する領域や、ユーザ設定情報を記憶する領域を設け、さまざまな情報や設定を次回起動時に読み出して、復元することを実現できる。 The non-volatile memory 56 is composed of a flash memory or the like. The program code executed by the system control unit 50 is written in the non-volatile memory 56, and the program code is executed while being read sequentially. Further, the non-volatile memory 56 is provided with an area for storing system information and an area for storing user setting information, and various information and settings can be read out and restored at the next startup.

操作部70は、各種ボタンやタッチパネルなどからなり、シャッタースイッチ(SW1、SW2)、メニューボタン、セットボタン、マクロボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン等がある。また操作部70には、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、撮像画質選択ボタン、露出補正ボタン、日付/時間設定ボタンなどを設けることもできる。 The operation unit 70 includes various buttons, a touch panel, and the like, and includes a shutter switch (SW1, SW2), a menu button, a set button, a macro button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, and the like. Further, the operation unit 70 may be provided with a menu move + (plus) button, a menu move- (minus) button, an image quality selection button, an exposure compensation button, a date / time setting button, and the like.

操作部70への操作によるシャッタースイッチSW1で、シャッターボタンの操作途中でONとなり、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理等の動作が開始する。 The shutter switch SW1 by operating the operation unit 70 turns on during the operation of the shutter button, and operations such as AF (autofocus) processing, AE (autoexposure) processing, and AWB (auto white balance) processing start.

操作部70への操作によるシャッタースイッチSW2で、シャッターボタンの操作完了でONとなり、露光処理、現像処理、圧縮・伸長処理、記録処理という一連の処理の動作が開始する。 The shutter switch SW2 is operated by operating the operation unit 70 to turn on when the operation of the shutter button is completed, and a series of operations such as exposure processing, development processing, compression / decompression processing, and recording processing are started.

電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプターなどからなる。電源制御部80は、電源部30を制御する。 The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, and the like. The power supply control unit 80 controls the power supply unit 30.

コネクタは、メモリカードやハードディスク等の記録媒体とのインターフェース、メモリカードやハードディスク等の記録媒体と接続を行う。 The connector interfaces with a recording medium such as a memory card or a hard disk, and connects to a recording medium such as a memory card or a hard disk.

被写体抽出部55は、画像から、たとえば周知の色領域分割方式で被写体領域を抽出する。被写体抽出部55は、動き量が閾値以上である画素を抽出し、動き量が閾値以上であり、かつ、隣接する画素をグルーピングすることで、被写体領域を抽出する。被写体抽出部55より抽出された被写体領域を画像合成部54により合成する。ただし、ISO感度によって、ノイズによる信号レベルの変動を考慮し変化量と比較するための閾値を変更してもよい。さらに、ここで、三脚で固定していない場合には、簡易的に被写体領域を抽出して、被写体領域を除外してから、フレーム間で画像の位置合わせをしてもよい。また、機械学習により人物を抽出したり、各フレームを多分割し各分割領域で得られた動きベクトルに基づいて動体領域を含む分割領域を特定したりすることで、被写体領域を抽出する方法であっても良い。 The subject extraction unit 55 extracts a subject region from an image by, for example, a well-known color region division method. The subject extraction unit 55 extracts the pixels whose movement amount is equal to or more than the threshold value, and extracts the subject area by grouping the adjacent pixels whose movement amount is equal to or more than the threshold value. The subject area extracted from the subject extraction unit 55 is combined by the image composition unit 54. However, depending on the ISO sensitivity, the threshold value for comparison with the amount of change may be changed in consideration of the fluctuation of the signal level due to noise. Further, here, when the subject area is not fixed by the tripod, the subject area may be simply extracted to exclude the subject area, and then the image may be aligned between the frames. In addition, a method of extracting a subject area by extracting a person by machine learning or by dividing each frame into multiple parts and specifying a divided area including a moving body area based on a motion vector obtained in each divided area. There may be.

頭部位置検出部57は、被写体抽出部55で抽出された被写体領域から、頭部を検出し座標を算出する。頭部位置検出部57は、被写体抽出部55が兼用してもよい。 The head position detection unit 57 detects the head from the subject area extracted by the subject extraction unit 55 and calculates the coordinates. The head position detection unit 57 may also be used by the subject extraction unit 55.

動き量検出部58は、連写撮像されてメモリ32に一時的に記憶された各画像を読み出して動き量検出量を求める。動き量検出量は、時系列に連続して撮像された時間内に前後する2枚の画像の差分を求める。ただし、撮像された時間内に前後する2枚の画像間における被写体の動きが小さい場合には、被写体領域が重複する面積が大きく、被写体の一部しか動体として検出されない可能性があるので、所定のフレーム以上離れた被写体の位置が異なる画像を比較してもよい。 The motion amount detection unit 58 reads out each image that has been continuously photographed and temporarily stored in the memory 32 to obtain the motion amount detection amount. For the motion amount detection amount, the difference between two images before and after within the time taken continuously in a time series is obtained. However, if the movement of the subject between two images before and after within the captured time is small, the area where the subject areas overlap is large, and only a part of the subject may be detected as a moving object. Images with different positions of subjects separated by more than one frame may be compared.

図2は、本実施形態における軌跡合成を説明するための図である。 FIG. 2 is a diagram for explaining trajectory synthesis in the present embodiment.

以下に説明する状況の例ではスノーボードによる人物の滑降のシーンとする。撮像者230は、被写体201(スノーボードで滑走中の人物)に対して撮像する。シャッター速度1/100秒にて10回の連続撮像を行った場合の被写体201の位置は位置211ないし220で示す。そこで、連続撮像によって得られた各画像から、被写体抽出部55により、位置211ないし220に示す被写体201を動体検出し、抽出した動体を1つの静止画像とするように画像合成部54において画像合成処理を行う。画像を合成する際には画素を上書きしてもよいし加重加算してもよい。加重加算をすれば背景が透けて見えるような画像にすることが出来る。また、合成に用いる複数のフレーム画像を、互いに位置合わせをしてから合成してもよい。その結果、軌跡合成では、図2に示すような形態の1枚の静止画像を生成する。 In the example of the situation described below, it is assumed that a person slides down by a snowboard. The imager 230 takes an image of the subject 201 (a person gliding on a snowboard). The positions of the subject 201 when continuous imaging is performed 10 times at a shutter speed of 1/100 second are indicated by positions 211 to 220. Therefore, from each image obtained by continuous imaging, the subject extraction unit 55 detects a moving object 201 shown at positions 211 to 220, and the image synthesizing unit 54 synthesizes the extracted moving object into one still image. Perform processing. When synthesizing images, pixels may be overwritten or weighted addition may be performed. By weighting addition, the image can be made so that the background can be seen through. Further, a plurality of frame images used for compositing may be composited after being aligned with each other. As a result, in the locus synthesis, one still image having the form shown in FIG. 2 is generated.

次に、本実施形態における軌跡合成の方法について説明する。図3は、本実施形態における軌跡合成を説明するためのフローチャートである。 Next, the method of trajectory synthesis in this embodiment will be described. FIG. 3 is a flowchart for explaining the locus synthesis in the present embodiment.

まず、ステップS301にて、システム制御部50は、合成対象とする候補となる画像を取得する。たとえば、本実施形態の場合は、記録媒体200に撮像画像が保存されているとする。操作部70への操作にて記録媒体200に撮像画像が保存されている撮像画像は記録媒体インターフェース18を介して読み出され、メモリ32に格納される。メモリ32に格納された画像データはメモリ制御部15と画像処理部24再度読みだされ、表示用の画像データに変換されメモリ32に書き込まれ、その後、メモリ制御部15を介して表示部28により表示される。さらに、操作部70に含まれる画像移動ボタンを操作することで、合成対象とする候補画像を複数枚選択する。本実施例ではすでに撮像されている画像から選択したが撮像により候補画像を取得してもよい。例えば、連写撮像を行い、連写直後に撮像された画像を合成対象の候補画像として取得するという方法であってもよい。 First, in step S301, the system control unit 50 acquires a candidate image to be combined. For example, in the case of the present embodiment, it is assumed that the captured image is stored in the recording medium 200. The captured image in which the captured image is stored in the recording medium 200 by operating the operation unit 70 is read out via the recording medium interface 18 and stored in the memory 32. The image data stored in the memory 32 is read again by the memory control unit 15 and the image processing unit 24, converted into image data for display and written to the memory 32, and then by the display unit 28 via the memory control unit 15. Is displayed. Further, by operating the image movement button included in the operation unit 70, a plurality of candidate images to be combined are selected. In this embodiment, a candidate image may be acquired by imaging, although the image is selected from the images already captured. For example, a method of performing continuous shooting imaging and acquiring an image captured immediately after continuous shooting as a candidate image to be combined may be used.

次に、ステップS302にて、システム制御部50は、候補画像それぞれに対して被写体情報を取得する。本実施形態の場合は、被写体抽出部55が候補画像それぞれに対して被写体領域を算出し、システム制御部50が被写体領域に対する評価値を算出して被写体情報とする。たとえば、システム制御部50は、評価値を、被写体領域の面積、被写体領域のアスペクト比、被写体領域に対する頭の位置の少なくともいずれかを用いて算出する。ここでは、被写体領域の面積を利用する場合は、被写体領域と判定された画素の数を被写体情報とする。ただし、被写体領域は複雑な形をしているとき、代わりに被写体領域を囲む矩形を描きその面積で計算することなどにより、算出してもよい。また、被写体領域のアスペクト比を利用する場合は、被写体領域を囲む矩形の縦の長さを横の長さで割った値を計算してアスペクト比としてもよい。さらに、被写体領域に対する頭の位置を利用する場合は、頭部位置検出部57で算出した頭の位置を、被写体領域を囲む矩形に対する相対座標で計算し評価値としてもよい。ただし、被写体領域を囲む矩形の上半分に頭が存在するか、下半分に存在するかなどを指標として計算するなど、ほかの方法で頭の位置の被写体情報を計算してもよい。 Next, in step S302, the system control unit 50 acquires subject information for each of the candidate images. In the case of the present embodiment, the subject extraction unit 55 calculates the subject area for each of the candidate images, and the system control unit 50 calculates the evaluation value for the subject area and uses it as the subject information. For example, the system control unit 50 calculates the evaluation value using at least one of the area of the subject area, the aspect ratio of the subject area, and the position of the head with respect to the subject area. Here, when the area of the subject area is used, the number of pixels determined to be the subject area is used as the subject information. However, when the subject area has a complicated shape, it may be calculated by drawing a rectangle surrounding the subject area and calculating with the area instead. When using the aspect ratio of the subject area, the aspect ratio may be calculated by dividing the vertical length of the rectangle surrounding the subject area by the horizontal length. Further, when the position of the head with respect to the subject area is used, the position of the head calculated by the head position detecting unit 57 may be calculated by the relative coordinates with respect to the rectangle surrounding the subject area and used as an evaluation value. However, the subject information of the head position may be calculated by another method such as calculation using whether the head is present in the upper half or the lower half of the rectangle surrounding the subject area as an index.

さらに、ステップS303にて、システム制御部50は、全ての画像の被写体情報を比較して特徴領域を抽出する。本実施形態の場合はステップS202にて算出した評価値をもとに特徴画像を自動で判別する。評価値が最大となる画像、もしくは、最小となる画像の被写体領域を特徴領域として抽出してよい。または、評価値が1つ前の画像から所定の値以上に変化している画像、などを抽出してもよく、この場合、特徴領域が複数になる。以上のような処理により、たとえば、人がジャンプして大きく手を広げている画像、着地をして体が縮こまっている画像、側転をして頭の位置が下に来ている画像、などの特徴的な画像が抽出できる。また、前述評価値以外の被写体情報も併用して特徴領域を抽出してもよい。 Further, in step S303, the system control unit 50 compares the subject information of all the images and extracts the feature area. In the case of this embodiment, the feature image is automatically determined based on the evaluation value calculated in step S202. The subject area of the image having the maximum evaluation value or the image having the minimum evaluation value may be extracted as a feature area. Alternatively, an image in which the evaluation value changes to a predetermined value or more from the previous image may be extracted, and in this case, the feature area becomes a plurality of features. By the above processing, for example, an image of a person jumping and spreading his hands wide, an image of landing and shrinking his body, an image of a cartwheel with his head down Characteristic images can be extracted. In addition, the feature region may be extracted by using subject information other than the above-mentioned evaluation value.

最後に、ステップS304にて、画像合成部54は特徴画像が含まれるように合成する。例えば、特徴画像が候補画像のうちの1枚目、9枚目、13枚目だった場合、間引き間隔を4枚に統一し、5枚目の画像を追加するなどの補てんをしてもよい。また、間引き間隔を一定にできない場合に特徴画像を微調整してもよい。 Finally, in step S304, the image synthesizing unit 54 synthesizes so that the feature image is included. For example, when the feature images are the first, ninth, and thirteenth of the candidate images, the thinning interval may be unified to four, and the fifth image may be added to compensate. Further, the feature image may be fine-tuned when the thinning interval cannot be made constant.

以下では、間引き間隔の調整の例について説明する。 An example of adjusting the thinning interval will be described below.

図4は、本実施形態における表示部28の表示を説明するための図である。画面401は、前述ステップS304で合成された合成画像を表示する。スライドバー402は、間引き間隔の調整に用いられる。バー403は、特徴領域を持つ画像を時系列で表示する。バー403により、特徴領域を持つ画像が時系列における位置がわかる。ユーザがスライドバー402をタッチ操作するたびに、画像合成部54が改めて合成画像を作成する。たとえば、候補画像が41枚だとし、特徴画像が21枚目と41枚目だとし、間引き間隔10枚で合成しているとすると、1枚目、11枚目、21枚目、31枚目、41枚目が合成されている。その状態で、ユーザがスライドバー402を操作し、たとえば、間引き間隔を5枚に設定しなおすと、1枚目、6枚目、11枚目、16枚目、21枚目、26枚目、31枚目、36枚目、41枚目を合成しなおされる。 FIG. 4 is a diagram for explaining the display of the display unit 28 in the present embodiment. The screen 401 displays the composite image synthesized in step S304. The slide bar 402 is used for adjusting the thinning interval. Bar 403 displays images having feature regions in chronological order. The bar 403 indicates the position of the image having the feature region in time series. Each time the user touches the slide bar 402, the image synthesizing unit 54 creates a composite image again. For example, if the candidate images are 41 images, the feature images are the 21st and 41st images, and the thinning interval is 10 images, the 1st, 11th, 21st, and 31st images are combined. , 41st sheet is synthesized. In that state, when the user operates the slide bar 402 and sets the thinning interval to 5, for example, the 1st, 6th, 11th, 16th, 21st, and 26th sheets, The 31st, 36th, and 41st sheets are recombined.

また、スライドバー402は、特徴領域を持つ画像の変更にも用いられる。この場合、ユーザがスライドバー402をタッチ操作し、特徴領域を持つ画像を変更するたびに、画像合成部54が改めて合成画像を作成する。 The slide bar 402 is also used to change an image having a feature area. In this case, each time the user touches the slide bar 402 to change the image having the feature area, the image synthesizing unit 54 creates a composite image again.

以上に説明したように、本実施形態を用いて、ユーザの意図に沿う軌跡合成の画像を自動的に作成することができる。 As described above, the present embodiment can be used to automatically create an image of trajectory composition according to the user's intention.

(そのほかの実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。
(Other embodiments)
Although the above embodiment has been described based on the implementation using a digital camera, the present embodiment is not limited to the digital camera. For example, it may be carried out by a portable device having a built-in image sensor, or may be a network camera capable of capturing an image.

なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 In the present invention, a program that realizes one or more functions of the above-described embodiment is supplied to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device program. It can also be realized by the process of reading and operating. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

22 撮像部
28 表示部
50 システム制御部
100 デジタルカメラ
101 シャッター
102 バリア
22 Imaging unit 28 Display unit 50 System control unit 100 Digital camera 101 Shutter 102 Barrier

Claims (12)

複数の画像から被写体情報を取得する取得手段と、
前記被写体情報から所定の規則に基づいて特徴領域を抽出する抽出手段と、
前記複数の画像のうちの少なくとも一部の画像を用いて、前記複数の画像における被写体の軌跡を表す合成画像を作成する合成手段と、を有し、
前記合成画像は、前記特徴領域を含むことを特徴とする画像処理装置。
An acquisition method for acquiring subject information from multiple images,
An extraction means for extracting a feature region from the subject information based on a predetermined rule,
It has a compositing means for creating a composite image representing a trajectory of a subject in the plurality of images by using at least a part of the plurality of images.
An image processing device characterized in that the composite image includes the feature region.
前記合成手段は、前記複数の画像のうち、前記特徴領域をもつ画像を用いて前記合成画像を作成することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the compositing means creates the composite image using an image having the feature region among the plurality of images. 前記所定の規則は、前記画像における被写体領域に関することを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the predetermined rule relates to a subject area in the image. 前記抽出手段は、前記被写体領域の面積またはアスペクト比に基づいて前記特徴領域を抽出することを特徴とする請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the extraction means extracts the feature area based on the area or aspect ratio of the subject area. 前記抽出手段は、前記被写体領域の頭部の位置に基づいて前記特徴領域を抽出することを特徴とする請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the extraction means extracts the feature region based on the position of the head of the subject region. 前記抽出手段は、時系列で隣り合う前記画像の前記被写体領域の違いに基づいて前記特徴領域を抽出することを特徴とする請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the extraction means extracts the feature region based on a difference in the subject regions of the images adjacent to each other in time series. ユーザからの指示に基づいて設定を変更する変更手段をさらに有し、
前記変更手段が前記設定を変更すると、前記合成手段が改めて前記合成画像を作成することを特徴とする請求項1ないし6のいずれか1項に記載の画像処理装置。
It also has a changing means to change the settings based on the user's instructions.
The image processing apparatus according to any one of claims 1 to 6, wherein when the changing means changes the setting, the compositing means creates the composite image again.
前記変更手段が、前記合成画像に用いる前記画像の間引きを変更することを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the changing means changes the thinning of the image used for the composite image. 前記変更手段が、前記特徴領域を変更することを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the changing means changes the feature region. 複数の画像を撮像する撮像手段と、
前記複数の画像から被写体情報を取得する取得手段と、
前記被写体情報から所定の規則に基づいて特徴領域を抽出する抽出手段と、
前記複数の画像のうちの少なくとも一部の画像を用いて、前記複数の画像における被写体の軌跡を表す合成画像を作成する合成手段と、を有し、
前記合成画像は、前記特徴領域を含むことを特徴とする撮像装置。
An imaging means that captures multiple images and
An acquisition means for acquiring subject information from the plurality of images, and
An extraction means for extracting a feature region from the subject information based on a predetermined rule,
It has a compositing means for creating a composite image representing a trajectory of a subject in the plurality of images by using at least a part of the plurality of images.
The composite image is an imaging device including the feature region.
複数の画像から被写体情報を取得する取得ステップと、
前記被写体情報から所定の規則に基づいて特徴領域を抽出する抽出ステップと、
前記複数の画像のうちの少なくとも一部の画像を用いて、前記複数の画像における被写体の軌跡を表す合成画像を作成する合成ステップと、を有し、
前記合成画像は、前記特徴領域を含むことを特徴とする画像処理方法。
The acquisition step to acquire subject information from multiple images,
An extraction step of extracting a feature area from the subject information based on a predetermined rule, and
It has a compositing step of creating a composite image representing a trajectory of a subject in the plurality of images using at least a part of the plurality of images.
An image processing method characterized in that the composite image includes the feature region.
画像処理装置をコンピュータに動作させるコンピュータのプログラムであって、
複数の画像から被写体情報を取得する取得ステップと、
前記被写体情報から所定の規則に基づいて特徴領域を抽出する抽出ステップと、
前記複数の画像のうちの少なくとも一部の画像を用いて、前記複数の画像における被写体の軌跡を表す合成画像を作成する合成ステップと、を行わせ、
前記合成画像は、前記特徴領域を含むことを特徴とするプログラム。
A computer program that operates an image processing device on a computer.
The acquisition step to acquire subject information from multiple images,
An extraction step of extracting a feature area from the subject information based on a predetermined rule, and
Using at least a part of the plurality of images, a compositing step of creating a composite image representing the trajectory of the subject in the plurality of images is performed.
The composite image is a program characterized by including the feature region.
JP2019161325A 2019-09-04 2019-09-04 Image processing device, imaging apparatus, image processing method, and program Pending JP2021040265A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019161325A JP2021040265A (en) 2019-09-04 2019-09-04 Image processing device, imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019161325A JP2021040265A (en) 2019-09-04 2019-09-04 Image processing device, imaging apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2021040265A true JP2021040265A (en) 2021-03-11

Family

ID=74848775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161325A Pending JP2021040265A (en) 2019-09-04 2019-09-04 Image processing device, imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021040265A (en)

Similar Documents

Publication Publication Date Title
JP7023662B2 (en) Image processing device, image pickup device, control method and program of image processing device
JP6218378B2 (en) Image processing apparatus and image processing method
JP2006033241A (en) Image pickup device and image acquiring means
JP6116299B2 (en) Imaging apparatus and control method thereof
JP2016076805A (en) Image processing apparatus, control method and control program therefor, and imaging device
CN104246597A (en) Imaging device, imaging method, recording medium and program
JP6192416B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP7142507B2 (en) Image processing device, image processing method, and imaging device
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP2021040265A (en) Image processing device, imaging apparatus, image processing method, and program
JP7030565B2 (en) Image processing equipment, image processing methods and programs
JP2014021782A (en) Image processor, control method thereof and program
JP6184077B2 (en) Imaging device and control method thereof.
JP6353585B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP5743729B2 (en) Image synthesizer
JP5828663B2 (en) Image processing apparatus and image processing apparatus control method
JP5289354B2 (en) Imaging device
JP2021022813A (en) Image capturing apparatus, image capturing method, and program
JP6433177B2 (en) Image processing apparatus and image processing method
JP2019121981A (en) Image processing apparatus, image processing method, and program
JP4968389B2 (en) Imaging apparatus and program
JP6525692B2 (en) Image processing apparatus, control method therefor, control program, and imaging apparatus
JP2006211554A (en) Imaging apparatus, imaging method, program and recording medium
JP2023118468A (en) Imaging device and control method thereof