JP2021027486A - Image processing device, control method thereof, and program - Google Patents

Image processing device, control method thereof, and program Download PDF

Info

Publication number
JP2021027486A
JP2021027486A JP2019144702A JP2019144702A JP2021027486A JP 2021027486 A JP2021027486 A JP 2021027486A JP 2019144702 A JP2019144702 A JP 2019144702A JP 2019144702 A JP2019144702 A JP 2019144702A JP 2021027486 A JP2021027486 A JP 2021027486A
Authority
JP
Japan
Prior art keywords
image
subject
background
images
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019144702A
Other languages
Japanese (ja)
Other versions
JP7266490B2 (en
Inventor
省豪 上野
Yoshitake Ueno
省豪 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019144702A priority Critical patent/JP7266490B2/en
Publication of JP2021027486A publication Critical patent/JP2021027486A/en
Application granted granted Critical
Publication of JP7266490B2 publication Critical patent/JP7266490B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

To provide an image processing device capable of suppressing deterioration of the image quality of a composite image when synthesizing a plurality of images.SOLUTION: In an image processing device 300, a plurality of target images (frames) 401 to 404 that are continuous in time series are acquired, main subject images 406 to 409 including a person 405 are respectively separated from target image 401 to 404, and the remaining images are cut out as background images 410 to 413, a background image candidate that is one background image is extracted from each of the background images 410 to 413, and the background image candidates and main subject images 406 to 409 are combined to generate a composite image 414.SELECTED DRAWING: Figure 2

Description

本発明は、複数の画像を合成する画像処理装置、その制御方法及びプログラムに関する。 The present invention relates to an image processing device that synthesizes a plurality of images, a control method and a program thereof.

近年、動画から取得された複数の画像や連写によって取得された複数の画像に基づいて被写体の動きを1枚の画像に合成する技術が知られている。例えば、背景が一様である撮像環境で動きのある被写体を連続撮影して複数の画像を得、その後、これらの画像を合成した場合、動きのある被写体のみが複数表示された合成画像が得られる。この合成画像では、1つの画像で被写体の動きを時系列的に確認できるため、静止画像でありながら被写体の動きを動画のように表現できる。通常、このような合成画像は、PC等において描画ツールを用いて作業者が手作業で作成するために非常に手間を要する。そこで、このような合成画像を自動で生成する技術が幾つか提案されている。 In recent years, there has been known a technique of synthesizing the movement of a subject into one image based on a plurality of images acquired from a moving image or a plurality of images acquired by continuous shooting. For example, when a moving subject is continuously photographed in an imaging environment with a uniform background to obtain a plurality of images, and then these images are combined, a composite image in which only the moving subject is displayed is obtained. Be done. In this composite image, the movement of the subject can be confirmed in time series with one image, so that the movement of the subject can be expressed like a moving image even though it is a still image. Usually, such a composite image requires a great deal of time and effort for an operator to manually create such a composite image using a drawing tool on a PC or the like. Therefore, some techniques for automatically generating such a composite image have been proposed.

ところで、このような合成画像を得るために複数の画像を取得する際、背景が一様ではなく被写体とは別の動きのある物体が存在すると、合成画像に別の物体が重畳されてノイズのように表示される。例えば、図7に示すように、連続撮影によって得られた複数の画像群101の各画像に被写体である人物102とは別の物体である鳥103が含まれると、合成画像104において各画像の鳥103が移動しながら重畳されたノイズ105が表示される。 By the way, when acquiring a plurality of images in order to obtain such a composite image, if there is an object whose background is not uniform and has a movement different from that of the subject, another object is superimposed on the composite image and noise is generated. Is displayed. For example, as shown in FIG. 7, when each image of the plurality of image groups 101 obtained by continuous shooting includes a bird 103 which is an object different from the person 102 who is the subject, the composite image 104 shows the images of each image. The noise 105 superimposed while the bird 103 is moving is displayed.

これに対して、ノイズの要因となる動きのある物体を削除する技術も提案されている。例えば、特許文献1の技術では、連続撮影によって得られた複数の画像において、少なくとも2つの画像の同じ位置に存在する物体以外の物体を削除することにより、動きのある物体を削除する。また、動画から動いている物体をすべて削除するアプリケーションも知られている(例えば、株式会社ViRD製、「VANISH360」、http://vird.co.jp/product/vanish360/ 参照)。 On the other hand, a technique for deleting a moving object that causes noise has also been proposed. For example, in the technique of Patent Document 1, in a plurality of images obtained by continuous shooting, a moving object is deleted by deleting an object other than an object existing at the same position in at least two images. An application that deletes all moving objects from a video is also known (see, for example, ViRD Co., Ltd., "VANISH360", http://vird.co.jp/product/vanish360/).

また、主被写体とは別の動きのある被写体(以下「動体」と称する。)を削除した合成画像を生成する構成として、例えば、図8に示す構成が知られている。 Further, for example, the configuration shown in FIG. 8 is known as a configuration for generating a composite image in which a subject having a movement different from the main subject (hereinafter referred to as “moving object”) is deleted.

図8において、当該構成では、記録メディア201に静止画像データ又は動画データが記録され、ドライブユニット202は、記録メディア201から静止画像データ又は動画データを取得する。復号化ユニット203は取得されたデータを復号し、復号化された静止画像データ又は動画データをメモリ204へ出力する。合成画像を生成する際、ユーザーはシステムコントローラー205に対して合成される複数の画像を読み込むための指示を出す。該指示に応じてフレーム読み出し部206はメモリ204から静止画像データ又は動画データ内の指示に対応する複数のフレーム(時系列的に連続する複数の画像)を読み出す。その後、主被写体群検出部207は各フレームから主被写体を検出し、動体削除部208は主被写体外の動体を各フレームから削除する。その後、映像合成処理部209は動体が削除された各フレームを合成し、画像処理部210は合成された各フレームの画角調整や色変換を行って合成画像を生成し、表示装置211は合成画像を表示する。 In FIG. 8, in this configuration, still image data or moving image data is recorded on the recording medium 201, and the drive unit 202 acquires the still image data or moving image data from the recording medium 201. The decoding unit 203 decodes the acquired data and outputs the decoded still image data or moving image data to the memory 204. When generating the composite image, the user instructs the system controller 205 to read the plurality of composited images. In response to the instruction, the frame reading unit 206 reads out a plurality of frames (a plurality of images that are continuous in time series) corresponding to the instruction in the still image data or the moving image data from the memory 204. After that, the main subject group detection unit 207 detects the main subject from each frame, and the moving object deleting unit 208 deletes the moving object other than the main subject from each frame. After that, the video compositing processing unit 209 synthesizes each frame from which the moving object has been deleted, the image processing unit 210 adjusts the angle of view and color conversion of each combined frame to generate a composite image, and the display device 211 synthesizes them. Display the image.

特開2000−13681号公報Japanese Unexamined Patent Publication No. 2000-13681

しかしながら、図8の構成では、動体が削除された各フレームを合成するため、各フレームが互いに差分の大きい領域を含んでいると、当該領域が重ね合わされる。その結果、合成画像の画質が劣化するという問題がある。また、例え、図8の構成において、動体を削除すること無く各フレームを合成する場合でもあっても、やはり、互いに差分の大きい領域は重ね合わされるため、同様の問題が生じる。 However, in the configuration of FIG. 8, since each frame in which the moving body is deleted is combined, if each frame contains a region having a large difference from each other, the regions are overlapped. As a result, there is a problem that the image quality of the composite image is deteriorated. Further, even in the case of synthesizing the frames without deleting the moving body in the configuration of FIG. 8, the same problem occurs because the regions having a large difference from each other are overlapped.

本発明の目的は、複数の画像を合成する際に合成画像の画質の劣化を抑制することができる画像処理装置、その制御方法及びプログラムを提供することにある。 An object of the present invention is to provide an image processing device capable of suppressing deterioration of the image quality of a composite image when synthesizing a plurality of images, a control method and a program thereof.

上記目的を達成するために、本発明の画像処理装置は、時系列的に連続する複数の画像を取得する画像取得手段と、前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存手段と、前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出手段と、前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成手段と、を備えることを特徴とする。 In order to achieve the above object, the image processing apparatus of the present invention separates a subject from each of an image acquisition means for acquiring a plurality of images that are continuous in time series and the plurality of acquired images to obtain a background. An image saving means that acquires and saves the plurality of subjects and the plurality of backgrounds acquired from the plurality of images, and the plurality of saved backgrounds are compared with each other, and the difference from the other backgrounds is the smallest. It is characterized by including a background extraction means for extracting the background of the above, and a composite image generation means for generating a composite image by synthesizing the plurality of subjects on the extracted one background.

本発明によれば、複数の画像を合成する際に合成画像の画質の劣化を抑制することができる。 According to the present invention, when a plurality of images are combined, deterioration of the image quality of the combined image can be suppressed.

第1の実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus which concerns on 1st Embodiment. 第1の実施の形態における画像合成処理を示すフローチャートである。It is a flowchart which shows the image composition processing in 1st Embodiment. 第1の実施の形態における画像合成処理を説明するための工程図である。It is a process drawing for demonstrating the image composition processing in 1st Embodiment. 主被写体と関連性が高い動体が合成画像に含まれなくなる場合を説明するための図である。It is a figure for demonstrating the case where a moving body which is highly related to a main subject is not included in a composite image. 第2の実施の形態における画像合成処理を示すフローチャートである。It is a flowchart which shows the image composition processing in 2nd Embodiment. 第2の実施の形態における画像合成処理を説明するための図である。It is a figure for demonstrating the image composition processing in 2nd Embodiment. 従来の画像合成処理においてノイズが生じる過程を説明するための図である。It is a figure for demonstrating the process in which noise is generated in the conventional image composition processing. 従来の画像合成処理を実行する構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure which executes the conventional image composition processing.

以下、本発明の実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の実施の形態に記載される構成はあくまで例示に過ぎず、本発明の範囲は実施の形態に記載される構成によって限定されることはない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in the embodiments.

まず、第1の実施の形態について説明する。図1は、本実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。図1において、例えば、カメラ等の撮像装置である画像処理装置300は、記録メディア301が接続又は装着されるドライブユニット302と、復号化ユニット303と、メモリ304と、システムコントローラー305とを備える。また、画像処理装置300は、フレーム読み出し部306(画像取得手段,静止画像取得手段,フレーム取得手段)と、主被写体群検出部307(被写体検出手段,主被写体検出手段)と、背景分離部308(画像保存手段、被写体範囲特定手段)とを備える。さらに、画像処理装置300は、分離背景保存部309(背景保存手段)と、分離被写体保存部310(被写体保存手段)と、背景比較抽出部311(背景抽出手段)と、分離背景読み出し部312とを備える。また、当該画像処理装置300は、映像合成処理部313(合成画像生成手段)と、分離被写体読み出し部314と、画像処理部315と、表示装置316とを備える。 First, the first embodiment will be described. FIG. 1 is a block diagram schematically showing a configuration of an image processing apparatus according to the present embodiment. In FIG. 1, for example, an image processing device 300, which is an image pickup device such as a camera, includes a drive unit 302 to which a recording medium 301 is connected or mounted, a decoding unit 303, a memory 304, and a system controller 305. Further, the image processing device 300 includes a frame reading unit 306 (image acquisition means, still image acquisition means, frame acquisition means), a main subject group detection unit 307 (subject detection means, main subject detection means), and a background separation unit 308. (Image storage means, subject range specifying means). Further, the image processing device 300 includes a separation background storage unit 309 (background storage means), a separation subject storage unit 310 (subject storage means), a background comparison extraction unit 311 (background extraction means), and a separation background reading unit 312. To be equipped. Further, the image processing device 300 includes a video compositing processing unit 313 (compositing image generation means), a separated subject reading unit 314, an image processing unit 315, and a display device 316.

画像処理装置300において、記録メディア301は静止画像データ又は動画データを記録し、ドライブユニット302は、記録メディア301から静止画像データ又は動画データを取得する。復号化ユニット303は取得されたデータを復号し、復号化された静止画像データ又は動画データをメモリ304へ出力する。システムコントローラー305は、画像処理装置300の各構成要素の動作を制御する。フレーム読み出し部306はメモリ304から静止画像データ又は動画データ内の複数のフレーム(時系列的に連続する複数の画像)を読み出す。主被写体群検出部307は各フレームから主被写体を検出し、背景分離部308は各フレームから検出された主被写体を含む範囲の画像を主被写体画像として切り出し、各フレームから主被写体画像を分離して残りの画像を背景画像として切り出す。分離背景保存部309は各フレームから切り出された背景画像をメモリ304に保存し、分離被写体保存部310は各フレームから切り出された主被写体画像をメモリ304に保存する。 In the image processing device 300, the recording medium 301 records still image data or moving image data, and the drive unit 302 acquires still image data or moving image data from the recording medium 301. The decoding unit 303 decodes the acquired data and outputs the decoded still image data or moving image data to the memory 304. The system controller 305 controls the operation of each component of the image processing device 300. The frame reading unit 306 reads a plurality of frames (a plurality of images that are continuous in time series) in the still image data or the moving image data from the memory 304. The main subject group detection unit 307 detects the main subject from each frame, and the background separation unit 308 cuts out an image in a range including the main subject detected from each frame as the main subject image and separates the main subject image from each frame. And cut out the remaining image as a background image. The separated background storage unit 309 stores the background image cut out from each frame in the memory 304, and the separated subject storage unit 310 stores the main subject image cut out from each frame in the memory 304.

また、分離背景読み出し部312はメモリ304に保存された各背景画像をメモリ304から読み出す。背景比較抽出部311は、各背景画像から合成対象となる背景画像候補(一の背景)を抽出する。分離被写体読み出し部314はメモリ304から各主被写体画像を読み出し、映像合成処理部313は、背景比較抽出部311が抽出した背景画像候補と、読み出した各主被写体画像とを合成する。画像処理部315は合成された各主被写体画像と背景画像候補の画角調整や色変換を行って合成画像を生成し、表示装置316は合成画像を表示する。 Further, the separated background reading unit 312 reads each background image stored in the memory 304 from the memory 304. The background comparison extraction unit 311 extracts a background image candidate (one background) to be combined from each background image. The separated subject reading unit 314 reads each main subject image from the memory 304, and the video compositing processing unit 313 synthesizes the background image candidate extracted by the background comparison extraction unit 311 and each read main subject image. The image processing unit 315 performs angle-of-view adjustment and color conversion of each of the combined main subject images and background image candidates to generate a composite image, and the display device 316 displays the composite image.

次に、本実施の形態に係る画像処理装置の制御方法としての画像合成処理について説明する。図2は、本実施の形態における画像合成処理を示すフローチャートであり、図3は、本実施の形態における画像合成処理を説明するための工程図である。 Next, an image composition process as a control method of the image processing device according to the present embodiment will be described. FIG. 2 is a flowchart showing an image composition process according to the present embodiment, and FIG. 3 is a process diagram for explaining the image composition process according to the present embodiment.

まず、システムコントローラー305がユーザーによる主被写体と合成対象となる時系列的に連続する複数の画像との選択に関する指示を受け付ける(ステップS501)。なお、本実施の形態では、以下、合成対象となる画像を対象画像と称する。本実施の形態では、各対象画像として、自転車に乗った人物と、背景として映り込んだ家や林とを含む対象画像(フレーム)401〜404が選択される。また、自転車に乗った人物405が主被写体として選択される。 First, the system controller 305 receives an instruction from the user regarding the selection of the main subject and a plurality of consecutive images to be combined in time series (step S501). In the present embodiment, the image to be combined is hereinafter referred to as a target image. In the present embodiment, as each target image, target images (frames) 401 to 404 including a person riding a bicycle and a house or forest reflected as a background are selected. In addition, a person 405 riding a bicycle is selected as the main subject.

次いで、フレーム読み出し部306がメモリ304から対象画像401〜404を順に読み出す(ステップS502)。その後、主被写体群検出部307は読み出された各対象画像401〜404から人物405を検出し、各対象画像401〜404において人物405を含む矩形領域を主被写体画像として検出する。具体的には、各対象画像401〜404において人物405を含む主被写体画像406〜409を規定し、各主被写体画像406〜409の領域情報をメモリ304に格納する(図3(A))。例えば、対象画像401における主被写体画像406の領域情報(x1、y1、Lx1、Ly1)がメモリ304に格納される。ここで、(x1、y1)は主被写体画像406の図中左上の座標を示し、(Lx1)は主被写体画像406の図中の横長さを示し、(Ly1)は主被写体画像406の図中の縦長さを示す。次いで、背景分離部308は各対象画像401〜404から主被写体画像406〜409を切り出すとともに、各対象画像401〜404から主被写体画像406〜409を分離して残りの画像を背景画像として切り出す(ステップS503)。切り出された背景画像410〜413は分離背景保存部309によってメモリ304に保存され、切り出された主被写体画像406〜409は分離被写体保存部310によってメモリ304に保存される。このとき、各対象画像の各々は、当該対象画像から切り出された主被写体画像、該主被写体画像の領域情報及び当該対象画像から切り出された背景画像と関連づけられる。なお、本実施の形態では、対象画像401から主被写体画像406が切り出されて背景画像410が生成され、対象画像402から主被写体画像407が切り出されて背景画像411が生成される。また、対象画像403から主被写体画像408が切り出されて背景画像412が生成され、対象画像404から主被写体画像409が切り出されて背景画像413が生成される(図3(B))。 Next, the frame reading unit 306 reads the target images 401 to 404 from the memory 304 in order (step S502). After that, the main subject group detection unit 307 detects the person 405 from each of the read target images 401 to 404, and detects the rectangular region including the person 405 in each target image 401 to 404 as the main subject image. Specifically, the main subject images 406 to 409 including the person 405 are defined in the target images 401 to 404, and the area information of the main subject images 406 to 409 is stored in the memory 304 (FIG. 3A). For example, the area information (x1, y1, Lx1, Ly1) of the main subject image 406 in the target image 401 is stored in the memory 304. Here, (x1, y1) indicates the coordinates of the upper left of the main subject image 406 in the figure, (Lx1) indicates the horizontal length of the main subject image 406 in the figure, and (Ly1) indicates the horizontal length of the main subject image 406 in the figure. Indicates the vertical length of. Next, the background separation unit 308 cuts out the main subject images 406 to 409 from the target images 401 to 404, separates the main subject images 406 to 409 from the target images 401 to 404, and cuts out the remaining images as the background image ( Step S503). The cut-out background images 410 to 413 are stored in the memory 304 by the separated background storage unit 309, and the cut-out main subject images 406 to 409 are stored in the memory 304 by the separated subject storage unit 310. At this time, each of the target images is associated with the main subject image cut out from the target image, the area information of the main subject image, and the background image cut out from the target image. In the present embodiment, the main subject image 406 is cut out from the target image 401 to generate the background image 410, and the main subject image 407 is cut out from the target image 402 to generate the background image 411. Further, the main subject image 408 is cut out from the target image 403 to generate the background image 412, and the main subject image 409 is cut out from the target image 404 to generate the background image 413 (FIG. 3 (B)).

次いで、システムコントローラー305は全ての対象画像がメモリ304から読み出されたか否かを判定する(ステップS504)。ここで、全ての対象画像が読み出されていない場合にはステップS502に戻り、全ての対象画像が読み出されている場合にはステップS505に進む。 Next, the system controller 305 determines whether or not all the target images have been read from the memory 304 (step S504). Here, if all the target images have not been read, the process returns to step S502, and if all the target images have been read, the process proceeds to step S505.

ステップS505では、分離背景読み出し部312がメモリ304に保存された各背景画像410〜413を読み出し、背景比較抽出部311は各背景画像410〜413から背景画像候補を抽出する。このとき、背景比較抽出部311は、各背景画像の一つと、当該一つの背景画像と時系列的に前後に位置する(時系列的に隣接する)各背景画像とを比較して一致度合いを示す比較結果値を算出する。さらに、背景比較抽出部311は、各背景画像の比較結果値を比較し、比較結果値が最も高い一の背景画像を背景画像候補として抽出する。 In step S505, the separation background reading unit 312 reads each background image 410 to 413 stored in the memory 304, and the background comparison extraction unit 311 extracts background image candidates from each background image 410 to 413. At this time, the background comparison extraction unit 311 compares one of the background images with each of the background images located before and after the one background image in chronological order (adjacent in chronological order) to determine the degree of matching. Calculate the comparison result value shown. Further, the background comparison extraction unit 311 compares the comparison result values of the background images, and extracts one background image having the highest comparison result value as a background image candidate.

ステップS505における比較結果値の算出では、一般に利用される画像マッチング技術により、一致度合いが高い(差分が小さい)程、高い比較結果値が算出される。なお、ステップS505では、背景画像間の一致度合いを何らかの指標で取得できればよいので、一般に知られる他の技術を利用してもよい。ここで、一つの背景画像に時系列的に前後に位置する各背景画像(それぞれ「前背景画像」及び「後背景画像」と称する。)が存在する場合、一つの背景画像と前背景画像との比較結果値を得、さらに、一つの背景画像と後背景画像との比較結果値を得る。そして、2つの比較結果値の平均を評価値として一つの背景画像に関連づける。一つの背景画像に後背景画像のみが存在する場合、一つの背景画像と後背景画像との比較結果値を得、この比較結果値を評価値として一つの背景画像に関連づける。また、一つの背景画像に前背景画像のみが存在する場合、一つの背景画像と前背景画像との比較結果値を得、この比較結果値を評価値として一つの背景画像に関連づける。 In the calculation of the comparison result value in step S505, the higher the degree of matching (the smaller the difference), the higher the comparison result value is calculated by the commonly used image matching technique. In step S505, it suffices if the degree of agreement between the background images can be obtained by some index, and thus other generally known techniques may be used. Here, when each background image (referred to as "front background image" and "back background image", respectively) located before and after in time series exists in one background image, one background image and one background image are used. The comparison result value of is obtained, and further, the comparison result value of one background image and the back background image is obtained. Then, the average of the two comparison result values is used as the evaluation value and associated with one background image. When only the back background image exists in one background image, the comparison result value between one background image and the back background image is obtained, and this comparison result value is used as an evaluation value and associated with one background image. Further, when only the foreground image exists in one background image, the comparison result value between one background image and the foreground image is obtained, and this comparison result value is used as an evaluation value and associated with one background image.

例えば、本実施の形態では、図3(C)に示すように、背景画像410と背景画像411の一致度合いとして比較結果値C1が算出され、背景画像411と背景画像412の一致度合いとして比較結果値C2が算出される。また、背景画像412と背景画像413の一致度合いとして比較結果値C3が算出される。そして、背景画像411には、比較結果値C1と比較結果値C2の平均が評価値T2として関連づけられ、背景画像412には、比較結果値C2と比較結果値C3の平均が評価値T3として関連づけられる。また、背景画像410には比較結果値C1が評価値T1として関連づけられ、背景画像413には比較結果値C3が評価値T4として関連づけられる。ステップS505では、例えば、評価値T1が最も高い場合、背景比較抽出部311は、背景画像410を背景画像候補として抽出し、メモリ304に保存する。 For example, in the present embodiment, as shown in FIG. 3C, the comparison result value C1 is calculated as the degree of agreement between the background image 410 and the background image 411, and the comparison result is the degree of agreement between the background image 411 and the background image 412. The value C2 is calculated. Further, the comparison result value C3 is calculated as the degree of agreement between the background image 412 and the background image 413. Then, the background image 411 is associated with the average of the comparison result value C1 and the comparison result value C2 as the evaluation value T2, and the background image 412 is associated with the average of the comparison result value C2 and the comparison result value C3 as the evaluation value T3. Be done. Further, the comparison result value C1 is associated with the background image 410 as the evaluation value T1, and the comparison result value C3 is associated with the background image 413 as the evaluation value T4. In step S505, for example, when the evaluation value T1 is the highest, the background comparison extraction unit 311 extracts the background image 410 as a background image candidate and stores it in the memory 304.

次いで、分離被写体読み出し部314はメモリ304から主被写体画像406〜409を読み出し、映像合成処理部313は、背景比較抽出部311が抽出した背景画像候補(背景画像410)と、主被写体画像406〜409を合成する。背景画像410と主被写体画像406〜409の合成は、各画像の平均値や重み付けに基づいて行わず、単純に背景画像410の上に主被写体画像406〜409を上書きして行う。その後、画像処理部315は合成された主被写体画像406〜409と背景画像410の画角調整や色変換を行って合成画像414(図3(D)参照)を生成し(ステップS506)、本処理を終了する。 Next, the separated subject reading unit 314 reads the main subject images 406 to 409 from the memory 304, and the video compositing processing unit 313 reads the background image candidate (background image 410) extracted by the background comparison extraction unit 311 and the main subject images 406 to 406. 409 is synthesized. The combination of the background image 410 and the main subject images 406 to 409 is not performed based on the average value or weighting of each image, but is simply performed by overwriting the main subject images 406 to 409 on the background image 410. After that, the image processing unit 315 adjusts the angle of view and color conversion of the combined main subject images 406 to 409 and the background image 410 to generate a composite image 414 (see FIG. 3D) (step S506). End the process.

ところで、本実施の形態では、図3(A)に示すように、対象画像401〜404に、人物405とは別の動体として鳥415が含まれる。ここで、従来の合成画像の生成処理のように、単純に対象画像401〜404を合成すると、各対象画像401〜404において移動する鳥415が重畳表示されて所定の範囲にまたがるノイズ(例えば、図7のノイズ105)のように表示されるおそれがある。これに対し、図2の処理によれば、対象画像401〜404から背景画像410〜413を生成し、そのうちの1つの背景画像410のみに主被写体画像406〜409を上書きするので、鳥415が重畳表示されない。その結果、合成画像414では、1羽の静止状態の鳥415が含まれるのみとなり(図3(D)参照)、鳥415がノイズのように表示されることがない。また、対象画像401〜404が互いに差分の大きい領域を含んでいたとしても、対象画像401〜404は合成されないため、互いに差分の大きい領域が重ね合わされることがない。これにより、複数の対象画像401〜404を合成する際に合成画像414の画質の劣化を抑制することができる。 By the way, in the present embodiment, as shown in FIG. 3A, the target images 401 to 404 include the bird 415 as a moving body different from the person 405. Here, when the target images 401 to 404 are simply combined as in the conventional composite image generation process, the moving birds 415 in each target image 401 to 404 are superimposed and displayed, and noise over a predetermined range (for example, The noise 105) in FIG. 7 may be displayed. On the other hand, according to the process of FIG. 2, background images 410 to 413 are generated from the target images 401 to 404, and the main subject images 406 to 409 are overwritten only on one of the background images 410, so that the bird 415 Not superimposed and displayed. As a result, in the composite image 414, only one stationary bird 415 is included (see FIG. 3D), and the bird 415 is not displayed like noise. Further, even if the target images 401 to 404 include regions having a large difference from each other, since the target images 401 to 404 are not combined, the regions having a large difference from each other are not overlapped. As a result, deterioration of the image quality of the composite image 414 can be suppressed when the plurality of target images 401 to 404 are combined.

なお、図2の処理のステップS506では、背景画像候補としての背景画像410の上に主被写体画像406〜409を上書きした。しかしながら、まず、背景分離部308が背景画像410から主被写体画像406〜409に対応する領域の画像の全てを特定した上で除去することによって背景画像候補416(図3(D)参照)(他の背景)を生成してもよい。この場合、背景画像候補416(他の背景)は分離背景保存部309によって一旦、メモリ304に保存され、その後、メモリ304から読み出された背景画像候補416に主被写体画像406〜409が上書きされる。 In step S506 of the process of FIG. 2, the main subject images 406 to 409 were overwritten on the background image 410 as the background image candidate. However, first, the background separation unit 308 identifies and removes all the images in the region corresponding to the main subject images 406 to 409 from the background image 410, thereby removing the background image candidate 416 (see FIG. 3D) (others). Background) may be generated. In this case, the background image candidate 416 (other background) is temporarily stored in the memory 304 by the separated background storage unit 309, and then the background image candidate 416 read from the memory 304 is overwritten with the main subject images 406 to 409. To.

次に、本発明の第2の実施の形態について説明する。第2の実施の形態は、その構成、作用が上述した第1の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用についての説明を行う。 Next, a second embodiment of the present invention will be described. Since the configuration and operation of the second embodiment are basically the same as those of the first embodiment described above, the description of the overlapping configuration and operation is omitted, and the different configurations and operations are described below. Give an explanation.

第1の実施の形態では、各対象画像から主被写体を含む矩形領域を主被写体画像として切り出したが、この場合、主被写体と関連性が高い動体が合成画像に含まれなくなることがある。例えば、図4(A)に示すように、各対象画像として、ボール601を投げる人物602を含む対象画像(フレーム)603〜605が選択された場合であって、人物602が主被写体として選択される場合について説明する。 In the first embodiment, a rectangular region including the main subject is cut out from each target image as the main subject image, but in this case, a moving object highly related to the main subject may not be included in the composite image. For example, as shown in FIG. 4A, when target images (frames) 603 to 605 including a person 602 throwing the ball 601 are selected as each target image, the person 602 is selected as the main subject. This case will be described.

このとき、ボール601は人物602と関連性が高い動体に該当する。また、対象画像603〜605から主被写体画像606〜608が切り出されるが、対象画像605では人物602からボール601が離れているため、対象画像605から切り出される主被写体画像608にはボール601が含まれない。ここで、例えば、主被写体画像606が切り出された対象画像603が背景画像候補として抽出されると、対象画像603には人物602から離れたボール601は含まれない。一方、主被写体画像608にも人物602から離れたボール601が含まれないため、背景画像候補と主被写体画像606〜608を合成して合成画像609を生成した場合、領域610に存在すべきボール601が合成画像609に含まれない。 At this time, the ball 601 corresponds to a moving body that is highly related to the person 602. Further, the main subject images 606 to 608 are cut out from the target images 603 to 605, but since the ball 601 is separated from the person 602 in the target image 605, the main subject image 608 cut out from the target image 605 includes the ball 601. I can't. Here, for example, when the target image 603 from which the main subject image 606 is cut out is extracted as a background image candidate, the target image 603 does not include the ball 601 separated from the person 602. On the other hand, since the main subject image 608 does not include the ball 601 separated from the person 602, the ball that should exist in the region 610 when the background image candidate and the main subject images 606 to 608 are combined to generate the composite image 609. 601 is not included in the composite image 609.

第2の実施の形態では、これに対応して、画像処理装置300が主被写体関連判定部320(関連被写体検出手段,動体検知手段,関連性判定手段)を備える。主被写体関連判定部320は、メモリ304から複数の対象画像を読み出し、各対象画像から動体を検出する。さらに、主被写体関連判定部320は、各対象画像において、検出された動体が主被写体画像に含まれず、且つ主被写体画像と検出された動体含む矩形領域(動体画像)との距離が所定の距離よりも短い場合、当該動体を主被写体に関連する被写体と判定する。本実施の形態では、以降、主被写体に関連する被写体と判定された動体を関連被写体と称する。また、主被写体群検出部307は、各対象画像から検出した主被写体と、各対象画像において関連被写体と判定された各動体とをまとめて主被写体群を生成する。その後、背景分離部308は各対象画像から検出された主被写体群に対応する画像を主被写体群画像として切り出し、各対象画像から主被写体群画像以外の画像を背景画像として切り出す。このとき、分離被写体保存部310は各対象画像から切り出された主被写体群画像をメモリ304に保存する。すなわち、第1の実施の形態では、各対象画像から主被写体のみが切り出されるが、第2の実施の形態では、各対象画像から主被写体だけでなく関連被写体も切り出される。 In the second embodiment, correspondingly, the image processing device 300 includes a main subject-related determination unit 320 (related subject detection means, motion detection means, relevance determination means). The main subject-related determination unit 320 reads out a plurality of target images from the memory 304 and detects a moving object from each target image. Further, in each target image, the main subject-related determination unit 320 does not include the detected moving object in the main subject image, and the distance between the main subject image and the rectangular region (moving object image) including the detected moving object is a predetermined distance. If it is shorter than, the moving object is determined to be a subject related to the main subject. In the present embodiment, a moving object determined to be a subject related to the main subject will be hereinafter referred to as a related subject. In addition, the main subject group detection unit 307 collectively generates a main subject group by combining the main subject detected from each target image and each moving object determined to be a related subject in each target image. After that, the background separation unit 308 cuts out an image corresponding to the main subject group detected from each target image as a main subject group image, and cuts out an image other than the main subject group image from each target image as a background image. At this time, the separated subject storage unit 310 stores the main subject group image cut out from each target image in the memory 304. That is, in the first embodiment, only the main subject is cut out from each target image, but in the second embodiment, not only the main subject but also the related subject is cut out from each target image.

次に、本実施の形態に係る画像処理装置の制御方法としての画像合成処理について説明する。図5は、本実施の形態における画像合成処理を示すフローチャートであり、図6は、本実施の形態における画像合成処理を説明するため図である。 Next, an image composition process as a control method of the image processing device according to the present embodiment will be described. FIG. 5 is a flowchart showing the image composition process in the present embodiment, and FIG. 6 is a diagram for explaining the image composition process in the present embodiment.

まず、システムコントローラー305がユーザーによる主被写体と各対象画像の選択に関する指示を受け付ける(ステップS701)。本実施の形態では、図4(A)に示すような対象画像603〜605が選択される。また、ボール601を投げる人物602が主被写体として選択される。 First, the system controller 305 receives an instruction regarding the selection of the main subject and each target image by the user (step S701). In the present embodiment, the target images 603 to 605 as shown in FIG. 4A are selected. Further, the person 602 who throws the ball 601 is selected as the main subject.

次いで、主被写体関連判定部320がメモリ304から対象画像603〜605を読み出し、各対象画像603〜605から動体を検出する(ステップS702)。動体の検出方法としては、一般に知られる動体検出技術(例えば、画像間における物体の動きベクトルによって動体を検出する方法)を用いる。その後、主被写体関連判定部320は、各対象画像603〜605において、検出された動体が主被写体画像に含まれず、且つ主被写体画像と検出された動体を含む矩形領域(動体画像)との距離が所定の距離よりも短い場合、当該動体を関連被写体と判定する。例えば、図6に示すように、対象画像603では、ボール601を含む矩形領域が動体画像611として検出され、人物602を含む主被写体画像612と動体画像611の距離が所定の距離よりも短い場合、ボール601が関連被写体と判定される。対象画像604では、ボール601を含む矩形領域が動体画像613として検出され、人物602を含む主被写体画像614と動体画像613の距離が所定の距離よりも短い場合、ボール601が関連被写体と判定される。対象画像605では、ボール601を含む矩形領域が動体画像615として検出され、人物602を含む主被写体画像616と動体画像615の距離が所定の距離よりも短い場合、ボール601が関連被写体と判定される。 Next, the main subject-related determination unit 320 reads the target images 603 to 605 from the memory 304, and detects a moving object from the target images 603 to 605 (step S702). As a moving body detection method, a generally known moving body detection technique (for example, a method of detecting a moving body by a motion vector of an object between images) is used. After that, in each target image 603 to 605, the main subject-related determination unit 320 does not include the detected moving object in the main subject image, and the distance between the main subject image and the rectangular region (moving object image) including the detected moving object. Is shorter than a predetermined distance, the moving object is determined to be a related subject. For example, as shown in FIG. 6, in the target image 603, the rectangular region including the ball 601 is detected as the moving object image 611, and the distance between the main subject image 612 including the person 602 and the moving object image 611 is shorter than a predetermined distance. , Ball 601 is determined to be a related subject. In the target image 604, a rectangular region including the ball 601 is detected as a moving object image 613, and when the distance between the main subject image 614 including the person 602 and the moving object image 613 is shorter than a predetermined distance, the ball 601 is determined to be a related subject. To. In the target image 605, a rectangular region including the ball 601 is detected as a moving object image 615, and when the distance between the main subject image 616 including the person 602 and the moving object image 615 is shorter than a predetermined distance, the ball 601 is determined to be a related subject. To.

なお、ボール601が関連被写体か否かの判定は、対象画像603〜605毎に独立して行われるが、一連の対象画像603〜605における動体の合計数や動体の連続性に基づいて、ボール601が関連被写体か否かを判定してもよい。この場合、主被写体関連判定部320(動体数量判定手段,動体連続判定手段)は、各対象画像603〜605に亘り、主被写体画像と動体画像の距離が所定の距離よりも短いと判定された動体(ボール601)の数が、所定の閾値以上であるか否かを判定する。また、主被写体関連判定部320は、各対象画像603〜605に亘り、主被写体画像と動体画像の距離が所定の距離よりも短いと判定された各動体(ボール601)が互いに時系列的に連続するか否かを判定する。その後、主被写体関連判定部320は、これらの判定結果に基づいて、各対象画像603〜605から検出された各ボール601が関連被写体か否かを判定する。 Whether or not the ball 601 is a related subject is determined independently for each of the target images 603 to 605, but the ball is based on the total number of moving objects and the continuity of the moving objects in the series of target images 603 to 605. It may be determined whether or not 601 is a related subject. In this case, the main subject-related determination unit 320 (moving object quantity determining means, moving object continuous determining means) determines that the distance between the main subject image and the moving object image is shorter than a predetermined distance over each target image 603 to 605. It is determined whether or not the number of moving objects (balls 601) is equal to or greater than a predetermined threshold value. Further, in the main subject-related determination unit 320, the moving objects (balls 601) determined to have a distance between the main subject image and the moving object image shorter than a predetermined distance are in chronological order with each other over each target image 603 to 605. Determine if it is continuous. After that, the main subject-related determination unit 320 determines whether or not each ball 601 detected from each of the target images 603 to 605 is a related subject based on these determination results.

次いで、主被写体群検出部307は、各対象画像603〜605から検出した主被写体と、各対象画像において関連被写体と判定された各動体とをまとめて主被写体群を生成する(ステップS703)。その後、フレーム読み出し部306がメモリ304から対象画像603〜605を順に読み出す(ステップS704)。 Next, the main subject group detection unit 307 generates a main subject group by collecting the main subject detected from each target image 603 to 605 and each moving object determined to be a related subject in each target image (step S703). After that, the frame reading unit 306 reads the target images 603 to 605 in order from the memory 304 (step S704).

次いで、ステップS705において、システムコントローラー305は、対象画像603〜605の各々から検出された動体が関連被写体と判定されたか否かを判定する。動体が関連被写体と判定された場合(ステップS705でYES)、背景分離部308は当該対象画像から主被写体画像と動体画像をまとめて主被写体群画像として切り出す(ステップS706)。また、背景分離部308は当該対象画像から主被写体画像と動体画像を分離して残りの画像を背景画像として切り出す。一方、動体が関連被写体と判定されなかった場合(ステップS705でNO)、背景分離部308は当該対象画像から主被写体画像のみを切り出すとともに、当該対象画像から主被写体画像を分離して残りの画像を背景画像として切り出す(ステップS707)。切り出された背景画像は分離背景保存部309によってメモリ304に保存され、切り出された主被写体群画像や主被写体画像は分離被写体保存部310によってメモリ304に保存される。 Next, in step S705, the system controller 305 determines whether or not the moving object detected from each of the target images 603 to 605 is determined to be a related subject. When the moving object is determined to be a related subject (YES in step S705), the background separation unit 308 cuts out the main subject image and the moving object image together as the main subject group image from the target image (step S706). Further, the background separation unit 308 separates the main subject image and the moving object image from the target image, and cuts out the remaining image as the background image. On the other hand, when the moving object is not determined to be a related subject (NO in step S705), the background separation unit 308 cuts out only the main subject image from the target image, separates the main subject image from the target image, and leaves the remaining image. Is cut out as a background image (step S707). The cut-out background image is saved in the memory 304 by the separated background storage unit 309, and the cut out main subject group image and the main subject image are saved in the memory 304 by the separated subject storage unit 310.

このとき、各対象画像の各々は、当該対象画像から切り出された主被写体画像又は主被写体群画像、主被写体画像又は主被写体群画像の領域情報及び当該対象画像から切り出された背景画像と関連づけられる。なお、本実施の形態では、例えば、対象画像604から検出された動体が関連被写体と判定されると、対象画像604から主被写体画像614と動体画像613がまとめて主被写体群画像として切り出される。また、例えば、対象画像605から検出された動体が関連被写体と判定されないと、対象画像605から主被写体画像616のみが主被写体画像として切り出される。 At this time, each of the target images is associated with the main subject image or the main subject group image cut out from the target image, the area information of the main subject image or the main subject group image, and the background image cut out from the target image. .. In the present embodiment, for example, when the moving object detected from the target image 604 is determined to be a related subject, the main subject image 614 and the moving object image 613 are collectively cut out as the main subject group image from the target image 604. Further, for example, if the moving object detected from the target image 605 is not determined to be a related subject, only the main subject image 616 is cut out from the target image 605 as the main subject image.

次いで、システムコントローラー305は全ての対象画像603〜605がメモリ304から読み出されたか否かを判定し(ステップS708)、全ての対象画像603〜605が読み出されていない場合にはステップS704に戻る。また、全ての対象画像が読み出されている場合にはステップS709に進む。 Next, the system controller 305 determines whether or not all the target images 603 to 605 have been read from the memory 304 (step S708), and if all the target images 603 to 605 have not been read, the process proceeds to step S704. go back. If all the target images have been read, the process proceeds to step S709.

ステップS709では、分離背景読み出し部312がメモリ304に保存された各背景画像を読み出し、背景比較抽出部311は各背景画像から図2の処理におけるステップS505と同様の方法によって背景画像候補を抽出する。その後、分離被写体読み出し部314はメモリ304から各主被写体群画像又は各主被写体画像を読み出し、映像合成処理部313は、背景比較抽出部311が抽出した背景画像候補と、各主被写体群画像又は各主被写体画像とを合成する。ここでも、背景画像と各主被写体群画像又は各主被写体画像との合成は、各画像の平均値や重み付けに基づいて行わず、単純に背景画像の上に各主被写体群画像又は各主被写体画像を上書きして行う。その後、画像処理部315は合成された各主被写体群画像又は各主被写体画像と背景画像の画角調整や色変換を行って合成画像617を生成し(ステップS706)、本処理を終了する。 In step S709, the separation background reading unit 312 reads each background image stored in the memory 304, and the background comparison extraction unit 311 extracts background image candidates from each background image by the same method as in step S505 in the process of FIG. .. After that, the separated subject reading unit 314 reads each main subject group image or each main subject image from the memory 304, and the video composition processing unit 313 reads the background image candidate extracted by the background comparison extraction unit 311 and each main subject group image or each main subject group image. Combine with each main subject image. Again, the background image and each main subject group image or each main subject image are not combined based on the average value or weighting of each image, but simply on the background image, each main subject group image or each main subject. Overwrite the image. After that, the image processing unit 315 performs angle-of-view adjustment and color conversion of each of the combined main subject group images or each main subject image and the background image to generate a composite image 617 (step S706), and ends this processing.

図5の処理によれば、対象画像から動体が検出され、対象画像の主被写体画像と検出された動体を含む動体画像との距離が所定の距離よりも短い場合、対象画像から主被写体画像と動体画像がまとめて主被写体群画像として切り出される。さらに、切り出された主被写体群画像が背景画像候補と合成されて合成画像が生成される。これにより、主被写体画像との距離が所定の距離よりも短い動体画像であれば、当該動体画像は合成画像に含まれる。具体的には、図6の合成画像617において、人物602からやや離れた領域618にボール601が存在する。ここで、主被写体画像との距離が所定の距離よりも短い動体画像は主被写体と関連性が高い動体の画像と考えられる。すなわち、図5の処理により、主被写体と関連性が高い動体が合成画像に含まれなくなるのを防止することができる。 According to the process of FIG. 5, when a moving object is detected from the target image and the distance between the main subject image of the target image and the moving object image including the detected moving object is shorter than a predetermined distance, the target image is changed to the main subject image. The moving object images are collectively cut out as the main subject group image. Further, the cut out main subject group image is combined with the background image candidate to generate a composite image. As a result, if the distance to the main subject image is shorter than a predetermined distance, the moving object image is included in the composite image. Specifically, in the composite image 617 of FIG. 6, the ball 601 exists in a region 618 slightly distant from the person 602. Here, a moving object image in which the distance to the main subject image is shorter than a predetermined distance is considered to be an image of a moving object having a high relevance to the main subject. That is, by the processing of FIG. 5, it is possible to prevent the moving object that is highly related to the main subject from being included in the composite image.

以上、本発明の好ましい各実施の形態について説明したが、本発明は上述した各実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

本発明は、上述した各実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of each of the above-described embodiments to a system or device via a network or storage medium, and one or more processors of the computer of the system or device implements the program. It can also be realized by the process of reading and executing. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

また、上述した各実施の形態では、本発明をカメラ等の撮像装置に適用した場合について説明したが、本発明は、動きのある被写体を含む時系列的に連続する複数の画像を処理する機器であれば、適用することできる。例えば、本発明は、PC、モバイル機器(タブレットやスマートフォン等)にも適用することができる。 Further, in each of the above-described embodiments, the case where the present invention is applied to an imaging device such as a camera has been described, but the present invention is a device that processes a plurality of consecutive images in a time series including a moving subject. If so, it can be applied. For example, the present invention can also be applied to PCs and mobile devices (tablets, smartphones, etc.).

300 画像処理装置
304 メモリ
305 システムコントローラー
306 フレーム読み出し部
307 主被写体群検出部
308 背景分離部
309 分離背景保存部
310 分離被写体保存部
311 背景比較抽出部
313 映像合成処理部
320 主被写体関連判定部
300 Image processing device 304 Memory 305 System controller 306 Frame reading unit 307 Main subject group detection unit 308 Background separation unit 309 Separated background storage unit 310 Separated subject storage unit 311 Background comparison extraction unit 313 Image composition processing unit 320 Main subject-related judgment unit

Claims (11)

時系列的に連続する複数の画像を取得する画像取得手段と、
前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存手段と、
前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出手段と、
前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成手段と、を備えることを特徴とする画像処理装置。
An image acquisition means for acquiring a plurality of consecutive images in chronological order,
An image storage means that separates a subject from each of the acquired plurality of images to acquire a background, and stores the plurality of the subjects and the plurality of backgrounds acquired from the plurality of images.
A background extraction means for comparing the plurality of stored backgrounds with each other and extracting one background having the smallest difference from the other backgrounds.
An image processing apparatus comprising: a composite image generation means for synthesizing a plurality of subjects to generate a composite image on the extracted background.
前記背景抽出手段は、時系列的に隣接する2つの前記背景を互いに比較することを特徴とする請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the background extraction means compares two adjacent backgrounds in time series with each other. 前記画像取得手段は、
複数の静止画像から時系列的に連続する複数の静止画像を取得する静止画像取得手段と、
動画から時系列的に連続する複数のフレームを取得するフレーム取得手段と、を有することを特徴とする請求項1記載の画像処理装置。
The image acquisition means
A still image acquisition means for acquiring a plurality of continuous still images in chronological order from a plurality of still images,
The image processing apparatus according to claim 1, further comprising a frame acquisition means for acquiring a plurality of consecutive frames in time series from a moving image.
前記画像保存手段は、
前記取得された複数の画像の各々において前記被写体を検出する被写体検出手段と、
各前記画像において前記検出された被写体を含む範囲を特定する被写体範囲特定手段と、
各前記画像から前記特定された範囲を切り出し、前記被写体として保存する被写体保存手段と、
各前記画像から前記特定された範囲とは別の領域を切り出し、前記背景として保存する背景保存手段と、を有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The image storage means
A subject detecting means for detecting the subject in each of the acquired plurality of images,
A subject range specifying means for specifying a range including the detected subject in each of the images, and
A subject saving means for cutting out the specified range from each of the images and saving the subject as the subject.
The image processing apparatus according to any one of claims 1 to 3, further comprising a background storage means for cutting out an area different from the specified range from each image and storing it as the background. ..
前記被写体検出手段は、
前記取得された複数の画像の各々において主被写体を検出する主被写体検出手段と、
前記取得された複数の画像の各々において前記主被写体と関連する関連被写体を検出する関連被写体検出手段と、を有し、
同じ前記画像から検出された前記主被写体と前記関連被写体を被写体群として検出することを特徴とする請求項4記載の画像処理装置。
The subject detection means
A main subject detecting means for detecting a main subject in each of the plurality of acquired images,
Each of the acquired plurality of images has a related subject detecting means for detecting a related subject related to the main subject.
The image processing apparatus according to claim 4, wherein the main subject and the related subject detected from the same image are detected as a subject group.
前記関連被写体検出手段は、
前記複数の画像において前記主被写体とは別の動きのある被写体である動体を検知する動体検知手段と、
前記検出された動体と前記主被写体の距離が、所定の距離よりも短いか否かを判定する関連性判定手段と、を有し、
前記関連被写体検出手段は、前記主被写体との距離が前記所定の距離よりも短いと判定された動体を前記関連被写体として検出することを特徴とする請求項5記載の画像処理装置。
The related subject detection means
A moving object detecting means for detecting a moving object which is a moving subject different from the main subject in the plurality of images,
It has a relevance determining means for determining whether or not the distance between the detected moving object and the main subject is shorter than a predetermined distance.
The image processing apparatus according to claim 5, wherein the related subject detecting means detects a moving object whose distance to the main subject is determined to be shorter than the predetermined distance as the related subject.
前記関連性判定手段は、
前記主被写体との距離が前記所定の距離よりも短いと判定された動体の数が、所定の閾値以上であるか否かを判定する動体数量判定手段と、
各前記主被写体との距離が前記所定の距離よりも短いと判定された動体が、互いに時系列的に連続するか否かを判定する動体連続判定手段と、を有し、
前記関連被写体検出手段は、前記動体数量判定手段の判定結果及び前記動体連続判定手段の判定結果に基づいて、前記関連被写体を検出することを特徴とする請求項6記載の画像処理装置。
The relevance determination means
A moving object quantity determining means for determining whether or not the number of moving objects determined to have a distance to the main subject shorter than the predetermined distance is equal to or greater than a predetermined threshold value.
It has a moving body continuous determination means for determining whether or not moving objects determined to have a distance to each of the main subjects shorter than the predetermined distance are continuous with each other in time series.
The image processing apparatus according to claim 6, wherein the related subject detecting means detects the related subject based on the determination result of the moving object quantity determining means and the determination result of the moving object continuous determining means.
前記被写体範囲特定手段は、各前記画像において前記検出された被写体を含む範囲の全てを特定することを特徴とする請求項4記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the subject range specifying means specifies the entire range including the detected subject in each of the images. 前記背景保存手段は、各前記保存された背景から前記特定された範囲の全てを除去し、前記特定された範囲の全てが除去された背景を他の背景として保存することを特徴とする請求項8記載の画像処理装置。 The background preservation means is characterized in that all of the specified range is removed from each of the preserved backgrounds, and the background from which all of the specified ranges are removed is preserved as another background. 8. The image processing apparatus according to 8. 時系列的に連続する複数の画像を取得する画像取得工程と、
前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存工程と、
前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出工程と、
前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成工程と、を有することを特徴とする画像処理装置の制御方法。
An image acquisition process that acquires multiple images that are continuous in chronological order,
An image storage step of separating a subject from each of the acquired plurality of images to acquire a background, and storing the plurality of the subjects and the plurality of backgrounds acquired from the plurality of images.
A background extraction step of comparing the plurality of saved backgrounds with each other and extracting one background having the smallest difference from other backgrounds.
A control method for an image processing apparatus, which comprises a composite image generation step of synthesizing a plurality of subjects to generate a composite image on the extracted background.
画像処理装置の制御方法をコンピュータに実行させるプログラムであって、
前記制御方法は、
時系列的に連続する複数の画像を取得する画像取得工程と、
前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存工程と、
前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出工程と、
前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成工程と、を有することを特徴とするプログラム。


A program that causes a computer to execute the control method of an image processing device.
The control method is
An image acquisition process that acquires multiple images that are continuous in chronological order,
An image storage step of separating a subject from each of the acquired plurality of images to acquire a background, and storing the plurality of the subjects and the plurality of backgrounds acquired from the plurality of images.
A background extraction step of comparing the plurality of saved backgrounds with each other and extracting one background having the smallest difference from other backgrounds.
A program characterized by having a composite image generation step of synthesizing a plurality of subjects to generate a composite image on the extracted background.


JP2019144702A 2019-08-06 2019-08-06 IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF Active JP7266490B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019144702A JP7266490B2 (en) 2019-08-06 2019-08-06 IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019144702A JP7266490B2 (en) 2019-08-06 2019-08-06 IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF

Publications (2)

Publication Number Publication Date
JP2021027486A true JP2021027486A (en) 2021-02-22
JP7266490B2 JP7266490B2 (en) 2023-04-28

Family

ID=74664150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019144702A Active JP7266490B2 (en) 2019-08-06 2019-08-06 IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF

Country Status (1)

Country Link
JP (1) JP7266490B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005452A (en) * 2004-06-15 2006-01-05 Nippon Hoso Kyokai <Nhk> Image composite apparatus and image composite system
JP2006203444A (en) * 2005-01-19 2006-08-03 Inc Corp Background image formation device and program
JP2011172103A (en) * 2010-02-19 2011-09-01 Olympus Imaging Corp Image generating apparatus
WO2018107197A1 (en) * 2016-12-13 2018-06-21 Canon Kabushiki Kaisha Method, system and apparatus for configuring a virtual camera
JP2019101996A (en) * 2017-12-07 2019-06-24 キヤノン株式会社 Image processing apparatus and image processing method reducing noise by composing plural captured images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005452A (en) * 2004-06-15 2006-01-05 Nippon Hoso Kyokai <Nhk> Image composite apparatus and image composite system
JP2006203444A (en) * 2005-01-19 2006-08-03 Inc Corp Background image formation device and program
JP2011172103A (en) * 2010-02-19 2011-09-01 Olympus Imaging Corp Image generating apparatus
WO2018107197A1 (en) * 2016-12-13 2018-06-21 Canon Kabushiki Kaisha Method, system and apparatus for configuring a virtual camera
JP2019101996A (en) * 2017-12-07 2019-06-24 キヤノン株式会社 Image processing apparatus and image processing method reducing noise by composing plural captured images

Also Published As

Publication number Publication date
JP7266490B2 (en) 2023-04-28

Similar Documents

Publication Publication Date Title
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
US10366504B2 (en) Image processing apparatus and image processing method for performing three-dimensional reconstruction of plurality of images
CN112703533B (en) Object tracking
EP3008696B1 (en) Tracker assisted image capture
KR102356448B1 (en) Method for composing image and electronic device thereof
EP3104332B1 (en) Digital image manipulation
JP4181473B2 (en) Video object trajectory synthesis apparatus, method and program thereof
JPWO2006025272A1 (en) Video classification device, video classification program, video search device, and video search program
US8897603B2 (en) Image processing apparatus that selects a plurality of video frames and creates an image based on a plurality of images extracted and selected from the frames
JP6362085B2 (en) Image recognition system, image recognition method and program
JP2006330800A (en) Image synthesis system, image synthesis method, and program of the method
JP6907274B2 (en) Imaging device and imaging method
JP4911191B2 (en) Image processing apparatus and image processing program
JP2010239605A (en) Video editing device
EP2709062A2 (en) Image processing device, image processing method, and computer readable medium
WO2014013673A1 (en) Moving image generation device and moving image generation method
JP4496992B2 (en) Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium
JP2019186689A (en) Information processing apparatus, system, analysis method, computer program, and storage medium
US10296539B2 (en) Image extraction system, image extraction method, image extraction program, and recording medium storing program
JP2005159781A (en) Image selecting processing apparatus, image selecting method, program thereof, and recording medium
JP6272071B2 (en) Image processing apparatus, image processing method, and program
JP2014110020A (en) Image processor, image processing method and image processing program
JP7266490B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF
JP6632134B2 (en) Image processing apparatus, image processing method, and computer program
JP5111269B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230418

R151 Written notification of patent or utility model registration

Ref document number: 7266490

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151