JP2021027486A - Image processing device, control method thereof, and program - Google Patents
Image processing device, control method thereof, and program Download PDFInfo
- Publication number
- JP2021027486A JP2021027486A JP2019144702A JP2019144702A JP2021027486A JP 2021027486 A JP2021027486 A JP 2021027486A JP 2019144702 A JP2019144702 A JP 2019144702A JP 2019144702 A JP2019144702 A JP 2019144702A JP 2021027486 A JP2021027486 A JP 2021027486A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- background
- images
- main subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 39
- 239000002131 composite material Substances 0.000 claims abstract description 38
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 15
- 238000004321 preservation Methods 0.000 claims 1
- 230000006866 deterioration Effects 0.000 abstract description 4
- 239000000203 mixture Substances 0.000 description 14
- 238000000926 separation method Methods 0.000 description 14
- 238000011156 evaluation Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、複数の画像を合成する画像処理装置、その制御方法及びプログラムに関する。 The present invention relates to an image processing device that synthesizes a plurality of images, a control method and a program thereof.
近年、動画から取得された複数の画像や連写によって取得された複数の画像に基づいて被写体の動きを1枚の画像に合成する技術が知られている。例えば、背景が一様である撮像環境で動きのある被写体を連続撮影して複数の画像を得、その後、これらの画像を合成した場合、動きのある被写体のみが複数表示された合成画像が得られる。この合成画像では、1つの画像で被写体の動きを時系列的に確認できるため、静止画像でありながら被写体の動きを動画のように表現できる。通常、このような合成画像は、PC等において描画ツールを用いて作業者が手作業で作成するために非常に手間を要する。そこで、このような合成画像を自動で生成する技術が幾つか提案されている。 In recent years, there has been known a technique of synthesizing the movement of a subject into one image based on a plurality of images acquired from a moving image or a plurality of images acquired by continuous shooting. For example, when a moving subject is continuously photographed in an imaging environment with a uniform background to obtain a plurality of images, and then these images are combined, a composite image in which only the moving subject is displayed is obtained. Be done. In this composite image, the movement of the subject can be confirmed in time series with one image, so that the movement of the subject can be expressed like a moving image even though it is a still image. Usually, such a composite image requires a great deal of time and effort for an operator to manually create such a composite image using a drawing tool on a PC or the like. Therefore, some techniques for automatically generating such a composite image have been proposed.
ところで、このような合成画像を得るために複数の画像を取得する際、背景が一様ではなく被写体とは別の動きのある物体が存在すると、合成画像に別の物体が重畳されてノイズのように表示される。例えば、図7に示すように、連続撮影によって得られた複数の画像群101の各画像に被写体である人物102とは別の物体である鳥103が含まれると、合成画像104において各画像の鳥103が移動しながら重畳されたノイズ105が表示される。
By the way, when acquiring a plurality of images in order to obtain such a composite image, if there is an object whose background is not uniform and has a movement different from that of the subject, another object is superimposed on the composite image and noise is generated. Is displayed. For example, as shown in FIG. 7, when each image of the plurality of
これに対して、ノイズの要因となる動きのある物体を削除する技術も提案されている。例えば、特許文献1の技術では、連続撮影によって得られた複数の画像において、少なくとも2つの画像の同じ位置に存在する物体以外の物体を削除することにより、動きのある物体を削除する。また、動画から動いている物体をすべて削除するアプリケーションも知られている(例えば、株式会社ViRD製、「VANISH360」、http://vird.co.jp/product/vanish360/ 参照)。 On the other hand, a technique for deleting a moving object that causes noise has also been proposed. For example, in the technique of Patent Document 1, in a plurality of images obtained by continuous shooting, a moving object is deleted by deleting an object other than an object existing at the same position in at least two images. An application that deletes all moving objects from a video is also known (see, for example, ViRD Co., Ltd., "VANISH360", http://vird.co.jp/product/vanish360/).
また、主被写体とは別の動きのある被写体(以下「動体」と称する。)を削除した合成画像を生成する構成として、例えば、図8に示す構成が知られている。 Further, for example, the configuration shown in FIG. 8 is known as a configuration for generating a composite image in which a subject having a movement different from the main subject (hereinafter referred to as “moving object”) is deleted.
図8において、当該構成では、記録メディア201に静止画像データ又は動画データが記録され、ドライブユニット202は、記録メディア201から静止画像データ又は動画データを取得する。復号化ユニット203は取得されたデータを復号し、復号化された静止画像データ又は動画データをメモリ204へ出力する。合成画像を生成する際、ユーザーはシステムコントローラー205に対して合成される複数の画像を読み込むための指示を出す。該指示に応じてフレーム読み出し部206はメモリ204から静止画像データ又は動画データ内の指示に対応する複数のフレーム(時系列的に連続する複数の画像)を読み出す。その後、主被写体群検出部207は各フレームから主被写体を検出し、動体削除部208は主被写体外の動体を各フレームから削除する。その後、映像合成処理部209は動体が削除された各フレームを合成し、画像処理部210は合成された各フレームの画角調整や色変換を行って合成画像を生成し、表示装置211は合成画像を表示する。
In FIG. 8, in this configuration, still image data or moving image data is recorded on the
しかしながら、図8の構成では、動体が削除された各フレームを合成するため、各フレームが互いに差分の大きい領域を含んでいると、当該領域が重ね合わされる。その結果、合成画像の画質が劣化するという問題がある。また、例え、図8の構成において、動体を削除すること無く各フレームを合成する場合でもあっても、やはり、互いに差分の大きい領域は重ね合わされるため、同様の問題が生じる。 However, in the configuration of FIG. 8, since each frame in which the moving body is deleted is combined, if each frame contains a region having a large difference from each other, the regions are overlapped. As a result, there is a problem that the image quality of the composite image is deteriorated. Further, even in the case of synthesizing the frames without deleting the moving body in the configuration of FIG. 8, the same problem occurs because the regions having a large difference from each other are overlapped.
本発明の目的は、複数の画像を合成する際に合成画像の画質の劣化を抑制することができる画像処理装置、その制御方法及びプログラムを提供することにある。 An object of the present invention is to provide an image processing device capable of suppressing deterioration of the image quality of a composite image when synthesizing a plurality of images, a control method and a program thereof.
上記目的を達成するために、本発明の画像処理装置は、時系列的に連続する複数の画像を取得する画像取得手段と、前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存手段と、前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出手段と、前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成手段と、を備えることを特徴とする。 In order to achieve the above object, the image processing apparatus of the present invention separates a subject from each of an image acquisition means for acquiring a plurality of images that are continuous in time series and the plurality of acquired images to obtain a background. An image saving means that acquires and saves the plurality of subjects and the plurality of backgrounds acquired from the plurality of images, and the plurality of saved backgrounds are compared with each other, and the difference from the other backgrounds is the smallest. It is characterized by including a background extraction means for extracting the background of the above, and a composite image generation means for generating a composite image by synthesizing the plurality of subjects on the extracted one background.
本発明によれば、複数の画像を合成する際に合成画像の画質の劣化を抑制することができる。 According to the present invention, when a plurality of images are combined, deterioration of the image quality of the combined image can be suppressed.
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の実施の形態に記載される構成はあくまで例示に過ぎず、本発明の範囲は実施の形態に記載される構成によって限定されることはない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in the embodiments.
まず、第1の実施の形態について説明する。図1は、本実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。図1において、例えば、カメラ等の撮像装置である画像処理装置300は、記録メディア301が接続又は装着されるドライブユニット302と、復号化ユニット303と、メモリ304と、システムコントローラー305とを備える。また、画像処理装置300は、フレーム読み出し部306(画像取得手段,静止画像取得手段,フレーム取得手段)と、主被写体群検出部307(被写体検出手段,主被写体検出手段)と、背景分離部308(画像保存手段、被写体範囲特定手段)とを備える。さらに、画像処理装置300は、分離背景保存部309(背景保存手段)と、分離被写体保存部310(被写体保存手段)と、背景比較抽出部311(背景抽出手段)と、分離背景読み出し部312とを備える。また、当該画像処理装置300は、映像合成処理部313(合成画像生成手段)と、分離被写体読み出し部314と、画像処理部315と、表示装置316とを備える。
First, the first embodiment will be described. FIG. 1 is a block diagram schematically showing a configuration of an image processing apparatus according to the present embodiment. In FIG. 1, for example, an
画像処理装置300において、記録メディア301は静止画像データ又は動画データを記録し、ドライブユニット302は、記録メディア301から静止画像データ又は動画データを取得する。復号化ユニット303は取得されたデータを復号し、復号化された静止画像データ又は動画データをメモリ304へ出力する。システムコントローラー305は、画像処理装置300の各構成要素の動作を制御する。フレーム読み出し部306はメモリ304から静止画像データ又は動画データ内の複数のフレーム(時系列的に連続する複数の画像)を読み出す。主被写体群検出部307は各フレームから主被写体を検出し、背景分離部308は各フレームから検出された主被写体を含む範囲の画像を主被写体画像として切り出し、各フレームから主被写体画像を分離して残りの画像を背景画像として切り出す。分離背景保存部309は各フレームから切り出された背景画像をメモリ304に保存し、分離被写体保存部310は各フレームから切り出された主被写体画像をメモリ304に保存する。
In the
また、分離背景読み出し部312はメモリ304に保存された各背景画像をメモリ304から読み出す。背景比較抽出部311は、各背景画像から合成対象となる背景画像候補(一の背景)を抽出する。分離被写体読み出し部314はメモリ304から各主被写体画像を読み出し、映像合成処理部313は、背景比較抽出部311が抽出した背景画像候補と、読み出した各主被写体画像とを合成する。画像処理部315は合成された各主被写体画像と背景画像候補の画角調整や色変換を行って合成画像を生成し、表示装置316は合成画像を表示する。
Further, the separated
次に、本実施の形態に係る画像処理装置の制御方法としての画像合成処理について説明する。図2は、本実施の形態における画像合成処理を示すフローチャートであり、図3は、本実施の形態における画像合成処理を説明するための工程図である。 Next, an image composition process as a control method of the image processing device according to the present embodiment will be described. FIG. 2 is a flowchart showing an image composition process according to the present embodiment, and FIG. 3 is a process diagram for explaining the image composition process according to the present embodiment.
まず、システムコントローラー305がユーザーによる主被写体と合成対象となる時系列的に連続する複数の画像との選択に関する指示を受け付ける(ステップS501)。なお、本実施の形態では、以下、合成対象となる画像を対象画像と称する。本実施の形態では、各対象画像として、自転車に乗った人物と、背景として映り込んだ家や林とを含む対象画像(フレーム)401〜404が選択される。また、自転車に乗った人物405が主被写体として選択される。
First, the
次いで、フレーム読み出し部306がメモリ304から対象画像401〜404を順に読み出す(ステップS502)。その後、主被写体群検出部307は読み出された各対象画像401〜404から人物405を検出し、各対象画像401〜404において人物405を含む矩形領域を主被写体画像として検出する。具体的には、各対象画像401〜404において人物405を含む主被写体画像406〜409を規定し、各主被写体画像406〜409の領域情報をメモリ304に格納する(図3(A))。例えば、対象画像401における主被写体画像406の領域情報(x1、y1、Lx1、Ly1)がメモリ304に格納される。ここで、(x1、y1)は主被写体画像406の図中左上の座標を示し、(Lx1)は主被写体画像406の図中の横長さを示し、(Ly1)は主被写体画像406の図中の縦長さを示す。次いで、背景分離部308は各対象画像401〜404から主被写体画像406〜409を切り出すとともに、各対象画像401〜404から主被写体画像406〜409を分離して残りの画像を背景画像として切り出す(ステップS503)。切り出された背景画像410〜413は分離背景保存部309によってメモリ304に保存され、切り出された主被写体画像406〜409は分離被写体保存部310によってメモリ304に保存される。このとき、各対象画像の各々は、当該対象画像から切り出された主被写体画像、該主被写体画像の領域情報及び当該対象画像から切り出された背景画像と関連づけられる。なお、本実施の形態では、対象画像401から主被写体画像406が切り出されて背景画像410が生成され、対象画像402から主被写体画像407が切り出されて背景画像411が生成される。また、対象画像403から主被写体画像408が切り出されて背景画像412が生成され、対象画像404から主被写体画像409が切り出されて背景画像413が生成される(図3(B))。
Next, the
次いで、システムコントローラー305は全ての対象画像がメモリ304から読み出されたか否かを判定する(ステップS504)。ここで、全ての対象画像が読み出されていない場合にはステップS502に戻り、全ての対象画像が読み出されている場合にはステップS505に進む。
Next, the
ステップS505では、分離背景読み出し部312がメモリ304に保存された各背景画像410〜413を読み出し、背景比較抽出部311は各背景画像410〜413から背景画像候補を抽出する。このとき、背景比較抽出部311は、各背景画像の一つと、当該一つの背景画像と時系列的に前後に位置する(時系列的に隣接する)各背景画像とを比較して一致度合いを示す比較結果値を算出する。さらに、背景比較抽出部311は、各背景画像の比較結果値を比較し、比較結果値が最も高い一の背景画像を背景画像候補として抽出する。
In step S505, the separation
ステップS505における比較結果値の算出では、一般に利用される画像マッチング技術により、一致度合いが高い(差分が小さい)程、高い比較結果値が算出される。なお、ステップS505では、背景画像間の一致度合いを何らかの指標で取得できればよいので、一般に知られる他の技術を利用してもよい。ここで、一つの背景画像に時系列的に前後に位置する各背景画像(それぞれ「前背景画像」及び「後背景画像」と称する。)が存在する場合、一つの背景画像と前背景画像との比較結果値を得、さらに、一つの背景画像と後背景画像との比較結果値を得る。そして、2つの比較結果値の平均を評価値として一つの背景画像に関連づける。一つの背景画像に後背景画像のみが存在する場合、一つの背景画像と後背景画像との比較結果値を得、この比較結果値を評価値として一つの背景画像に関連づける。また、一つの背景画像に前背景画像のみが存在する場合、一つの背景画像と前背景画像との比較結果値を得、この比較結果値を評価値として一つの背景画像に関連づける。 In the calculation of the comparison result value in step S505, the higher the degree of matching (the smaller the difference), the higher the comparison result value is calculated by the commonly used image matching technique. In step S505, it suffices if the degree of agreement between the background images can be obtained by some index, and thus other generally known techniques may be used. Here, when each background image (referred to as "front background image" and "back background image", respectively) located before and after in time series exists in one background image, one background image and one background image are used. The comparison result value of is obtained, and further, the comparison result value of one background image and the back background image is obtained. Then, the average of the two comparison result values is used as the evaluation value and associated with one background image. When only the back background image exists in one background image, the comparison result value between one background image and the back background image is obtained, and this comparison result value is used as an evaluation value and associated with one background image. Further, when only the foreground image exists in one background image, the comparison result value between one background image and the foreground image is obtained, and this comparison result value is used as an evaluation value and associated with one background image.
例えば、本実施の形態では、図3(C)に示すように、背景画像410と背景画像411の一致度合いとして比較結果値C1が算出され、背景画像411と背景画像412の一致度合いとして比較結果値C2が算出される。また、背景画像412と背景画像413の一致度合いとして比較結果値C3が算出される。そして、背景画像411には、比較結果値C1と比較結果値C2の平均が評価値T2として関連づけられ、背景画像412には、比較結果値C2と比較結果値C3の平均が評価値T3として関連づけられる。また、背景画像410には比較結果値C1が評価値T1として関連づけられ、背景画像413には比較結果値C3が評価値T4として関連づけられる。ステップS505では、例えば、評価値T1が最も高い場合、背景比較抽出部311は、背景画像410を背景画像候補として抽出し、メモリ304に保存する。
For example, in the present embodiment, as shown in FIG. 3C, the comparison result value C1 is calculated as the degree of agreement between the
次いで、分離被写体読み出し部314はメモリ304から主被写体画像406〜409を読み出し、映像合成処理部313は、背景比較抽出部311が抽出した背景画像候補(背景画像410)と、主被写体画像406〜409を合成する。背景画像410と主被写体画像406〜409の合成は、各画像の平均値や重み付けに基づいて行わず、単純に背景画像410の上に主被写体画像406〜409を上書きして行う。その後、画像処理部315は合成された主被写体画像406〜409と背景画像410の画角調整や色変換を行って合成画像414(図3(D)参照)を生成し(ステップS506)、本処理を終了する。
Next, the separated
ところで、本実施の形態では、図3(A)に示すように、対象画像401〜404に、人物405とは別の動体として鳥415が含まれる。ここで、従来の合成画像の生成処理のように、単純に対象画像401〜404を合成すると、各対象画像401〜404において移動する鳥415が重畳表示されて所定の範囲にまたがるノイズ(例えば、図7のノイズ105)のように表示されるおそれがある。これに対し、図2の処理によれば、対象画像401〜404から背景画像410〜413を生成し、そのうちの1つの背景画像410のみに主被写体画像406〜409を上書きするので、鳥415が重畳表示されない。その結果、合成画像414では、1羽の静止状態の鳥415が含まれるのみとなり(図3(D)参照)、鳥415がノイズのように表示されることがない。また、対象画像401〜404が互いに差分の大きい領域を含んでいたとしても、対象画像401〜404は合成されないため、互いに差分の大きい領域が重ね合わされることがない。これにより、複数の対象画像401〜404を合成する際に合成画像414の画質の劣化を抑制することができる。
By the way, in the present embodiment, as shown in FIG. 3A, the
なお、図2の処理のステップS506では、背景画像候補としての背景画像410の上に主被写体画像406〜409を上書きした。しかしながら、まず、背景分離部308が背景画像410から主被写体画像406〜409に対応する領域の画像の全てを特定した上で除去することによって背景画像候補416(図3(D)参照)(他の背景)を生成してもよい。この場合、背景画像候補416(他の背景)は分離背景保存部309によって一旦、メモリ304に保存され、その後、メモリ304から読み出された背景画像候補416に主被写体画像406〜409が上書きされる。
In step S506 of the process of FIG. 2, the main
次に、本発明の第2の実施の形態について説明する。第2の実施の形態は、その構成、作用が上述した第1の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用についての説明を行う。 Next, a second embodiment of the present invention will be described. Since the configuration and operation of the second embodiment are basically the same as those of the first embodiment described above, the description of the overlapping configuration and operation is omitted, and the different configurations and operations are described below. Give an explanation.
第1の実施の形態では、各対象画像から主被写体を含む矩形領域を主被写体画像として切り出したが、この場合、主被写体と関連性が高い動体が合成画像に含まれなくなることがある。例えば、図4(A)に示すように、各対象画像として、ボール601を投げる人物602を含む対象画像(フレーム)603〜605が選択された場合であって、人物602が主被写体として選択される場合について説明する。
In the first embodiment, a rectangular region including the main subject is cut out from each target image as the main subject image, but in this case, a moving object highly related to the main subject may not be included in the composite image. For example, as shown in FIG. 4A, when target images (frames) 603 to 605 including a
このとき、ボール601は人物602と関連性が高い動体に該当する。また、対象画像603〜605から主被写体画像606〜608が切り出されるが、対象画像605では人物602からボール601が離れているため、対象画像605から切り出される主被写体画像608にはボール601が含まれない。ここで、例えば、主被写体画像606が切り出された対象画像603が背景画像候補として抽出されると、対象画像603には人物602から離れたボール601は含まれない。一方、主被写体画像608にも人物602から離れたボール601が含まれないため、背景画像候補と主被写体画像606〜608を合成して合成画像609を生成した場合、領域610に存在すべきボール601が合成画像609に含まれない。
At this time, the
第2の実施の形態では、これに対応して、画像処理装置300が主被写体関連判定部320(関連被写体検出手段,動体検知手段,関連性判定手段)を備える。主被写体関連判定部320は、メモリ304から複数の対象画像を読み出し、各対象画像から動体を検出する。さらに、主被写体関連判定部320は、各対象画像において、検出された動体が主被写体画像に含まれず、且つ主被写体画像と検出された動体含む矩形領域(動体画像)との距離が所定の距離よりも短い場合、当該動体を主被写体に関連する被写体と判定する。本実施の形態では、以降、主被写体に関連する被写体と判定された動体を関連被写体と称する。また、主被写体群検出部307は、各対象画像から検出した主被写体と、各対象画像において関連被写体と判定された各動体とをまとめて主被写体群を生成する。その後、背景分離部308は各対象画像から検出された主被写体群に対応する画像を主被写体群画像として切り出し、各対象画像から主被写体群画像以外の画像を背景画像として切り出す。このとき、分離被写体保存部310は各対象画像から切り出された主被写体群画像をメモリ304に保存する。すなわち、第1の実施の形態では、各対象画像から主被写体のみが切り出されるが、第2の実施の形態では、各対象画像から主被写体だけでなく関連被写体も切り出される。
In the second embodiment, correspondingly, the
次に、本実施の形態に係る画像処理装置の制御方法としての画像合成処理について説明する。図5は、本実施の形態における画像合成処理を示すフローチャートであり、図6は、本実施の形態における画像合成処理を説明するため図である。 Next, an image composition process as a control method of the image processing device according to the present embodiment will be described. FIG. 5 is a flowchart showing the image composition process in the present embodiment, and FIG. 6 is a diagram for explaining the image composition process in the present embodiment.
まず、システムコントローラー305がユーザーによる主被写体と各対象画像の選択に関する指示を受け付ける(ステップS701)。本実施の形態では、図4(A)に示すような対象画像603〜605が選択される。また、ボール601を投げる人物602が主被写体として選択される。
First, the
次いで、主被写体関連判定部320がメモリ304から対象画像603〜605を読み出し、各対象画像603〜605から動体を検出する(ステップS702)。動体の検出方法としては、一般に知られる動体検出技術(例えば、画像間における物体の動きベクトルによって動体を検出する方法)を用いる。その後、主被写体関連判定部320は、各対象画像603〜605において、検出された動体が主被写体画像に含まれず、且つ主被写体画像と検出された動体を含む矩形領域(動体画像)との距離が所定の距離よりも短い場合、当該動体を関連被写体と判定する。例えば、図6に示すように、対象画像603では、ボール601を含む矩形領域が動体画像611として検出され、人物602を含む主被写体画像612と動体画像611の距離が所定の距離よりも短い場合、ボール601が関連被写体と判定される。対象画像604では、ボール601を含む矩形領域が動体画像613として検出され、人物602を含む主被写体画像614と動体画像613の距離が所定の距離よりも短い場合、ボール601が関連被写体と判定される。対象画像605では、ボール601を含む矩形領域が動体画像615として検出され、人物602を含む主被写体画像616と動体画像615の距離が所定の距離よりも短い場合、ボール601が関連被写体と判定される。
Next, the main subject-related
なお、ボール601が関連被写体か否かの判定は、対象画像603〜605毎に独立して行われるが、一連の対象画像603〜605における動体の合計数や動体の連続性に基づいて、ボール601が関連被写体か否かを判定してもよい。この場合、主被写体関連判定部320(動体数量判定手段,動体連続判定手段)は、各対象画像603〜605に亘り、主被写体画像と動体画像の距離が所定の距離よりも短いと判定された動体(ボール601)の数が、所定の閾値以上であるか否かを判定する。また、主被写体関連判定部320は、各対象画像603〜605に亘り、主被写体画像と動体画像の距離が所定の距離よりも短いと判定された各動体(ボール601)が互いに時系列的に連続するか否かを判定する。その後、主被写体関連判定部320は、これらの判定結果に基づいて、各対象画像603〜605から検出された各ボール601が関連被写体か否かを判定する。
Whether or not the
次いで、主被写体群検出部307は、各対象画像603〜605から検出した主被写体と、各対象画像において関連被写体と判定された各動体とをまとめて主被写体群を生成する(ステップS703)。その後、フレーム読み出し部306がメモリ304から対象画像603〜605を順に読み出す(ステップS704)。
Next, the main subject
次いで、ステップS705において、システムコントローラー305は、対象画像603〜605の各々から検出された動体が関連被写体と判定されたか否かを判定する。動体が関連被写体と判定された場合(ステップS705でYES)、背景分離部308は当該対象画像から主被写体画像と動体画像をまとめて主被写体群画像として切り出す(ステップS706)。また、背景分離部308は当該対象画像から主被写体画像と動体画像を分離して残りの画像を背景画像として切り出す。一方、動体が関連被写体と判定されなかった場合(ステップS705でNO)、背景分離部308は当該対象画像から主被写体画像のみを切り出すとともに、当該対象画像から主被写体画像を分離して残りの画像を背景画像として切り出す(ステップS707)。切り出された背景画像は分離背景保存部309によってメモリ304に保存され、切り出された主被写体群画像や主被写体画像は分離被写体保存部310によってメモリ304に保存される。
Next, in step S705, the
このとき、各対象画像の各々は、当該対象画像から切り出された主被写体画像又は主被写体群画像、主被写体画像又は主被写体群画像の領域情報及び当該対象画像から切り出された背景画像と関連づけられる。なお、本実施の形態では、例えば、対象画像604から検出された動体が関連被写体と判定されると、対象画像604から主被写体画像614と動体画像613がまとめて主被写体群画像として切り出される。また、例えば、対象画像605から検出された動体が関連被写体と判定されないと、対象画像605から主被写体画像616のみが主被写体画像として切り出される。
At this time, each of the target images is associated with the main subject image or the main subject group image cut out from the target image, the area information of the main subject image or the main subject group image, and the background image cut out from the target image. .. In the present embodiment, for example, when the moving object detected from the
次いで、システムコントローラー305は全ての対象画像603〜605がメモリ304から読み出されたか否かを判定し(ステップS708)、全ての対象画像603〜605が読み出されていない場合にはステップS704に戻る。また、全ての対象画像が読み出されている場合にはステップS709に進む。
Next, the
ステップS709では、分離背景読み出し部312がメモリ304に保存された各背景画像を読み出し、背景比較抽出部311は各背景画像から図2の処理におけるステップS505と同様の方法によって背景画像候補を抽出する。その後、分離被写体読み出し部314はメモリ304から各主被写体群画像又は各主被写体画像を読み出し、映像合成処理部313は、背景比較抽出部311が抽出した背景画像候補と、各主被写体群画像又は各主被写体画像とを合成する。ここでも、背景画像と各主被写体群画像又は各主被写体画像との合成は、各画像の平均値や重み付けに基づいて行わず、単純に背景画像の上に各主被写体群画像又は各主被写体画像を上書きして行う。その後、画像処理部315は合成された各主被写体群画像又は各主被写体画像と背景画像の画角調整や色変換を行って合成画像617を生成し(ステップS706)、本処理を終了する。
In step S709, the separation
図5の処理によれば、対象画像から動体が検出され、対象画像の主被写体画像と検出された動体を含む動体画像との距離が所定の距離よりも短い場合、対象画像から主被写体画像と動体画像がまとめて主被写体群画像として切り出される。さらに、切り出された主被写体群画像が背景画像候補と合成されて合成画像が生成される。これにより、主被写体画像との距離が所定の距離よりも短い動体画像であれば、当該動体画像は合成画像に含まれる。具体的には、図6の合成画像617において、人物602からやや離れた領域618にボール601が存在する。ここで、主被写体画像との距離が所定の距離よりも短い動体画像は主被写体と関連性が高い動体の画像と考えられる。すなわち、図5の処理により、主被写体と関連性が高い動体が合成画像に含まれなくなるのを防止することができる。
According to the process of FIG. 5, when a moving object is detected from the target image and the distance between the main subject image of the target image and the moving object image including the detected moving object is shorter than a predetermined distance, the target image is changed to the main subject image. The moving object images are collectively cut out as the main subject group image. Further, the cut out main subject group image is combined with the background image candidate to generate a composite image. As a result, if the distance to the main subject image is shorter than a predetermined distance, the moving object image is included in the composite image. Specifically, in the
以上、本発明の好ましい各実施の形態について説明したが、本発明は上述した各実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and modifications can be made within the scope of the gist thereof.
本発明は、上述した各実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of each of the above-described embodiments to a system or device via a network or storage medium, and one or more processors of the computer of the system or device implements the program. It can also be realized by the process of reading and executing. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
また、上述した各実施の形態では、本発明をカメラ等の撮像装置に適用した場合について説明したが、本発明は、動きのある被写体を含む時系列的に連続する複数の画像を処理する機器であれば、適用することできる。例えば、本発明は、PC、モバイル機器(タブレットやスマートフォン等)にも適用することができる。 Further, in each of the above-described embodiments, the case where the present invention is applied to an imaging device such as a camera has been described, but the present invention is a device that processes a plurality of consecutive images in a time series including a moving subject. If so, it can be applied. For example, the present invention can also be applied to PCs and mobile devices (tablets, smartphones, etc.).
300 画像処理装置
304 メモリ
305 システムコントローラー
306 フレーム読み出し部
307 主被写体群検出部
308 背景分離部
309 分離背景保存部
310 分離被写体保存部
311 背景比較抽出部
313 映像合成処理部
320 主被写体関連判定部
300
Claims (11)
前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存手段と、
前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出手段と、
前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成手段と、を備えることを特徴とする画像処理装置。 An image acquisition means for acquiring a plurality of consecutive images in chronological order,
An image storage means that separates a subject from each of the acquired plurality of images to acquire a background, and stores the plurality of the subjects and the plurality of backgrounds acquired from the plurality of images.
A background extraction means for comparing the plurality of stored backgrounds with each other and extracting one background having the smallest difference from the other backgrounds.
An image processing apparatus comprising: a composite image generation means for synthesizing a plurality of subjects to generate a composite image on the extracted background.
複数の静止画像から時系列的に連続する複数の静止画像を取得する静止画像取得手段と、
動画から時系列的に連続する複数のフレームを取得するフレーム取得手段と、を有することを特徴とする請求項1記載の画像処理装置。 The image acquisition means
A still image acquisition means for acquiring a plurality of continuous still images in chronological order from a plurality of still images,
The image processing apparatus according to claim 1, further comprising a frame acquisition means for acquiring a plurality of consecutive frames in time series from a moving image.
前記取得された複数の画像の各々において前記被写体を検出する被写体検出手段と、
各前記画像において前記検出された被写体を含む範囲を特定する被写体範囲特定手段と、
各前記画像から前記特定された範囲を切り出し、前記被写体として保存する被写体保存手段と、
各前記画像から前記特定された範囲とは別の領域を切り出し、前記背景として保存する背景保存手段と、を有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The image storage means
A subject detecting means for detecting the subject in each of the acquired plurality of images,
A subject range specifying means for specifying a range including the detected subject in each of the images, and
A subject saving means for cutting out the specified range from each of the images and saving the subject as the subject.
The image processing apparatus according to any one of claims 1 to 3, further comprising a background storage means for cutting out an area different from the specified range from each image and storing it as the background. ..
前記取得された複数の画像の各々において主被写体を検出する主被写体検出手段と、
前記取得された複数の画像の各々において前記主被写体と関連する関連被写体を検出する関連被写体検出手段と、を有し、
同じ前記画像から検出された前記主被写体と前記関連被写体を被写体群として検出することを特徴とする請求項4記載の画像処理装置。 The subject detection means
A main subject detecting means for detecting a main subject in each of the plurality of acquired images,
Each of the acquired plurality of images has a related subject detecting means for detecting a related subject related to the main subject.
The image processing apparatus according to claim 4, wherein the main subject and the related subject detected from the same image are detected as a subject group.
前記複数の画像において前記主被写体とは別の動きのある被写体である動体を検知する動体検知手段と、
前記検出された動体と前記主被写体の距離が、所定の距離よりも短いか否かを判定する関連性判定手段と、を有し、
前記関連被写体検出手段は、前記主被写体との距離が前記所定の距離よりも短いと判定された動体を前記関連被写体として検出することを特徴とする請求項5記載の画像処理装置。 The related subject detection means
A moving object detecting means for detecting a moving object which is a moving subject different from the main subject in the plurality of images,
It has a relevance determining means for determining whether or not the distance between the detected moving object and the main subject is shorter than a predetermined distance.
The image processing apparatus according to claim 5, wherein the related subject detecting means detects a moving object whose distance to the main subject is determined to be shorter than the predetermined distance as the related subject.
前記主被写体との距離が前記所定の距離よりも短いと判定された動体の数が、所定の閾値以上であるか否かを判定する動体数量判定手段と、
各前記主被写体との距離が前記所定の距離よりも短いと判定された動体が、互いに時系列的に連続するか否かを判定する動体連続判定手段と、を有し、
前記関連被写体検出手段は、前記動体数量判定手段の判定結果及び前記動体連続判定手段の判定結果に基づいて、前記関連被写体を検出することを特徴とする請求項6記載の画像処理装置。 The relevance determination means
A moving object quantity determining means for determining whether or not the number of moving objects determined to have a distance to the main subject shorter than the predetermined distance is equal to or greater than a predetermined threshold value.
It has a moving body continuous determination means for determining whether or not moving objects determined to have a distance to each of the main subjects shorter than the predetermined distance are continuous with each other in time series.
The image processing apparatus according to claim 6, wherein the related subject detecting means detects the related subject based on the determination result of the moving object quantity determining means and the determination result of the moving object continuous determining means.
前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存工程と、
前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出工程と、
前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成工程と、を有することを特徴とする画像処理装置の制御方法。 An image acquisition process that acquires multiple images that are continuous in chronological order,
An image storage step of separating a subject from each of the acquired plurality of images to acquire a background, and storing the plurality of the subjects and the plurality of backgrounds acquired from the plurality of images.
A background extraction step of comparing the plurality of saved backgrounds with each other and extracting one background having the smallest difference from other backgrounds.
A control method for an image processing apparatus, which comprises a composite image generation step of synthesizing a plurality of subjects to generate a composite image on the extracted background.
前記制御方法は、
時系列的に連続する複数の画像を取得する画像取得工程と、
前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存工程と、
前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出工程と、
前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成工程と、を有することを特徴とするプログラム。
A program that causes a computer to execute the control method of an image processing device.
The control method is
An image acquisition process that acquires multiple images that are continuous in chronological order,
An image storage step of separating a subject from each of the acquired plurality of images to acquire a background, and storing the plurality of the subjects and the plurality of backgrounds acquired from the plurality of images.
A background extraction step of comparing the plurality of saved backgrounds with each other and extracting one background having the smallest difference from other backgrounds.
A program characterized by having a composite image generation step of synthesizing a plurality of subjects to generate a composite image on the extracted background.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019144702A JP7266490B2 (en) | 2019-08-06 | 2019-08-06 | IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019144702A JP7266490B2 (en) | 2019-08-06 | 2019-08-06 | IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021027486A true JP2021027486A (en) | 2021-02-22 |
JP7266490B2 JP7266490B2 (en) | 2023-04-28 |
Family
ID=74664150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019144702A Active JP7266490B2 (en) | 2019-08-06 | 2019-08-06 | IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7266490B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006005452A (en) * | 2004-06-15 | 2006-01-05 | Nippon Hoso Kyokai <Nhk> | Image composite apparatus and image composite system |
JP2006203444A (en) * | 2005-01-19 | 2006-08-03 | Inc Corp | Background image formation device and program |
JP2011172103A (en) * | 2010-02-19 | 2011-09-01 | Olympus Imaging Corp | Image generating apparatus |
WO2018107197A1 (en) * | 2016-12-13 | 2018-06-21 | Canon Kabushiki Kaisha | Method, system and apparatus for configuring a virtual camera |
JP2019101996A (en) * | 2017-12-07 | 2019-06-24 | キヤノン株式会社 | Image processing apparatus and image processing method reducing noise by composing plural captured images |
-
2019
- 2019-08-06 JP JP2019144702A patent/JP7266490B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006005452A (en) * | 2004-06-15 | 2006-01-05 | Nippon Hoso Kyokai <Nhk> | Image composite apparatus and image composite system |
JP2006203444A (en) * | 2005-01-19 | 2006-08-03 | Inc Corp | Background image formation device and program |
JP2011172103A (en) * | 2010-02-19 | 2011-09-01 | Olympus Imaging Corp | Image generating apparatus |
WO2018107197A1 (en) * | 2016-12-13 | 2018-06-21 | Canon Kabushiki Kaisha | Method, system and apparatus for configuring a virtual camera |
JP2019101996A (en) * | 2017-12-07 | 2019-06-24 | キヤノン株式会社 | Image processing apparatus and image processing method reducing noise by composing plural captured images |
Also Published As
Publication number | Publication date |
---|---|
JP7266490B2 (en) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3457683B1 (en) | Dynamic generation of image of a scene based on removal of undesired object present in the scene | |
US10366504B2 (en) | Image processing apparatus and image processing method for performing three-dimensional reconstruction of plurality of images | |
CN112703533B (en) | Object tracking | |
EP3008696B1 (en) | Tracker assisted image capture | |
KR102356448B1 (en) | Method for composing image and electronic device thereof | |
EP3104332B1 (en) | Digital image manipulation | |
JP4181473B2 (en) | Video object trajectory synthesis apparatus, method and program thereof | |
JPWO2006025272A1 (en) | Video classification device, video classification program, video search device, and video search program | |
US8897603B2 (en) | Image processing apparatus that selects a plurality of video frames and creates an image based on a plurality of images extracted and selected from the frames | |
JP6362085B2 (en) | Image recognition system, image recognition method and program | |
JP2006330800A (en) | Image synthesis system, image synthesis method, and program of the method | |
JP6907274B2 (en) | Imaging device and imaging method | |
JP4911191B2 (en) | Image processing apparatus and image processing program | |
JP2010239605A (en) | Video editing device | |
EP2709062A2 (en) | Image processing device, image processing method, and computer readable medium | |
WO2014013673A1 (en) | Moving image generation device and moving image generation method | |
JP4496992B2 (en) | Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium | |
JP2019186689A (en) | Information processing apparatus, system, analysis method, computer program, and storage medium | |
US10296539B2 (en) | Image extraction system, image extraction method, image extraction program, and recording medium storing program | |
JP2005159781A (en) | Image selecting processing apparatus, image selecting method, program thereof, and recording medium | |
JP6272071B2 (en) | Image processing apparatus, image processing method, and program | |
JP2014110020A (en) | Image processor, image processing method and image processing program | |
JP7266490B2 (en) | IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF | |
JP6632134B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP5111269B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230320 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230418 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7266490 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |