JP2011030244A - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP2011030244A
JP2011030244A JP2010203981A JP2010203981A JP2011030244A JP 2011030244 A JP2011030244 A JP 2011030244A JP 2010203981 A JP2010203981 A JP 2010203981A JP 2010203981 A JP2010203981 A JP 2010203981A JP 2011030244 A JP2011030244 A JP 2011030244A
Authority
JP
Japan
Prior art keywords
image data
image
frame
input
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010203981A
Other languages
Japanese (ja)
Other versions
JP5093317B2 (en
Inventor
Daisuke Nakao
大輔 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010203981A priority Critical patent/JP5093317B2/en
Publication of JP2011030244A publication Critical patent/JP2011030244A/en
Application granted granted Critical
Publication of JP5093317B2 publication Critical patent/JP5093317B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To achieve such an operation transition image as to accurately represent a sufficient operation representation and an operation range of a moving subject using a number of frame images and also further to use the operation transition image as an effective moving image. <P>SOLUTION: An image processing apparatus synthesizes a plurality of frame image data items input to produce an operation transition image. Therefore, a synthesis processing section is provided to produce synthesized image data, in which the background layers of frame image data items are disposed side by side in order in a prescribed direction, by synthesizing the latest frame image data input with existent synthetic image data in response to input of frame image data separated into a moving subject layer and the background layer. In such a case, the synthesis processing section performs the synthesis in such a state that the moving subject layer has portions overlapping the corresponding background layer and a neighboring background layer, and preferentially synthesizes the moving subject layer prior to the background layer adjacent to the corresponding background layer. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は画像処理装置、画像処理方法、プログラムに関し、特に被写体の動作推移を表現する静止画や動画を得る技術に関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to a technique for obtaining a still image or a moving image that expresses a motion transition of a subject.

特許第3449993号公報Japanese Patent No. 3449993 特開2004−180259号公報JP 2004-180259 A 特開2007−259477号公報JP 2007-259477 A 特開2002−359777号公報JP 2002-359777 A

例えばスポーツのフォーメーション確認などの用途で、例えば図32に示すような「動作推移画像」が用いられる。
動作推移画像は動作を行う人または物(動被写体)をある特徴的な時間(キーフレーム)で切り出し、それを空間的に並べることで動作の推移を容易に認識することができる。これは、動被写体が空間的に移動していなくても、空間的に移動させた画像を敢えて生成するところに特徴がある。一般的には絵を描くことによって実現されるが、写真を手作業で切り抜いて並べることで実現されることもある。
For example, an “motion transition image” as shown in FIG. 32 is used for applications such as sports formation confirmation.
The motion transition image can easily recognize the motion transition by cutting out a person or an object (moving subject) at a certain characteristic time (key frame) and arranging them spatially. This is characterized in that even if the moving subject does not move spatially, an image moved spatially is intentionally generated. Generally, this is realized by drawing a picture, but it may also be realized by manually cutting out and arranging photographs.

従来、こういった動作推移画像を自動で生成する場合、ビデオカメラの映像や写真機の連写などで得られた複数フレームの画像のうちで、処理対象とするキーフレームの画像を抜き出す。そしてさらにキーフレーム中で対象被写体の部分を切り出し、それを並べるなどの手法で行っている。
しかし従来の動作推移画像では、動作範囲の拡大と動作推移の十分な表現性の両立が難しいという問題があった。
Conventionally, when such an operation transition image is automatically generated, a key frame image to be processed is extracted from a plurality of frame images obtained by video camera video or continuous shooting by a camera. Further, a method of cutting out the target subject portion in the key frame and arranging it is performed.
However, the conventional motion transition image has a problem that it is difficult to achieve both expansion of the motion range and sufficient expression of the motion transition.

例えば図32は、ゴルフのスイングを行う人をビデオカメラで撮像した動画データから抜き出したキーフレームFK1〜FK20を用いて動作推移画像を生成した例である。
1つの合成画像として、この図32のように多数のキーフレーム画像を合成すると、当然ながら各キーフレーム画像を並べる際の1枚の切り出し幅waは狭くならざるを得ない。
すると動被写体の動作範囲をカバーできなくなってしまい、目的であるはずの動被写体が一部切り取られてしまう。例えば図32の各画像を見るとわかるように、スイング過程のタイミングによっては、ゴルフクラブの先端部分などが欠けた画像となっている。これは視覚的にも好ましくないと共に、フォームチェックなどの用途を考えても適切でない。
For example, FIG. 32 is an example in which motion transition images are generated using key frames FK1 to FK20 extracted from moving image data obtained by capturing a person who performs a golf swing with a video camera.
When a large number of key frame images are synthesized as one composite image as shown in FIG. 32, naturally, one cut-out width wa when the key frame images are arranged must be narrowed.
Then, the moving range of the moving subject cannot be covered, and a part of the moving subject that should be the target is cut off. For example, as can be seen from the images in FIG. 32, depending on the timing of the swing process, the golf club has an image lacking the tip portion. This is not visually desirable, and is not appropriate in consideration of uses such as form check.

ここで、動被写体(例えばスイングしている人とゴルフクラブ)の一部が欠けないようにするには、切出し幅を広くする必要がある。
図33は切出し幅wbとして示すように、1つのキーフレーム画像からの切出し幅を広くした例であるが、この場合、1画像として並べることができるキーフレーム画像の数が少なくなる。例えば図33は、図32の20個のキーフレームFK1〜FK20から8個のキーフレームFK1,FK4,FK7,FK10,FK11,FK14,FK17,FK20を抽出して生成した動作推移画像を示している。
この場合、各キーフレーム画像について見ると、動被写体(スイングしている人とゴルフクラブ)の一部が欠けないようにできる。しかしながら、1枚の画像上に並べることのできるキーフレーム数が減ることで、スムースに動きを表現する動作推移画像となりにくい。つまりフォームチェックなどとしての動作推移が十分に細かく表現できない。
Here, in order to prevent a part of a moving subject (for example, a swinging person and a golf club) from being lost, it is necessary to widen the cutout width.
FIG. 33 shows an example in which the cutout width from one key frame image is widened as shown as cutout width wb. In this case, the number of keyframe images that can be arranged as one image is reduced. For example, FIG. 33 shows an operation transition image generated by extracting eight key frames FK1, FK4, FK7, FK10, FK11, FK14, FK17, and FK20 from the 20 key frames FK1 to FK20 of FIG. .
In this case, looking at each key frame image, it is possible to prevent a part of the moving subject (swinging person and golf club) from being lost. However, since the number of key frames that can be arranged on one image is reduced, it is difficult to obtain an operation transition image that smoothly expresses movement. In other words, the operation transition as a form check cannot be expressed sufficiently finely.

この図32,図33の例のように、動被写体の動作範囲をすべてカバーしようと切り出し幅を広くすると、生成される最終画像内に存在するキーフレーム数が少なくなり動作推移の表現性に欠ける。反対に切り出し幅を狭くするとキーフレーム数を増やして時間的に細かく動被写体を表現できるが、動被写体の動作範囲をカバーできなくなってしまい、目的であるはずの動被写体が一部切り取られてしまうという不都合がある。   As shown in FIGS. 32 and 33, if the cutout width is increased so as to cover the entire motion range of the moving subject, the number of key frames existing in the final image to be generated is reduced, and the motion transition is not expressible. . Conversely, if the cutout width is narrowed, the number of key frames can be increased and the moving subject can be expressed finely in time, but the moving range of the moving subject cannot be covered, and a part of the moving subject that is supposed to be cut out. There is an inconvenience.

また、このような動作推移画像は、従来は複数のキーフレームを単純に並べて画像合成することによって、動作推移を表現する静止画とされるものであるが、より視覚効果の高い、動作推移画像を実現することも要望されている。   In addition, such a motion transition image is conventionally a still image that represents a motion transition by simply arranging a plurality of key frames and combining the images, but the motion transition image has a higher visual effect. It is also demanded to realize.

そこで本発明では、動作推移画像として、多数のフレーム画像を用いて十分な動作表現を可能とするとともに、動被写体の動作範囲を的確に表現できるような動作推移画像を実現することを目的とする。さらに本発明では、動作推移画像を効果的な動画像としても実現することを目的とする。   Therefore, an object of the present invention is to realize a motion transition image that enables a sufficient motion expression using a large number of frame images as a motion transition image and that can accurately represent the motion range of a moving subject. . A further object of the present invention is to realize a motion transition image as an effective moving image.

本発明の画像処理装置は、フレーム画像データについて、画像内の動被写体レイヤーと背景レイヤーを分離するレイヤー分離部と、フレーム画像データの入力に応じて、既存の合成画像データに、入力された最新のフレーム画像データを合成する画像合成処理を行って各フレーム画像データの動被写体画像が順次所定の方向に並んで配置されていく合成画像データを生成するとともに、上記画像合成処理では、最新のフレーム画像データの画像と既存の合成画像データの画像の重複部分となる、上記既存の合成画像データの一部である合成対象領域に対し、入力された最新のフレーム画像データの動被写体レイヤーを第1に優先し、前回の画像合成処理に係るフレーム画像データの動被写体レイヤーを第2に優先し、入力された最新のフレーム画像データの背景レイヤーを第3に優先し、前回の画像合成処理に係るフレーム画像データの背景レイヤーを第4に優先した状態でレイヤー画像合成処理を行う合成処理部とを備える。
また、所定数のフレーム画像データについて上記合成処理部で画像合成処理が行われた結果として得られる合成画像データを、動作推移静止画データとして出力する画像出力部をさらに備える。
また、順次入力されるフレーム画像データから、合成画像の生成に用いるキーフレームを選択する入力画選択部をさらに備え、上記合成処理部は、キーフレームとして選択されたフレーム画像データの入力に応じて画像合成処理を行っていくことで、動作推移静止画データを生成する。
また、上記合成処理部でフレーム画像データの入力に応じた画像合成処理で生成される合成画像データを、次回の画像合成処理で用いる上記既存の合成画像データとして保持する合成画像保持部をさらに備える。
The image processing apparatus according to the present invention includes a layer separation unit that separates a moving subject layer and a background layer in an image from frame image data, and the latest input that is input to the existing composite image data according to the input of the frame image data. Image synthesis processing is performed to synthesize the frame image data to generate synthesized image data in which moving subject images of each frame image data are sequentially arranged in a predetermined direction. The moving subject layer of the latest input frame image data is set to the first with respect to the synthesis target area that is a part of the existing synthesized image data, which is an overlapping portion of the image data image and the existing synthesized image data image. Priority is given to the moving subject layer of the frame image data related to the previous image composition processing, and the latest input frame is given priority over the second. Giving priority to a background layer of the image data to a third, and a synthesis processing unit that performs the layer image combining process a background layer of the frame image data according to the previous image combining process in a state of priority in the fourth.
In addition, the image processing apparatus further includes an image output unit that outputs combined image data obtained as a result of image combining processing performed on the predetermined number of frame image data by the combining processing unit as motion transition still image data.
The image processing apparatus further includes an input image selection unit that selects a key frame to be used for generating a composite image from sequentially input frame image data, and the composition processing unit is responsive to an input of frame image data selected as a key frame. By performing image composition processing, motion transition still image data is generated.
Further, the image processing apparatus further includes a composite image holding unit that holds the composite image data generated by the image composite processing according to the input of the frame image data in the composite processing unit as the existing composite image data used in the next image composite processing. .

また、フレーム画像データの入力毎に上記合成処理部で生成される合成画像データを、連続して、動作推移動画データとして出力する画像出力部をさらに備える。
またこの場合、順次入力されるフレーム画像データから、合成画像の生成に用いるキーフレームを選択する入力画選択部と、上記合成処理部で、上記キーフレームとされたフレーム画像データの入力に応じた画像合成処理で生成される合成画像データを、次回の画像合成処理で用いる上記既存の合成画像データとして保持する合成画像保持部とをさらに備える。
また、上記合成処理部は、キーフレームとして選択されたか否かにかかわらず、各フレーム画像データの入力に応じて画像合成処理を行って合成画像データを生成していくことで、動作推移動画データを生成する。
In addition, the image processing apparatus further includes an image output unit that continuously outputs the composite image data generated by the composite processing unit every time frame image data is input as motion transition video data.
In this case, the input image selection unit that selects a key frame to be used for generating a composite image from the frame image data that is sequentially input, and the composite processing unit according to the input of the frame image data that is the key frame. The image processing apparatus further includes a composite image holding unit that holds the composite image data generated by the image composition process as the existing composite image data used in the next image composition process.
Further, the composition processing unit performs image composition processing according to the input of each frame image data to generate composite image data regardless of whether the frame is selected as a key frame, thereby generating motion transition moving image data. Is generated.

また、上記合成処理部は、既存の合成画像データの所定領域に対し、入力された最新のフレーム画像データの動被写体レイヤーを第1に優先し、前回の画像合成処理に係るフレーム画像データの動被写体レイヤーを第2に優先し、入力された最新のフレーム画像データの背景レイヤーを第3に優先し、前回の画像合成処理に係るフレーム画像データの背景レイヤーを第4に優先した状態で画像合成を行う。   The composition processing unit gives first priority to the moving subject layer of the latest frame image data that has been input for a predetermined area of the existing composite image data, and the motion of the frame image data related to the previous image composition processing. The subject layer is given priority over the second, the background layer of the latest input frame image data is given priority over the third, and the background layer of frame image data related to the previous image composition processing is given priority over the fourth. I do.

また、上記合成処理部は、既存の合成画像データの所定領域に対し、入力された最新のフレーム画像データを合成する画像合成処理を行う際に、処理対象の画素の位置に応じて、入力された最新のフレーム画像データからの抽出画素をあてはめる処理と、入力された最新のフレーム画像データの動被写体レイヤーの画素をあてはめる処理と、前回以前の合成画像データからの抽出画素をあてはめる処理と、入力された最新のフレーム画像データと前回以前の合成画像データを用いたレイヤー画像合成処理とを選択的に実行する。
この場合、上記レイヤー画像合成処理は、入力された最新のフレーム画像データの動被写体レイヤーの画素が第1に優先され、前回の合成画像データに係るフレーム画像データの動被写体レイヤーの画素が第2に優先され、入力された最新のフレーム画像データの背景レイヤーの画素が第3に優先されて行われる。
或いは、上記レイヤー画像合成処理は、入力された最新のフレーム画像データの動被写体レイヤーの画素が第1に優先され、前回以前の複数の合成画像データに係る各フレーム画像データの動被写体レイヤーの画素が順に第2〜第nに優先され、入力された最新のフレーム画像データの背景レイヤーの画素が第(n+1)に優先されて行われる。
In addition, the synthesis processing unit is input according to the position of the pixel to be processed when performing image synthesis processing for synthesizing the latest input frame image data on a predetermined area of existing synthesized image data. Processing to apply extracted pixels from the latest frame image data, processing to apply pixels of the moving subject layer of the latest input frame image data, processing to apply extracted pixels from the previous and previous composite image data, and input The layer image composition processing using the latest frame image data and the previous and previous composite image data is selectively executed.
In this case, in the layer image composition processing, the moving subject layer pixel of the latest input frame image data is given first priority, and the moving subject layer pixel of the frame image data related to the previous composite image data is second. The pixel of the background layer of the latest input frame image data is prioritized and the third priority is given.
Alternatively, in the layer image composition process, the moving subject layer pixel of the latest input frame image data is given priority first, and the moving subject layer pixel of each frame image data related to the plurality of composite image data before the previous time. Are given priority in order from the 2nd to the nth, and the pixels of the background layer of the latest inputted frame image data are given priority to the (n + 1) th.

また本発明の画像処理装置は、フレーム画像データについて、画像内の動被写体レイヤーと背景レイヤーを分離するレイヤー分離部と、フレーム画像データの入力に応じて、既存の合成画像データに、入力された最新のフレーム画像データを合成する画像合成処理を行って各フレーム画像データの動被写体画像が順次所定の方向に並んで配置されていく合成画像データを生成するとともに、上記画像合成処理では、最新のフレーム画像データの画像と既存の合成画像データの画像の重複部分となる、上記既存の合成画像データの一部である合成対象領域に対し、入力された最新のフレーム画像データの動被写体レイヤーが第1に優先され、前回の画像合成処理に係るフレーム画像データの動被写体レイヤーが第2に優先され、入力された最新のフレーム画像データの背景レイヤーが第3に優先され、前回の画像合成処理に係るフレーム画像データの背景レイヤーが第4に優先されて表示されるように、レイヤー画像合成処理を行う合成処理部とを備える。
また画像処理装置は、フレーム画像データの入力毎に画像合成処理を行い、合成画像データを生成して出力していくことで、各フレーム画像データの動被写体画像が順次所定の方向に並んで配置されていく動画表示を実行させるとともに、キーフレームとしたフレーム画像データの動被写体画像については、動画表示上で継続的に表示させ、キーフレームとしないフレーム画像データの動被写体画像については、動画表示上で一時的に表示させるように上記画像合成処理を行う。
Further, the image processing apparatus of the present invention inputs the frame image data into the existing composite image data according to the input of the frame image data and the layer separation unit that separates the moving subject layer and the background layer in the image. The image composition processing for combining the latest frame image data is performed to generate composite image data in which the moving subject images of each frame image data are sequentially arranged in a predetermined direction. The moving subject layer of the latest input frame image data is the first to the synthesis target area that is a part of the existing synthesized image data, which is an overlapping part of the frame image data image and the existing synthesized image data image. 1 is prioritized, and the moving subject layer of the frame image data related to the previous image composition processing is prioritized second and the latest input A composition processing unit for performing a layer image composition process so that the background layer of the frame image data is given priority over the third and the background layer of the frame image data related to the previous image composition process is given priority over the fourth; Prepare.
The image processing apparatus performs image composition processing every time frame image data is input, and generates and outputs composite image data, whereby moving subject images of each frame image data are sequentially arranged in a predetermined direction. In addition to executing the moving image display, the moving subject image of the frame image data used as the key frame is continuously displayed on the moving image display, and the moving subject image of the frame image data not used as the key frame is displayed as a moving image. The image composition process is performed so that the image is temporarily displayed above.

本発明の画像処理方法は、フレーム画像データについて、画像内の動被写体レイヤーと背景レイヤーを分離するレイヤー分離ステップと、フレーム画像データの入力に応じて、既存の合成画像データに、入力された最新のフレーム画像データを合成する画像合成処理を行って各フレーム画像データの動被写体画像が順次所定の方向に並んで配置されていく合成画像データを生成するともに、上記画像合成処理では、最新のフレーム画像データの画像と既存の合成画像データの画像の重複部分となる、上記既存の合成画像データの一部である合成対象領域に対し、入力された最新のフレーム画像データの動被写体レイヤーを第1に優先し、前回の画像合成処理に係るフレーム画像データの動被写体レイヤーを第2に優先し、入力された最新のフレーム画像データの背景レイヤーを第3に優先し、前回の画像合成処理に係るフレーム画像データの背景レイヤーを第4に優先した状態でレイヤー画像合成処理を行う合成処理ステップとを有する。
また本発明の画像処理方法は、フレーム画像データについて、画像内の動被写体レイヤーと背景レイヤーを分離するレイヤー分離ステップと、フレーム画像データの入力に応じて、既存の合成画像データに、入力された最新のフレーム画像データを合成する画像合成処理を行って各フレーム画像データの動被写体画像が順次所定の方向に並んで配置されていく合成画像データを生成するともに、上記画像合成処理では、最新のフレーム画像データの画像と既存の合成画像データの画像の重複部分となる、上記既存の合成画像データの一部である合成対象領域に対し、入力された最新のフレーム画像データの動被写体レイヤーを第1に優先し、前回の画像合成処理に係るフレーム画像データの動被写体レイヤーを第2に優先し、入力された最新のフレーム画像データの背景レイヤーを第3に優先し、前回の画像合成処理に係るフレーム画像データの背景レイヤーを第4に優先した状態でレイヤー画像合成処理を行う合成処理ステップとを有する。
また画像処理方法は、フレーム画像データの入力毎に画像合成処理を行い、合成画像データを生成して出力していくことで、各フレーム画像データの動被写体画像が順次所定の方向に並んで配置されていく動画表示を実行させるとともに、キーフレームとしたフレーム画像データの動被写体画像については、動画表示上で継続的に表示させ、キーフレームとしないフレーム画像データの動被写体画像については、動画表示上で一時的に表示させるように上記画像合成処理を行う。
本発明のプログラムは、これらの画像処理方法を演算処理装置に実行させるプログラムである。
According to the image processing method of the present invention, for frame image data, a layer separation step for separating a moving subject layer and a background layer in the image, and the latest input to the existing composite image data according to the input of the frame image data. The image composition process for synthesizing the frame image data is performed to generate composite image data in which the moving subject images of each frame image data are sequentially arranged in a predetermined direction. The moving subject layer of the latest input frame image data is set to the first with respect to the synthesis target area that is a part of the existing synthesized image data, which is an overlapping portion of the image data image and the existing synthesized image data image. , The moving subject layer of the frame image data related to the previous image composition process is given priority over the second, and the latest input frame is input. Giving priority to a background layer of the over-time image data to a third, and a synthesis processing step of performing the layer image combining process a background layer of the frame image data according to the previous image combining process in a state of priority in the fourth.
Further, the image processing method of the present invention is inputted to the existing composite image data according to the layer separation step for separating the moving subject layer and the background layer in the image and the input of the frame image data. An image composition process for compositing the latest frame image data is performed to generate composite image data in which moving subject images of each frame image data are sequentially arranged in a predetermined direction. The moving subject layer of the latest input frame image data is added to the synthesis target area that is a part of the existing synthesized image data, which is an overlapping part of the frame image data image and the existing synthesized image data image. Priority is given to 1 and the moving subject layer of the frame image data related to the previous image composition processing is given priority to 2 and the latest input Giving priority to a background layer of the frame image data to a third, and a synthesis processing step of performing the layer image combining process a background layer of the frame image data according to the previous image combining process in a state of priority in the fourth.
The image processing method performs image composition processing every time frame image data is input, and generates and outputs composite image data, so that moving subject images of each frame image data are sequentially arranged in a predetermined direction. In addition to executing the moving image display, the moving subject image of the frame image data used as the key frame is continuously displayed on the moving image display, and the moving subject image of the frame image data not used as the key frame is displayed as a moving image. The image composition processing is performed so that the image is temporarily displayed above.
The program of the present invention is a program that causes an arithmetic processing device to execute these image processing methods.

即ち本発明では、入力される複数のフレーム画像データについて画像合成処理を行って動作推移画像を生成する。なおフレーム画像データとは、動画を構成する各フレームの1つであったり、例えば連写撮像された静止画の1枚1枚の画像などのことである。即ち1枚の画像を構成する画像データのことを広く示すものとする。
本発明では、入力される複数のフレーム画像データについて画像合成処理を行って動作推移画像を生成する際に、フレーム画像データについて、画像内の動被写体レイヤーと背景レイヤーを分離する処理を行う。そして、フレーム画像データが入力された各時点において、その時点で既存の合成画像データに、入力された最新のフレーム画像データを合成していく。このときに、1つのフレームについての幅を短くすることで、多数の動被写体画像を並べることができるが、その場合に最新のフレーム画像データの動被写体と、それ以前のフレーム画像データの動被写体が重なる部分が生ずる。そこで、入力された最新のフレーム画像データの動被写体レイヤーを第1に優先し、また前回以前の画像合成処理に係るフレーム画像データの動被写体レイヤーを第2に優先したレイヤー画像合成処理を行うようにする。これにより動被写体の一部が以前のフレームの動被写体の上に重なる状態で合成画像が生成される。
また、この手法を動画にも適用する。動画の場合は、順次入力される各フレーム画像データにいて画像合成処理を行っていきながら、各時点の合成処理結果を動画データ(動作推移動画)として出力すればよい。
In other words, according to the present invention, the image transition process is performed on the plurality of input frame image data to generate the motion transition image. Note that the frame image data is one of each frame constituting a moving image or, for example, one image of each still image captured continuously. That is, the image data constituting one image is shown widely.
In the present invention, when an image transition process is performed on a plurality of input frame image data to generate a motion transition image, a process of separating a moving subject layer and a background layer in the image is performed on the frame image data. Then, at each time point when the frame image data is input, the latest input frame image data is combined with the existing combined image data at that time point. At this time, a large number of moving subject images can be arranged by reducing the width of one frame. In this case, the moving subject of the latest frame image data and the moving subject of the previous frame image data are used. Overlapping parts occur. Therefore, the moving subject layer of the latest input frame image data is given priority first, and the layer image composition processing is given with priority given to the moving subject layer of frame image data related to the previous image composition processing second. To. As a result, a composite image is generated in a state where a part of the moving subject overlaps the moving subject in the previous frame.
This method is also applied to moving images. In the case of a moving image, it is only necessary to output the composition processing result at each time point as moving image data (motion transition moving image) while performing image composition processing on each frame image data that is sequentially input.

本発明によれば、動作推移画像の自動生成において、動作可能範囲の拡大による動被写体の的確な表現と、多数の動被写体を並べることでの時間方向に精細な動作推移の表現の両立を実現することができる。
また、各時点の合成画像データを動作推移動画として出力することで、視覚効果が高く、動作の推移をわかりやすく捕らえることのできる動画像を実現できる。
According to the present invention, in automatic generation of motion transition images, it is possible to achieve both accurate representation of moving subjects by expanding the range of motion and expression of detailed motion transitions in the time direction by arranging a large number of moving subjects. can do.
Further, by outputting the composite image data at each time point as a motion transition video, it is possible to realize a moving image that has a high visual effect and can easily capture the motion transition.

本発明の実施の形態の画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. 実施の形態の動作推移静止画の説明図である。It is explanatory drawing of the operation | movement transition still image of embodiment. 実施の形態の動作推移静止画の生成処理の説明図である。It is explanatory drawing of the production | generation process of the operation | movement transition still image of embodiment. 実施の形態のレイヤー分離処理の説明図である。It is explanatory drawing of the layer separation process of embodiment. 実施の形態の入力画像の領域設定例の説明図である。It is explanatory drawing of the example of an area | region setting of the input image of embodiment. 実施の形態の推移動作有効領域及び残存背景領域の説明図である。It is explanatory drawing of the transition operation | movement effective area | region and residual background area | region of embodiment. 実施の形態の4レイヤーのレイヤー合成処理の説明図である。It is explanatory drawing of the layer synthetic | combination process of 4 layers of embodiment. 実施の形態の第1の生成処理例での合成処理の説明図である。It is explanatory drawing of the synthetic | combination process in the 1st production | generation process example of embodiment. 実施の形態の第1の生成処理例のフローチャートである。It is a flowchart of the 1st example of a production | generation process of embodiment. 実施の形態の第1の生成処理例のレイヤー分離処理のフローチャートである。It is a flow chart of layer separation processing of the 1st generation processing example of an embodiment. 実施の形態の動作推移動画の説明図である。It is explanatory drawing of the motion transition moving image of embodiment. 実施の形態の動作推移動画の説明図である。It is explanatory drawing of the motion transition moving image of embodiment. 実施の形態の動作推移動画の説明図である。It is explanatory drawing of the motion transition moving image of embodiment. 実施の形態の動作推移動画の説明図である。It is explanatory drawing of the motion transition moving image of embodiment. 実施の形態の動作推移動画の説明図である。It is explanatory drawing of the motion transition moving image of embodiment. 実施の形態の動作推移動画の説明図である。It is explanatory drawing of the motion transition moving image of embodiment. 実施の形態の動作推移動画の説明図である。It is explanatory drawing of the motion transition moving image of embodiment. 実施の形態の動作推移動画及び第2の生成処理例での合成処理の説明図である。It is explanatory drawing of the synthetic | combination process in the operation | movement transition moving image and 2nd production | generation process example of embodiment. 実施の形態の動作推移動画及び下段コピー処理の説明図である。It is explanatory drawing of the operation | movement transition moving image and lower stage copy process of embodiment. 実施の形態の動作推移動画の最終フレームの説明図である。It is explanatory drawing of the last frame of the operation | movement transition moving image of embodiment. 実施の形態の第2の生成処理例のフローチャートである。It is a flowchart of the 2nd example of a production | generation process of embodiment. 実施の形態の第2の生成処理例におけるプロセス判定処理のフローチャートである。It is a flowchart of the process determination process in the 2nd generation process example of an embodiment. 実施の形態の第2の生成処理例で合成処理に用いる画像データの説明図である。It is explanatory drawing of the image data used for a synthetic | combination process in the 2nd production | generation example of embodiment. 実施の形態の第2の生成処理例のプロセスP2,P3の説明図である。It is explanatory drawing of process P2, P3 of the 2nd production | generation process example of embodiment. 実施の形態の第2の生成処理例のプロセスP4の説明図である。It is explanatory drawing of process P4 of the 2nd production | generation process example of embodiment. 実施の形態の第2の生成処理例のプロセスP5の説明図である。It is explanatory drawing of the process P5 of the 2nd production | generation process example of embodiment. 実施の形態の第2の生成処理例のプロセスP6の説明図である。It is explanatory drawing of process P6 of the 2nd production | generation process example of embodiment. 実施の形態の2値及び多値の動被写体情報の説明図である。It is explanatory drawing of the binary and multi-value moving subject information of embodiment. 実施の形態の2値及び多値の動被写体情報の説明図である。It is explanatory drawing of the binary and multi-value moving subject information of embodiment. 実施の形態の第1の生成処理例を動作推移動画に適用する場合の処理のフローチャートである。It is a flowchart of a process in the case of applying the 1st production | generation process example of embodiment to a motion transition moving image. 実施の形態の第2の生成処理例を動作推移静止画に適用する場合の処理のフローチャートである。It is a flowchart of a process in the case of applying the 2nd production | generation process example of embodiment to an operation | movement transition still image. 従来の合成画像の説明図である。It is explanatory drawing of the conventional synthesized image. 従来の合成画像の説明図である。It is explanatory drawing of the conventional synthesized image.

以下、本発明の実施の形態を次の順序で説明する。
[1.画像処理装置の構成]
[2.動作推移画像の第1の生成処理例]
[3.動作推移画像の第2の生成処理例]
[4.動被写体情報]
[5.第1の生成処理例の動画への適用]
[6.第2の生成処理例の静止画への適用]
[7.プログラム]
Hereinafter, embodiments of the present invention will be described in the following order.
[1. Configuration of image processing apparatus]
[2. First Generation Processing Example of Motion Transition Image]
[3. Second Generation Processing Example of Motion Transition Image]
[4. Moving subject information]
[5. Application of first generation processing example to movie]
[6. Application of second generation processing example to still image]
[7. program]

[1.画像処理装置の構成]

図1は実施の形態の画像処理装置1の構成例を示している。
図1には本例の画像処理装置1の構成として、入力画選択部2,レイヤー処理部3,画像出力部4、合成画像更新保持部5、画像入力部10、動被写体情報生成部11、動被写体情報入力部12、出力デバイス40を示している。
これらの各部は必ずしも同一筐体内の構成部位とされるものには限らない。特に画像入力部10、動被写体情報生成部11、動被写体情報入力部12、出力デバイス40は、別体の構成部位とすることが考えられる。また動被写体情報生成部11と動被写体情報入力部12については一方を設けるのみでもよい。
また入力画選択部2,レイヤー処理部3,画像出力部4,合成画像更新保持部5については、それぞれがハードウエアブロックとして構成されてもよいが、マイクロコンピュータ等の演算処理装置において、ソフトウエアプログラムによって実現される機能ブロックとして実現することもできる。
この画像処理装置1は、例えば撮像装置(ビデオカメラ等)や映像再生装置等の機器の内部に設けられても良いし、1つの画像処理専用機器として構成されてもよい。さらにパーソナルコンピュータ等においてソフトウエア及びハードウエアの連係によって実現される画像処理機能を実行するものとして構成されてもよい。
[1. Configuration of image processing apparatus]

FIG. 1 shows a configuration example of an image processing apparatus 1 according to the embodiment.
In FIG. 1, the configuration of the image processing apparatus 1 of this example includes an input image selection unit 2, a layer processing unit 3, an image output unit 4, a composite image update holding unit 5, an image input unit 10, a moving subject information generation unit 11, A moving subject information input unit 12 and an output device 40 are shown.
These parts are not necessarily limited to the components in the same housing. In particular, the image input unit 10, the moving subject information generation unit 11, the moving subject information input unit 12, and the output device 40 can be considered as separate components. Further, only one of the moving subject information generation unit 11 and the moving subject information input unit 12 may be provided.
Each of the input image selection unit 2, the layer processing unit 3, the image output unit 4, and the composite image update holding unit 5 may be configured as a hardware block. However, in an arithmetic processing unit such as a microcomputer, software It can also be realized as a functional block realized by a program.
The image processing apparatus 1 may be provided inside a device such as an imaging device (such as a video camera) or a video reproduction device, or may be configured as a single image processing dedicated device. Furthermore, it may be configured to execute an image processing function realized by cooperation of software and hardware in a personal computer or the like.

画像入力部10では、生成する動作推移画像(静止画または動画)の元となるフレーム画像データ群の入力を行う。
フレーム画像データとは、動画を構成する各フレームの1つであったり、例えば連写撮像された静止画の1枚1枚の画像などのことである。即ち1枚の画像を構成する画像データのことを広く示すものとして、「フレーム画像データ」という用語を用いる。
この画像入力部10は、当該画像処理装置1が撮像装置に搭載されるのであれば、レンズ系や受光素子、画像信号処理を行って撮像画像信号を得る一連の撮像系部位に相当することになる。
また外部の撮像装置で得られた撮像画像を取り込むのであれば、画像入力部10は、外部機器から転送・送信・ダウンロード等されてくる画像信号の受信処理系とされることもある。例えば放送波に対するチューナ部や、USB(Universal Serial Bus)インターフェース等の外部機器インターフェース部、さらには有線又は無線のネットワーク通信部などが想定される。
また、撮像画像データ等の画像信号がメモリカード(固体メモリ)、光ディスク等の記録媒体に記録されている場合は、画像入力部10は、これらの記録媒体に対して再生を行う再生系部位又は再生プログラムとして実現される。
The image input unit 10 inputs a frame image data group that is a source of a motion transition image (still image or moving image) to be generated.
The frame image data is one of each frame constituting a moving image or, for example, one image of each still image captured continuously. That is, the term “frame image data” is used to widely indicate the image data constituting one image.
The image input unit 10 corresponds to a lens system, a light receiving element, and a series of imaging system parts that obtain an image signal by performing image signal processing if the image processing apparatus 1 is mounted on the imaging apparatus. Become.
If a captured image obtained by an external imaging device is captured, the image input unit 10 may be a reception processing system for image signals transferred, transmitted, downloaded, etc. from an external device. For example, a tuner unit for broadcast waves, an external device interface unit such as a USB (Universal Serial Bus) interface, a wired or wireless network communication unit, and the like are assumed.
In addition, when an image signal such as captured image data is recorded on a recording medium such as a memory card (solid memory) or an optical disk, the image input unit 10 plays a reproduction system part or a reproduction system part that reproduces the recording medium Realized as a playback program.

画像入力部10によっては、動画としての各フレーム画像データや、静止画連写撮像などによって得られた複数のフレーム画像データが入力され、画像入力部10はこれらのフレーム画像データを入力画選択部2及び動被写体情報生成部11に供給する。
なお、画像入力部10は前処理を行うこともある。動画像のファイルを受け取った場合に各フレームに展開したり、インターレース画像を受け取った場合にプログレッシブ化を行うなど処理に必要な形へ適切な変換を行う。また、拡大縮小を行うこともある。
Depending on the image input unit 10, each frame image data as a moving image or a plurality of frame image data obtained by still image continuous shooting or the like is input, and the image input unit 10 inputs these frame image data into an input image selection unit. 2 and the moving subject information generation unit 11.
The image input unit 10 may perform preprocessing. When a moving image file is received, it is expanded into each frame, and when an interlaced image is received, it is converted into a form necessary for processing such as progressive processing. In addition, enlargement / reduction may be performed.

動被写体情報生成部11は、画像入力部10から受け取った元画像群(フレーム画像データ群)や他の外部情報(深度情報など)を用いて、動被写体情報を生成する。
動被写体情報とは、少なくとも入力されたフレーム画像データのうち、どの部分が動被写体であり、どの部分が背景であるかを判別することが可能な情報である。
動被写体情報生成部11は、入力されたそれぞれのフレーム画像データに対応する動被写体情報を生成し、入力画選択部2に供給する。
The moving subject information generation unit 11 generates moving subject information using the original image group (frame image data group) received from the image input unit 10 and other external information (depth information, etc.).
The moving subject information is information that can determine which part is a moving subject and which part is a background in at least input frame image data.
The moving subject information generation unit 11 generates moving subject information corresponding to each input frame image data, and supplies it to the input image selection unit 2.

動被写体情報は、動被写体画像として表現されることもあり、この場合は各画素が動被写体であるか、背景であるかを画素値として表す。また、各同被写体の場所を表す情報を式やベクトルで表す場合もある。
動被写体情報生成部11は、動被写体と背景の分離のほか、複数の動被写体が存在する場合、それぞれを分離し、かつ深度別に分離することもある。この場合、動被写体情報を画像で表すときは動被写体か背景かの2値画像ではなく、各画素がどの深度にあるかを表す多値画像(または多チャンネル画像)となる。これについては図28,図29を用いて後述する。
The moving subject information may be expressed as a moving subject image. In this case, whether each pixel is a moving subject or a background is expressed as a pixel value. In addition, information indicating the location of each subject may be expressed by an equation or a vector.
In addition to the separation of the moving subject and the background, the moving subject information generation unit 11 separates each of the moving subjects when there are a plurality of moving subjects, and may separate them according to depth. In this case, when the moving subject information is represented by an image, it is not a binary image of the moving subject or the background, but a multi-value image (or multi-channel image) representing what depth each pixel is at. This will be described later with reference to FIGS.

また、動被写体情報の生成は本例の画像処理装置1の装置内でなくともよく、他の装置やプログラムで生成された動被写体情報を受け取ることもできる。動被写体情報入力部12は、画像入力部10で入力される各フレーム画像データについての動被写体情報を外部から受け取る部位として示している。動被写体情報入力部12は、入力されたそれぞれのフレーム画像データに対応する動被写体情報を外部から入力し、入力画選択部2に供給する。
なお、従って動被写体情報生成部11と動被写体情報入力部12は、少なくとも一方が設けられればよい。但し、動被写体情報生成部11で生成される動被写体情報と、動被写体情報入力部12で入力される動被写体情報を併用することもでき、その意味で、動被写体情報生成部11と動被写体情報入力部12が両方設けられることも有用である。
The moving subject information may not be generated in the image processing apparatus 1 of this example, and moving subject information generated by another device or program can be received. The moving subject information input unit 12 is shown as a part that receives moving subject information for each frame image data input by the image input unit 10 from the outside. The moving subject information input unit 12 inputs moving subject information corresponding to each input frame image data from the outside, and supplies it to the input image selection unit 2.
Therefore, at least one of the moving subject information generation unit 11 and the moving subject information input unit 12 may be provided. However, the moving subject information generated by the moving subject information generation unit 11 and the moving subject information input by the moving subject information input unit 12 can be used together. In this sense, the moving subject information generation unit 11 and the moving subject information are also included. It is also useful that both information input units 12 are provided.

入力画選択部2は、画像入力部10から順次供給されるフレーム画像データについて、動作推移画像の生成のための処理を行う。即ちレイヤー処理部3での合成処理に用いる必要な画像データを選択し、適切な画像の組み合わせをレイヤー処理部3に出力する。また入力画選択部2は、レイヤー処理部3に出力するフレーム画像データに対応する動被写体情報や、合成のための座標情報など合成処理に必要な情報をレイヤー処理部3に出力する。
図1では、入力画選択部2内にキーフレーム判定部21と座標計算部22を示している。
キーフレーム判定部21は、キーフレームの判定処理や、それに基づくレイヤー処理部3に出力するフレーム画像データの選定を行う。また座標計算部22は、合成処理のための座標計算を行う。
The input image selection unit 2 performs processing for generating a motion transition image for the frame image data sequentially supplied from the image input unit 10. That is, necessary image data used for the composition processing in the layer processing unit 3 is selected, and an appropriate combination of images is output to the layer processing unit 3. Further, the input image selection unit 2 outputs information necessary for the synthesis process such as moving subject information corresponding to the frame image data output to the layer processing unit 3 and coordinate information for synthesis to the layer processing unit 3.
In FIG. 1, a key frame determination unit 21 and a coordinate calculation unit 22 are shown in the input image selection unit 2.
The key frame determination unit 21 performs key frame determination processing and selection of frame image data to be output to the layer processing unit 3 based on the key frame determination processing. The coordinate calculation unit 22 performs coordinate calculation for the synthesis process.

キーフレームとは、動作推移画像としての最終出力画(動画の場合は最終フレーム画)において、動作推移の軌跡として同一の静止画に残される時間軸の異なる複数の画像のことである。例えば時間的に連続するフレーム画像データ群のうちで、適切な単位時間あたりの等間隔で撮像されたフレームがキーフレームとされることが一般的に想定されるが、必ずしも等間隔の時間である必要はなく、撮像対象の動作推移を視認するのに適した間隔に変化させることもある。
キーフレーム判定部21は、画像入力部10から順次供給されるフレーム画像データのうちで、キーフレームとなるフレーム画像データを選定する処理を行う。後述するが、動作推移静止画を生成する場合は、選定したキーフレームのみをレイヤー処理部3の処理に供することになる。また動作推移動画を生成する場合は、入力された全フレーム画像データをレイヤー処理部3の処理に供するが、キーフレームであるか否かによって、レイヤー処理部3での合成画像の扱いが異なることになる。
A key frame is a plurality of images with different time axes that are left in the same still image as a motion transition locus in a final output image (a final frame image in the case of a moving image) as a motion transition image. For example, it is generally assumed that frames captured at appropriate intervals per unit time in a group of continuous frame image data are assumed to be key frames. There is no need, and the interval may be changed to a suitable interval for visually recognizing the movement of the imaging target.
The key frame determination unit 21 performs a process of selecting frame image data to be a key frame from the frame image data sequentially supplied from the image input unit 10. As will be described later, when the motion transition still image is generated, only the selected key frame is used for the processing of the layer processing unit 3. When generating a motion transition video, the input all frame image data is used for the processing of the layer processing unit 3, but the combined processing in the layer processing unit 3 differs depending on whether it is a key frame or not. become.

レイヤー処理部3は、レイヤー分離部31,レイヤー加工部32,レイヤー合成部33を備え、動作推移画像の生成処理を行う。
レイヤー分離部31は、動被写体情報を用いて、入力されたフレーム画像データのレイヤー分離を行う。レイヤーとは、1つのフレーム画像データにつき、動被写体部分と背景部分等で分離させたそれぞれをいう。レイヤー分離部31はレイヤー合成を行う該当範囲を、例えば動被写体情報を元に入力画像と前回キーフレーム画像を背景と動被写体に分離して各レイヤーの画像を生成する。複数の動被写体が存在し、それらの深度がわかる場合はそれぞれの動被写体の数+背景の数のレイヤーに分離する。
レイヤー加工部32は、分離された各レイヤーの切り取り、拡大縮小、座標移動などの加工を行う。即ちレイヤー分離された各レイヤーに対して様々な処理を行い、合成できる形に加工する。レイヤー加工部32が行う処理は「拡大縮小」「回転」「平行移動」など、幾何学的な演算が行われることが多いが、動作部分の強調などの画像処理が行われることもある。拡大縮小はキーフレームの枚数、出力画像サイズなどによって決定される。
レイヤー合成部33は、加工されたレイヤーや前回以前の合成画像を用いた合成処理を行う。即ちレイヤー加工部32によって加工された画像、前回以前の合成画像、動被写体情報等を元に、出力する画像の合成を行う。ここでいう合成とは動被写体情報を元に、どのレイヤーの画素を出力画像に反映するかの判定を行い、出力画像を生成することとなる。単一レイヤーの画素から選択することもあるが、複数レイヤーの画素を混合して出力する場合もある。
これらレイヤー処理部3の処理については後述する。
The layer processing unit 3 includes a layer separation unit 31, a layer processing unit 32, and a layer synthesis unit 33, and performs a motion transition image generation process.
The layer separation unit 31 performs layer separation of the input frame image data using the moving subject information. A layer refers to each frame image data separated by a moving subject portion and a background portion. The layer separation unit 31 generates an image of each layer by separating the corresponding range in which layer synthesis is performed, for example, based on moving subject information, an input image and a previous key frame image into a background and a moving subject. If there are a plurality of moving subjects and their depths are known, the layers are separated into the number of moving subjects + the number of backgrounds.
The layer processing unit 32 performs processing such as cutting, scaling, and coordinate movement of each separated layer. In other words, various processes are performed on the separated layers to process them into a form that can be combined. The processing performed by the layer processing unit 32 is often performed with geometric operations such as “enlargement / reduction”, “rotation”, and “translation”. However, image processing such as enhancement of an operation part may be performed. Enlargement / reduction is determined by the number of key frames, the output image size, and the like.
The layer composition unit 33 performs composition processing using the processed layer and the previous composite image. That is, the output image is combined based on the image processed by the layer processing unit 32, the previous combined image, moving subject information, and the like. The composition here refers to determining which layer of pixels to reflect in the output image based on the moving subject information and generating the output image. There are cases where the pixel is selected from pixels of a single layer, but there are also cases where a plurality of layers of pixels are mixed and output.
The processing of these layer processing units 3 will be described later.

画像出力部4は、レイヤー処理部3で合成された合成画像を出力デバイス40に出力する。出力デバイス40とは、モニタ装置、記憶装置など、動作推移画像の出力先となり得る各種の機器を示すものである。画像出力部4による動作推移画像の具体的な出力先については、表示出力、メモリへの展開、ハードディスクやフラッシュメモリ、ネットワーク先など外部の記憶メディアへの書き込みなど、システムによって異なることとなる。
動作推移静止画を生成する場合は、画像出力部4は、所定数のキーフレームとされたフレーム画像データについての合成処理が完了した時点で完成される動作推移静止画としての1フレームの画像データを出力デバイス40に出力することになる。
また、動作推移動画を生成する場合は、画像出力部4は、各フレーム画像データの入力毎に順次行われる合成処理で得られる合成画像を、それぞれ動画を構成する1フレームの画像データとして出力デバイス40に出力していくことになる。
また画像出力部4は、合成処理対象のフレーム画像データの全てがキーフレームである動作推移静止画生成時は、今回の合成画像データを、次のフレーム画像データについての処理時に既存の前回の合成画像データとして使用できるようにするため、合成画像更新保持部5に出力して更新記憶させる。
一方、画像出力部4は、動作推移動画生成時においては、今回の処理に係るフレーム画像データがキーフレームの場合に、今回の合成画像データを、次の処理時に既存の前回の合成画像データとして使用できるようにするため、合成画像更新保持部5に出力して更新記憶させる。
The image output unit 4 outputs the synthesized image synthesized by the layer processing unit 3 to the output device 40. The output device 40 refers to various devices such as a monitor device and a storage device that can be an output destination of an operation transition image. The specific output destination of the operation transition image by the image output unit 4 differs depending on the system, such as display output, development to a memory, writing to an external storage medium such as a hard disk, flash memory, or network destination.
When generating a motion transition still image, the image output unit 4 outputs one frame of image data as a motion transition still image that is completed when the composition processing for the frame image data that has been made into a predetermined number of key frames is completed. Is output to the output device 40.
When generating a motion transition moving image, the image output unit 4 outputs a combined image obtained by combining processing sequentially performed for each frame image data input as image data of one frame constituting each moving image. It will output to 40.
In addition, the image output unit 4 generates the current composite image data at the time of processing the next frame image data at the time of processing for the next frame image data at the time of motion transition still image generation in which all the frame image data to be combined is a key frame. In order to be able to use it as image data, it is output to the composite image update holding unit 5 to be updated and stored.
On the other hand, at the time of motion transition video generation, the image output unit 4 uses the current composite image data as the previous previous composite image data at the next processing when the frame image data related to the current processing is a key frame. In order to be able to use it, it outputs to the synthetic image update holding | maintenance part 5, and it updates and memorize | stores it.

合成画像更新保持部5は、動作推移静止画の生成過程において、各時点の合成画像データを保持する。
例えば動作推移静止画生成時については、画像出力部4から出力される各時点の合成画像を更新しながら保持していく。例えば前回、前々回などとして、合成処理過程で必要とされる過去の合成画像データを更新しながら保持する。また、各合成画像の生成時のキーフレームの情報や、キーフレームの動被写体情報等も記憶保持する。
動作推移動画生成時については、キーフレームの合成処理において生成された合成画像データを更新しながら保持していくことになる。この場合も、各合成画像の生成時のキーフレームの情報や、キーフレームの動被写体情報等も記憶保持する。
The composite image update holding unit 5 holds the composite image data at each time point in the process of generating the motion transition still image.
For example, when generating a motion transition still image, the composite image at each time point output from the image output unit 4 is updated and held. For example, the previous synthetic image data required in the synthesis process is updated and held as the previous time, the last time, or the like. Also, key frame information at the time of generating each composite image, moving subject information of the key frame, and the like are stored and held.
When the motion transition moving image is generated, the composite image data generated in the key frame composition processing is retained while being updated. Also in this case, key frame information at the time of generating each composite image, moving subject information of the key frame, and the like are stored and held.

[2.動作推移画像の第1の生成処理例]

以下、主に入力画選択部2、レイヤー処理部3、画像出力部4、合成画像更新保持部5により実行される動作推移画像の生成処理例として第1の生成処理例を説明していく。
ここでは、図2のような動作推移静止画を生成する場合を例に挙げ、第1の生成処理例についての処理の考え方を図2〜図8で説明し、図9〜図10で具体的な処理例を説明する。
[2. First Generation Processing Example of Motion Transition Image]

Hereinafter, a first generation processing example will be described as an example of a motion transition image generation processing mainly executed by the input image selection unit 2, the layer processing unit 3, the image output unit 4, and the composite image update holding unit 5.
Here, the case of generating a motion transition still image as shown in FIG. 2 is taken as an example, the concept of processing for the first generation processing example will be described with reference to FIG. 2 to FIG. A simple processing example will be described.

まず本例の画像処理装置1で生成される動作推移静止画について図2で説明する。
例えばゴルフスイングを行っている人を被写体として動画撮像もしくは静止画連写撮像を行って得られた複数のフレーム画像データを元に、この図2のような動作推移静止画を生成する。
この図2の動作推移静止画は、先に述べた図32と同様に、比較的多数のフレーム画像データを用い、連続するゴルフスイングの期間の中で多数の時点の画像が表現されている。その上で、図32のように例えばゴルフクラブの先端が欠けてしまうことなどがなく、左右の画像で一部重複しながらも、各フレームの動被写体(人とゴルフクラブ)の全体が表現されている。つまり、動作推移画像として、多数のフレーム画像を用いて十分な動作表現を可能とすることと、動被写体の動作範囲を適切に表現することを両立した画像となっている。以下説明する処理により、このような動作推移画像を実現する。
First, the motion transition still image generated by the image processing apparatus 1 of this example will be described with reference to FIG.
For example, the motion transition still image as shown in FIG. 2 is generated based on a plurality of frame image data obtained by performing moving image capturing or still image continuous shooting with a person performing a golf swing as a subject.
The motion transition still image of FIG. 2 uses a relatively large number of frame image data as in FIG. 32 described above, and represents images at a large number of points in a continuous golf swing period. In addition, as shown in FIG. 32, for example, the tip of the golf club is not lost, and the entire moving subject (person and golf club) of each frame is expressed while partially overlapping the left and right images. ing. In other words, the motion transition image is an image in which sufficient motion expression is possible using a large number of frame images and the motion range of the moving subject is appropriately expressed. Such an operation transition image is realized by the processing described below.

図3により、動作推移静止画の生成処理のイメージを示す。
図3(a)は入力画選択部2に入力される画像データを模式的に示している。例えば動画データであり、図のF1,F2,F3・・・が、それぞれ1つのフレーム画像データを示しているとする。
入力画選択部2は、このような動画として時間的に連続するフレームから、キーフレームを選択する。例えば5フレーム置きのフレームをキーフレームとするとした場合、○を付したフレームF1,F6,F11,F16,F21・・・がキーフレームとなる。図3(b)には、これら各キーフレームの画像内容を図形で示している。
FIG. 3 shows an image of the operation transition still image generation process.
FIG. 3A schematically shows image data input to the input image selection unit 2. For example, it is moving image data, and F1, F2, F3,... In the figure indicate one frame image data.
The input image selection unit 2 selects a key frame from temporally continuous frames as such a moving image. For example, assuming that every fifth frame is a key frame, frames F1, F6, F11, F16, F21,. FIG. 3B shows the image contents of each key frame in a graphic form.

後述するが、動作推移動画を生成する場合には、キーフレーム以外のフレーム画像データ(例えばF2,F3等)も合成処理に用いるが、動作推移静止画を生成する場合は、キーフレームのみが合成処理に用いられる。
この場合、入力画選択部2は、このキーフレームのみを抽出してレイヤー処理部3に受け渡すことになる。
レイヤー処理部3は、後述する処理により、各キーフレームF1,F6,F11,F16,F21・・・の画像が、順次入力画選択部2から供給されるたびに、順次合成処理していくことで、図3(c)のような動作推移静止画を最終的に生成する。このときに、今回合成するキーフレームの動被写体の画像が、それまでの合成済の画像に重複して表現されるようにレイヤー合成処理を行うことになる。
As will be described later, when generating a motion transition video, frame image data other than key frames (for example, F2, F3, etc.) are also used for the synthesis process. However, when generating a motion transition still image, only the key frame is synthesized. Used for processing.
In this case, the input image selection unit 2 extracts only this key frame and transfers it to the layer processing unit 3.
The layer processing unit 3 sequentially performs a composition process every time the images of the key frames F1, F6, F11, F16, F21,. Thus, the motion transition still image as shown in FIG. 3C is finally generated. At this time, the layer composition processing is performed so that the moving subject image of the key frame to be synthesized this time is overlapped with the previously synthesized images.

このような画像合成を行うレイヤー処理部3の処理は次のようになる。
レイヤー分離部31は、レイヤー合成の該当範囲を、動被写体情報を元に入力画像と前回キーフレーム画像を背景と動被写体に分離して各レイヤーの画像を生成する。
図4(a)は、入力画像(或る1つのフレーム画像データ)と、そのフレーム画像データについての動被写体情報を示している。
上述のように入力画選択部2は、画像入力部10から順次供給されるフレーム画像データF1,F2,F3・・・のうち、キーフレームとするフレーム画像データ(例えばF1)をレイヤー処理部3に出力する。
また、入力画選択部2には、動被写体情報生成部11又は動被写体情報入力部12から、各フレーム画像データに対応した動被写体情報が供給されている。入力画選択部2は、キーフレームとしてのフレーム画像データをレイヤー処理部3に供給する際には、そのフレーム画像データに対応する動被写体情報もレイヤー処理部3に供給する。
The processing of the layer processing unit 3 that performs such image composition is as follows.
The layer separating unit 31 separates the input range and the previous key frame image into the background and the moving subject based on the moving subject information, and generates an image of each layer.
FIG. 4A shows an input image (one frame image data) and moving subject information about the frame image data.
As described above, the input image selection unit 2 uses the frame image data (for example, F1) as a key frame among the frame image data F1, F2, F3... Sequentially supplied from the image input unit 10 as the layer processing unit 3. Output to.
The input image selection unit 2 is supplied with moving subject information corresponding to each frame image data from the moving subject information generation unit 11 or the moving subject information input unit 12. When the input image selection unit 2 supplies frame image data as key frames to the layer processing unit 3, the input image selection unit 2 also supplies moving subject information corresponding to the frame image data to the layer processing unit 3.

図4(a)の上段及び下段に示すのは、そのようにしてレイヤー処理部3に与えられるフレーム画像データと、その動被写体情報である。ここでは動被写体情報は、2値の値で表現されているものとしている。つまり動被写体とされる画素について「1」、動被写体以外の背景となっている画素について「0」などとした情報である。図4(a)下段では白抜き部分が「1」つまり動被写体を表し、黒部分は「0」つまり背景を表すものとしている。   The upper and lower parts of FIG. 4A show the frame image data and the moving subject information provided to the layer processing unit 3 in this way. Here, it is assumed that the moving subject information is expressed by binary values. That is, the information is “1” for a pixel that is a moving subject, “0” for a background pixel other than the moving subject, and the like. In the lower part of FIG. 4A, the white portion represents “1”, that is, a moving subject, and the black portion represents “0”, that is, a background.

レイヤー分離部31は、このような動被写体情報を用いて、入力されたフレーム画像データをレイヤー分離する。
図4(b)には、分離後の動被写体レイヤーと背景レイヤーを示している。図4(b)上段の動被写体レイヤーは、図4(a)の入力画像のうちで動被写体部分(つまり動被写体情報=「1」の画素のみ)を抜き出した画像となる。
また図4(b)下段の背景レイヤーは、図4(a)の入力画像のうちで背景部分(つまり動被写体情報=「0」の画素のみ)を抜き出した画像となる。
The layer separation unit 31 separates the input frame image data by using such moving subject information.
FIG. 4B shows the moving subject layer and the background layer after separation. The moving subject layer in the upper part of FIG. 4B is an image obtained by extracting the moving subject portion (that is, only the moving subject information = “1” pixel) from the input image of FIG. 4A.
The lower background layer in FIG. 4B is an image obtained by extracting the background portion (that is, only the moving subject information = “0” pixel) from the input image in FIG.

なお、複数の動被写体が存在する場合を想定し、3値以上の多値の動被写体情報を用いるようにすることもできる。これについては図28,図29で後述するが、動被写体情報生成部11又は動被写体情報入力部12では、複数の動被写体の深度(画像上での奥行き方向の前後関係)に応じて異なる値とした動被写体情報を生成(又は取得)する。
そのような場合は、レイヤー分離部31は、動被写体の数+背景の数のレイヤーに分離することができる。
In addition, assuming that there are a plurality of moving subjects, multi-value moving subject information of three or more values can be used. This will be described later with reference to FIGS. 28 and 29, but the moving subject information generation unit 11 or the moving subject information input unit 12 has different values depending on the depths of the moving subjects (the front-rear relationship in the depth direction on the image). The moving subject information is generated (or acquired).
In such a case, the layer separation unit 31 can separate the layer into the number of moving subjects + the number of backgrounds.

レイヤー加工部32は、上述のように、レイヤー分離された各レイヤーに対して様々な処理を行い、合成できる形に加工する。
動作推移画像は通常、入力されたフレーム画像データの全領域を対象とするのではなく、一部を切り出す形で行われる。
さらに、動被写体が有効となる範囲と、最終画像に残される背景の領域も異なる。
入力されるフレーム画像データとしての画像の幅と高さを(Wimg,Himg)、推移動作有効領域の幅と高さを(Wmov,Hmov)、残存背景領域の幅と高さを(Wback,Hback)とすると、例えば図5(a)(b)(c)のような領域態様が想定される。なお、図5(a)(b)(c)はそれぞれ一例であり、これらに限られない。
図5(a)(b)(c)に示す推移動作有効領域とは、主たる動被写体を切り出す範囲となる。また残存背景領域とは、合成処理において背景画像として用いる領域である。
As described above, the layer processing unit 32 performs various processes on the layers separated into layers and processes them into a form that can be combined.
The motion transition image is usually performed by cutting out a part of the input frame image data rather than the entire region.
Furthermore, the range in which the moving subject is effective is different from the background area left in the final image.
The width and height of the image as the input frame image data (Wimg, Himg), the width and height of the transition operation effective area (Wmov, Hmov), and the width and height of the remaining background area (Wback, Hback) ), For example, a region mode as shown in FIGS. 5A, 5B, and 5C is assumed. 5A, 5B, and 5C are examples, and the present invention is not limited to these.
The transition motion effective area shown in FIGS. 5A, 5B, and 5C is a range in which a main moving subject is cut out. The remaining background area is an area used as a background image in the synthesis process.

これらの推移動作有効領域の値(Wmov,Hmov)や残存背景領域の値(Wback,Hback)は、被写体の推移方向、つまり動作推移画像として表現する際に画像が時間的に進行していく方向によって、幅が同じになったり高さが同じになったりする。
図2に示した動作推移画像のように、各動被写体画像を横方向に推移させる場合は、図5(b)の例のように高さ(Hmov、Hback)が、元のフレーム画像データの高さ(Himg)と同じ値とすることが好適な場合が多い。
また、各動被写体画像を縦方向に推移させる場合は、図5(c)の例のように幅(Wmov、Wback)が、元のフレーム画像データの幅(Wimg)と同じ値とすることが好適な場合が多い。
スポーツのフォーム確認など、動作対象が人物であり、かつ立っている場合は横推移となることが多く、柔道の寝技などが対象である場合は縦推移となる可能性が高い。このように推移方向と、それに伴う各画像の大きさは撮像対象に強く依存する。
These transition motion effective region values (Wmov, Hmov) and remaining background region values (Wback, Hback) are the transition direction of the subject, that is, the direction in which the image progresses in time when expressed as a motion transition image. Depending on the width, the width and height are the same.
When moving each moving subject image in the horizontal direction as in the motion transition image shown in FIG. 2, the height (Hmov, Hback) is the same as that of the original frame image data as in the example of FIG. In many cases, it is preferable to set the same value as the height (Himg).
When moving each moving subject image in the vertical direction, the width (Wmov, Wback) is set to the same value as the width (Wimg) of the original frame image data as in the example of FIG. Often preferred.
When a movement target is a person and standing, such as in a sports form check, the transition is often horizontal, and when a judo sleeping technique is a target, the possibility of vertical transition is high. As described above, the transition direction and the size of each image associated therewith strongly depend on the imaging target.

図6は、実際のフレーム画像データについての、図5(b)の例による、推移動作有効領域と残存背景領域の設定例を示している。
図6(a)は、元の入力されたフレーム画像データであり、例えばフレーム画像データのサイズはVGA(640×480)であるとする。推移動作有効領域と残存背景領域の中心は入力画像であるフレーム画像データの中心と一致するものとする。
推移動作有効領域は、図6(b)のように、幅Wmov=320,高さHmov=480の領域とする。
残存背景領域は、図6(c)のように、幅Wback=160,高さHback=480の領域とする。
もちろんこれは一例にすぎず、実際には被写体の大きさや、動きに応じて適切な設定がされて、合成処理に用いる画像が切り出されればよい。
FIG. 6 shows a setting example of the transition motion effective area and the remaining background area according to the example of FIG. 5B for the actual frame image data.
FIG. 6A shows the original input frame image data. For example, it is assumed that the size of the frame image data is VGA (640 × 480). It is assumed that the centers of the transition motion effective area and the remaining background area coincide with the center of the frame image data that is the input image.
The transition operation effective area is an area having a width Wmov = 320 and a height Hmov = 480 as shown in FIG.
The remaining background area is an area having a width Wback = 160 and a height Hback = 480 as shown in FIG.
Of course, this is merely an example, and in practice, an appropriate setting may be made according to the size and movement of the subject, and an image used for the composition process may be cut out.

レイヤー合成部33は例えば、レイヤー加工部32によって加工された入力画像(今回のキーフレームとされたフレーム画像データ)、前回のキーフレーム画像、動被写体情報、及びその時点で既存の合成画像データを元に、出力する画像の合成を行う。
なお、前回のキーフレーム画像は、前回に入力画選択部2から入力されて合成処理に用いられた画像であるが、これは、今回の処理時点までレイヤー処理部3内に保存しているようにしてもよいし、合成画像更新保持部5で保存しておき、合成処理の際に合成画像更新保持部5から、それまでの合成画像データとともに読み出しても良い。
For example, the layer compositing unit 33 receives the input image processed by the layer processing unit 32 (frame image data set as the current key frame), the previous key frame image, moving subject information, and existing composite image data at that time. Originally, the output image is synthesized.
Note that the previous key frame image is an image that was previously input from the input image selection unit 2 and used for the composition processing, but this seems to be stored in the layer processing unit 3 until the current processing time point. Alternatively, it may be stored in the composite image update holding unit 5 and read out from the composite image update holding unit 5 together with the previous composite image data during the synthesis process.

図7を用いて、入力画像(今回のキーフレーム)と前回のキーフレームについての合成時の考え方を説明する。
上述したレイヤー分離部31の処理により、入力された今回のキーフレームは、動被写体レイヤーと残存背景レイヤーに分離されている。
また前回のキーフレームについても、動被写体レイヤーと残存背景レイヤーに分離されている。
図7は、これらの4つのレイヤーについての合成の様子を示している。
図7(a)に示すように、入力された最新のフレーム画像データ(今回のキーフレーム)の動被写体レイヤーを第1に優先する。
また、前回の合成処理に係るフレーム画像データ(前回のキーフレーム)の動被写体レイヤーを第2に優先する。
また、入力された最新のフレーム画像データ(今回のキーフレーム)の残存背景レイヤーを第3に優先する。
また前回の合成処理に係るフレーム画像データ(前回のキーフレーム)の残存背景レイヤーを第4に優先する。
そしてこれらの優先順位に基づいて、4つのレイヤー画像を合成することで、図7(b)のような合成画を得る。
そしてこのような合成画を、その時点で既存の合成画像データの所定領域に合成することで、それまでの多数のキーフレームを用いた合成画像に、新たに1つ動被写体画像を追加する。
The concept at the time of composition of the input image (current key frame) and the previous key frame will be described with reference to FIG.
By the processing of the layer separation unit 31 described above, the input current key frame is separated into the moving subject layer and the remaining background layer.
The previous key frame is also separated into a moving subject layer and a remaining background layer.
FIG. 7 shows the composition of these four layers.
As shown in FIG. 7A, the moving subject layer of the latest input frame image data (current key frame) is given first priority.
Also, the moving subject layer of the frame image data (previous key frame) related to the previous combining process is given second priority.
Further, the remaining background layer of the latest input frame image data (the current key frame) is given the third priority.
Further, the remaining background layer of the frame image data (previous key frame) related to the previous combining process is given priority over the fourth.
Then, based on these priorities, the four layer images are combined to obtain a combined image as shown in FIG.
Then, by combining such a composite image with a predetermined area of existing composite image data at that time, one moving subject image is newly added to the composite image using a number of key frames.

例えば図8には、動作推移静止画が最終的に生成されるまでの間の、ある時点での合成状態を示している。即ち、今回入力されたキーフレームFxについての合成処理が行われた時点である。
今回入力されたキーフレームFxの推移動作有効領域と、前回のキーフレームの入力の際に合成された、今回の処理時点で既存の合成画像データの範囲が、それぞれ図示する範囲であるとする。
今回のキーフレームFxの画像を合成処理により加える際には、図中のB領域については、今回のキーフレームFxの推移動作有効領域の画素をそのまま新たな合成画像データ上にコピーすればよい。
またC領域については、その時点で既存の合成画像データ、つまり前回のキーフレームまでの合成処理後の時点の合成画像データの画素をそのまま新たな合成画像データ上にコピーすればよい。
この場合A領域が問題となる。即ちA領域は、今回のキーフレームFxの動被写体FxDと、前回のキーフレームの動被写体F(x−1)Dの画像が一部重なることになる。この領域Aにおいて、上記図7のような優先順位で各レイヤーを合成することが必要となる。
For example, FIG. 8 shows a composite state at a certain point in time until the motion transition still image is finally generated. In other words, this is the time when the composition process for the key frame Fx input this time is performed.
It is assumed that the transition operation effective area of the key frame Fx input this time and the range of the existing combined image data combined at the time of the previous key frame input are the ranges shown in the drawing.
When the image of the current key frame Fx is added by the composition process, the pixels in the transition operation effective region of the current key frame Fx may be directly copied onto the new composite image data for the region B in the figure.
For the area C, the existing composite image data at that time, that is, the pixel of the composite image data at the time after the composite processing up to the previous key frame may be copied as it is onto the new composite image data.
In this case, the A area becomes a problem. That is, in the area A, the moving subject FxD of the current key frame Fx and the image of the moving subject F (x−1) D of the previous key frame partially overlap. In this area A, it is necessary to synthesize the layers in the priority order as shown in FIG.

即ちレイヤー合成部33は、今回のキーフレームFxと、前回のキーフレームを用い、A領域については、図7のレイヤー合成を行って合成画像を生成する。またB領域は、今回のキーフレームFxのB領域相当部分をそのまま用いる。これによって、今回と前回のキーフレームの画像からA+B領域の合成画像を得る。そして、このようなA+B領域の合成画像を、合成画像更新保持部5から読み出した、この時点で既存の合成画像データに合成する。即ち既存の合成画像データのC領域に続いて、今回生成したA+B領域を貼り付ける処理を行う。
以上により、この図8に示した状態の合成画像データが得られる。
この合成画像データは、合成画像更新保持部5に記憶され、次のキーフレームF(x+1)に係る合成処理の際に、同様に用いられることになる。
That is, the layer synthesizing unit 33 uses the current key frame Fx and the previous key frame, and generates a synthesized image by performing layer synthesis of FIG. As the B area, the portion corresponding to the B area of the current key frame Fx is used as it is. As a result, a composite image of the A + B region is obtained from the current and previous key frame images. Then, such a composite image of the A + B region is read out from the composite image update holding unit 5 and is combined with the existing composite image data at this time. That is, the process of pasting the A + B area generated this time is performed after the C area of the existing composite image data.
Thus, the composite image data in the state shown in FIG. 8 is obtained.
This composite image data is stored in the composite image update holding unit 5 and is used in the same manner in the composite processing relating to the next key frame F (x + 1).

このように、合成の際に重複部分となるA領域において、図7のレイヤー合成を行うことで、動被写体FxDの一部が欠損することなく、それまでの合成画像データに加えられる状態となる。従って、図2で説明したように、多数のキーフレームを用いても、動被写体の動作が適切に表現された動作推移画像が生成されることになる。   As described above, the layer composition shown in FIG. 7 is performed in the area A that is an overlapping part in the composition, so that a part of the moving subject FxD is not lost and is added to the synthesized image data so far. . Therefore, as described with reference to FIG. 2, even when a large number of key frames are used, a motion transition image in which the motion of the moving subject is appropriately expressed is generated.

図9,図10により、画像処理装置1の具体的な処理例を説明する。
図9は、動作推移静止画を生成する際の、入力画選択部2、レイヤー処理部3、画像出力部4、合成画像更新保持部5によって実行される処理を示している。
A specific processing example of the image processing apparatus 1 will be described with reference to FIGS. 9 and 10.
FIG. 9 shows processing executed by the input image selection unit 2, the layer processing unit 3, the image output unit 4, and the composite image update holding unit 5 when generating a motion transition still image.

ステップF101〜F104は入力画選択部2の処理となる。
上述したように入力画選択部2には、画像入力部10から時間的に連続するフレーム画像データが供給される。入力画選択部2は、1枚のフレーム画像データが供給されるたびにステップF102で、そのフレーム画像データと、動被写体情報生成部11(又は動被写体情報入力部12)からフレーム画像データに対応する動被写体情報を取り込む処理を行う。
なお、ステップF101の判断は、動作推移静止画を生成する一連のフレーム画像データの取込、つまり画像入力部10からの供給が終了したか否かの判断である。つまり動作推移静止画として反映させる所定数のキーフレームの入力が完了するまでは、ステップF101からF102に進むことになる。
Steps F101 to F104 are processing of the input image selection unit 2.
As described above, temporally continuous frame image data is supplied from the image input unit 10 to the input image selection unit 2. Each time one piece of frame image data is supplied, the input image selection unit 2 responds to the frame image data and the frame image data from the moving subject information generation unit 11 (or the moving subject information input unit 12) in step F102. A process for capturing moving subject information to be performed is performed.
Note that the determination in step F101 is a determination of whether a series of frame image data for generating a motion transition still image has been taken, that is, whether the supply from the image input unit 10 has been completed. That is, the process advances from step F101 to F102 until the input of a predetermined number of key frames to be reflected as the motion transition still image is completed.

入力画選択部2は、ステップF102でフレーム画像データ及び動被写体情報を取り込んだら、ステップF103で、当該フレーム画像データをキーフレームとするか否かを選定する。例えば図3のようにキーフレーム選定を行うとすると、1番目、6番目、11番目・・・という5フレーム置きのフレームをキーフレームとする。   When the input image selection unit 2 fetches the frame image data and the moving subject information in step F102, the input image selection unit 2 selects whether or not the frame image data is used as a key frame in step F103. For example, when key frame selection is performed as shown in FIG. 3, every fifth frame of first, sixth, eleventh,...

入力されたフレーム画像データがキーフレームである場合は、入力画選択部2は、処理をステップF104に進める。入力されたフレーム画像データがキーフレームではない場合は、入力画選択部2は、処理をステップF101に戻し、次のフレーム画像データの入力の処理を行うことになる。つまり動作推移静止画の生成処理では、キーフレーム以外は合成処理に用いないようにする。   If the input frame image data is a key frame, the input image selection unit 2 advances the process to Step F104. If the input frame image data is not a key frame, the input image selection unit 2 returns the process to step F101 and performs the process of inputting the next frame image data. That is, in the operation transition still image generation process, only the key frame is used for the composition process.

入力画選択部2は、ステップF102で取り込んだフレーム画像データがキーフレームであった場合、当該フレーム画像データを合成処理に用いるための処理を行う。このためステップF104では座標計算を行う。この座標計算は、今回のフレーム画像データを合成画像に反映させる画素位置を計算するものとなる。即ち最終的な合成画像のサイズ(動作推移静止画のサイズ)の中で、今回のフレーム画像データを当てはめる画素範囲の算出処理である。
入力画選択部2は、このステップF104で算出した座標を、今回のフレーム画像データ(今回のキーフレーム画像)及び動被写体情報と共に、レイヤー処理部3に出力する。
When the frame image data captured in step F102 is a key frame, the input image selection unit 2 performs a process for using the frame image data for the synthesis process. For this reason, coordinate calculation is performed in step F104. This coordinate calculation is to calculate the pixel position at which the current frame image data is reflected in the composite image. That is, this is a pixel range calculation process to which the current frame image data is applied in the final synthesized image size (motion transition still image size).
The input image selection unit 2 outputs the coordinates calculated in step F104 to the layer processing unit 3 together with the current frame image data (current key frame image) and moving subject information.

レイヤー処理部3においては、まずステップF105で、レイヤー分離部31が、入力されたフレーム画像データ(今回のキーフレーム画像)と動被写体情報、さらには前回キーフレーム画像、前回キーフレーム画像の動被写体情報を使用して4レイヤーに分割する。つまり図4で説明したように動被写体情報を用いて動被写体レイヤーと背景レイヤーに分割し、図7(a)のように今回キーフレームの動被写体レイヤー、前回キーフレームの動被写体レイヤー、今回キーフレームの背景レイヤー、前回キーフレームの背景レイヤーに分割する。
なお、前回キーフレームの動被写体レイヤー、前回キーフレームの背景レイヤーについては、前回のキーフレームが入力された際にステップF105で行われたレイヤー分離結果を今回の処理に用いるために記憶しておけばよい。或いは前回入力されたキーフレームの画像データと動被写体情報を、今回の処理に用いるために記憶しておいてもよい。
In the layer processing unit 3, first, in step F105, the layer separation unit 31 receives the input frame image data (current key frame image) and moving subject information, and the moving subject of the previous key frame image and previous key frame image. Divide into 4 layers using information. That is, as described in FIG. 4, the moving subject information is used to divide the moving subject layer and the background layer, and as shown in FIG. 7A, the moving subject layer of the current key frame, the moving subject layer of the previous key frame, the current key Divide into the frame background layer and the previous keyframe background layer.
For the moving subject layer of the previous key frame and the background layer of the previous key frame, the layer separation result performed in step F105 when the previous key frame is input can be stored for use in this processing. That's fine. Alternatively, the previously input key frame image data and moving subject information may be stored for use in the current process.

4レイヤーの分割は、図7(a)のそれぞれのレイヤー画像を作成してメモリ領域上に記憶しても良いが、ここでは「レイヤー分離情報」を作成することでレイヤー分離を行う例を説明する。
このレイヤー分離情報は、前回キーフレーム画像と今回キーフレーム画像の推移動作有効領域の重なる部分、即ち図8で説明した合成対象領域における各画素として、どのレイヤーが最終的に有効であるかを画素値で表現するものである。
For the four-layer division, each layer image shown in FIG. 7A may be created and stored in the memory area. Here, an example in which layer separation is performed by creating “layer separation information” will be described. To do.
This layer separation information is a pixel indicating which layer is finally effective as a portion where the transition operation effective area of the previous key frame image and the current key frame image overlaps, that is, each pixel in the composition target area described in FIG. It is expressed by value.

この処理を図10に示す。図10の処理は、今回キーフレームの推移動作有効領域の全画素について1つずつ判定していく処理となる。
まず、レイヤー処理部3はステップF200において、今回キーフレームの推移動作有効領域の最初の画素を判定対象とする。そして当該判定対象の画素について、ステップF201〜F210の判定処理を行う。
ステップF211で、今回キーフレームの推移動作有効領域の全画素について判定処理を終えるまでは、ステップF212で判定対象を次の画素に変更しながら、ステップF201〜F210の判定処理を繰り返すことになる。
This process is shown in FIG. The process of FIG. 10 is a process of determining one by one for all the pixels in the current key frame transition operation effective area.
First, in step F200, the layer processing unit 3 sets the first pixel of the current key frame transition operation effective area as a determination target. Then, the determination process of steps F201 to F210 is performed for the determination target pixel.
In step F211, the determination process in steps F201 to F210 is repeated while the determination target is changed to the next pixel in step F212 until the determination process is completed for all pixels in the current key frame transition operation effective region.

ステップF201では、レイヤー処理部3は判定対象の1つの画素について、その画素が合成対象領域内の画素であるか否かを判定する。
合成対象領域内でない場合は、ステップF202に進み、レイヤー処理部3は、その今回キーフレームにおける当該判定対象の画素を、合成結果画像(レイヤー合成画像)にコピーする画素とする。例えば当該判定対象の画素について、レイヤー分離情報に、画素値「0」を格納する。そしてステップF211に進む。
例えば図8のB領域に相当する画素については、このステップF201→F202の処理が行われることになる。
In step F <b> 201, the layer processing unit 3 determines, for one determination target pixel, whether the pixel is a pixel in the composition target area.
If it is not within the compositing target area, the process proceeds to step F202, and the layer processing unit 3 sets the determination target pixel in the current key frame as a pixel to be copied to the compositing result image (layer composite image). For example, the pixel value “0” is stored in the layer separation information for the determination target pixel. Then, the process proceeds to Step F211.
For example, for the pixel corresponding to the area B in FIG. 8, the process from step F201 to step F202 is performed.

判定対象の画素が合成対象領域内である場合は、レイヤー処理部3はステップF203に進み、判定対象の画素が、今回キーフレームの動被写体領域の画素か否かを判定する。判定対象の画素が、今回キーフレームの動被写体領域の画素である場合は、ステップF204で、当該判定対象の画素について、レイヤー分離情報に、画素値「1」を格納する。そしてステップF211に進む。画素値「1」とは、図7(a)の「第1優先」を示す値である。
例えば図8のA領域(合成対象領域内)であって、今回キーフレームの動被写体領域の画素、例えばゴルフクラブの先端部分の画素などについては、このステップF203→F204の処理が行われることになる。
If the determination target pixel is within the compositing target area, the layer processing unit 3 proceeds to step F203 to determine whether the determination target pixel is a pixel in the moving subject area of the current key frame. If the determination target pixel is a pixel in the moving subject area of the current key frame, the pixel value “1” is stored in the layer separation information for the determination target pixel in step F204. Then, the process proceeds to Step F211. The pixel value “1” is a value indicating “first priority” in FIG.
For example, in the area A in FIG. 8 (within the composition target area), the process from step F203 to F204 is performed on the pixels in the moving subject area of the current key frame, for example, the pixels at the tip of the golf club. Become.

判定対象の画素が、ステップF203で今回キーフレームの動被写体領域の画素ではないと判定された場合は、レイヤー処理部3はステップF205で、判定対象の画素が前回キーフレームの動被写体領域に相当するか否かを判定する。これに該当する場合、レイヤー処理部3はステップF206に進み、当該判定対象の画素について、レイヤー分離情報に、画素値「2」を格納する。そしてステップF211に進む。画素値「2」とは、図7(a)の「第2優先」を示す値である。
例えば図8のA領域(合成対象領域内)であって、前回キーフレームの動被写体領域の画素、例えば動被写体F(x−1)Dを構成する画素などについては、このステップF205→F206の処理が行われることになる。
If it is determined in step F203 that the pixel to be determined is not a pixel in the moving subject area of the current key frame, the layer processing unit 3 corresponds to the moving subject area in the previous key frame in step F205. It is determined whether or not to do. If this is the case, the layer processing unit 3 proceeds to step F206, and stores the pixel value “2” in the layer separation information for the determination target pixel. Then, the process proceeds to Step F211. The pixel value “2” is a value indicating “second priority” in FIG.
For example, in the area A (in the composition target area) in FIG. 8, the pixels in the moving subject area of the previous key frame, for example, the pixels constituting the moving subject F (x−1) D, etc. Processing will be performed.

判定対象の画素が、ステップF205で前回キーフレームの動被写体領域の画素ではないと判定された場合は、レイヤー処理部3はステップF207で、判定対象の画素が今回キーフレームの背景領域に相当するか否かを判定する。これに該当する場合、レイヤー処理部3はステップF208に進み、当該判定対象の画素について、レイヤー分離情報に、画素値「3」を格納する。そしてステップF211に進む。画素値「3」とは、図7(a)の「第3優先」を示す値である。
また判定対象の画素が、ステップF207で今回キーフレームの背景領域の画素ではないと判定された場合は、レイヤー処理部3はステップF209で、判定対象の画素が前回キーフレームの背景領域に相当するか否かを判定する。これに該当する場合、レイヤー処理部3はステップF210に進み、当該判定対象の画素について、レイヤー分離情報に、画素値「4」を格納する。そしてステップF211に進む。画素値「4」とは、図7(a)の「第4優先」を示す値である。
If it is determined in step F205 that the pixel to be determined is not a pixel in the moving subject area of the previous key frame, the layer processing unit 3 corresponds to the background area of the current key frame in step F207. It is determined whether or not. If this is the case, the layer processing unit 3 proceeds to step F208, and stores the pixel value “3” in the layer separation information for the pixel to be determined. Then, the process proceeds to Step F211. The pixel value “3” is a value indicating “third priority” in FIG.
If it is determined in step F207 that the pixel to be determined is not a pixel in the background region of the current key frame, the layer processing unit 3 corresponds to the background region in the previous key frame in step F209. It is determined whether or not. If this is the case, the layer processing unit 3 proceeds to step F210, and stores the pixel value “4” in the layer separation information for the pixel to be determined. Then, the process proceeds to Step F211. The pixel value “4” is a value indicating “fourth priority” in FIG.

以上の処理を、ステップF211で、今回キーフレームの推移動作有効領域の全画素について判定が終わったとされるまで行う。
合成対象領域における、図7(a)に示したような4つのレイヤーは、下から順に「前回キーフレーム画像の背景レイヤー(第4優先)」「今回キーフレームの残存背景レイヤー(第3優先)」「前回キーフレーム画像の動被写体レイヤー(第2優先)」「今回キーフレームの動被写体レイヤー(第1優先)」となっている。これらを下から順番に重ね、上から見たものが出力画像となる。すなわち上のレイヤーが優先され、自己レイヤーの上にあるレイヤーに有効画素がある場合は自己レイヤーの画素が有効であっても無効であっても、またどんな画素値であっても関係がない。
The above processing is performed until it is determined in step F211 that all pixels in the current key frame transition operation effective region have been determined.
The four layers as shown in FIG. 7A in the composition target area are “background layer of the previous key frame image (fourth priority)” “remaining background layer of the current key frame (third priority) in order from the bottom. “The moving subject layer of the previous key frame image (second priority)” and “the moving subject layer of the current key frame (first priority)”. These are overlapped in order from the bottom, and the one viewed from the top is the output image. That is, when the upper layer is given priority and there is a valid pixel in the layer above the self layer, it does not matter whether the pixel of the self layer is valid or invalid, or any pixel value.

上記図10の処理が行われることで、レイヤー分離情報には、合成対象領域内の各画素について、有効レイヤーの番号を保持することになる。
例えばレイヤー分離情報の或る画素値が「1」であれば、結果画像におけるその画素位置には、第1優先である今回キーフレーム画像の動被写体レイヤーから抽出する画素を用いるべきことが示される。
また例えばレイヤー分離情報の或る画素値が「2」であれば、その画素位置は第2優先である前回キーフレーム画像の動被写体レイヤーから抽出する画素を用いることが示される。
つまりレイヤー分離情報によって、図7(a)で説明した各レイヤーが表現される。
By performing the processing of FIG. 10, the layer separation information holds the effective layer number for each pixel in the composition target area.
For example, if a certain pixel value of the layer separation information is “1”, it is indicated that a pixel extracted from the moving subject layer of the current key frame image that is the first priority should be used for the pixel position in the result image. .
Further, for example, if a certain pixel value of the layer separation information is “2”, it is indicated that a pixel extracted from the moving subject layer of the previous key frame image having the second priority is used.
That is, each layer described in FIG. 7A is expressed by the layer separation information.

続いてレイヤー処理部3は、図9のステップF106として、レイヤー加工部32による加工処理を行う。即ちレイヤー合成に必要な加工を行う。なお、この加工処理としては、入力画像のサイズと合成結果の画像上での入力画像を反映させるサイズなどに応じて拡大縮小を行ったり、画像の回転などを行う。特にそのまま入力画像の各画素を合成結果に反映させる場合などは、拡大縮小や回転の処理は不要な場合もある。   Subsequently, the layer processing unit 3 performs processing by the layer processing unit 32 as Step F106 of FIG. That is, processing necessary for layer composition is performed. Note that as this processing, enlargement / reduction, rotation of the image, or the like is performed according to the size of the input image and the size that reflects the input image on the resultant image. In particular, when the pixels of the input image are reflected as they are in the synthesis result, the enlargement / reduction or rotation processing may not be necessary.

続いてレイヤー処理部3はステップF107として、レイヤー合成を行い、今回キーフレームと前回キーフレームでのレイヤー合成画像を生成する。なお、ここでいうレイヤー合成画像とは、図8でのA+B領域の画像のことである。   Subsequently, in step F107, the layer processing unit 3 performs layer composition to generate a layer composite image at the current key frame and the previous key frame. Note that the layer composite image referred to here is an image of the A + B region in FIG.

まず、上記図10のステップF202で画素値「0」と判定された画素、つまり図8でいえばB領域内の画素については、そのまま今回キーフレームから抽出した画素をレイヤー合成画像にコピーして当てはめる。
レイヤー合成は合成対象領域(A領域)内の各画素について行うことになる。
この場合、各画素についてレイヤー分離情報を参照し、画素値「1」とされている画素位置には、今回キーフレームから該当画素を抽出してレイヤー合成画像に当てはめる。また画素値「2」であれば前回キーフレームから該当画素を抽出してレイヤー合成画像に当てはめる。
画素値「3」とされている画素位置には、今回キーフレームから該当画素を抽出してレイヤー合成画像に当てはめる。また画素値「4」であれば前回キーフレームから該当画素を抽出してレイヤー合成画像に当てはめる。
上述のように、レイヤー分離情報には4つのレイヤーのどの画素を有効とするかの情報が各画素位置に対して保持されている。従って各画素位置について、レイヤー分離情報の画素値に応じて今回キーフレーム又は前回キーフレームから画素を抽出して貼り付けることで、図8の合成対象領域について、図7の優先順位に沿った合成が行われることになる。
First, for the pixel determined to have the pixel value “0” in step F202 in FIG. 10, that is, the pixel in the area B in FIG. 8, the pixel extracted from the current key frame is copied to the layer composite image as it is. Apply.
Layer synthesis is performed for each pixel in the synthesis target area (A area).
In this case, the layer separation information is referred to for each pixel, and the corresponding pixel is extracted from the current key frame and applied to the layer composite image at the pixel position where the pixel value is “1”. If the pixel value is “2”, the corresponding pixel is extracted from the previous key frame and applied to the layer composite image.
At the pixel position with the pixel value “3”, the corresponding pixel is extracted from the current key frame and applied to the layer composite image. If the pixel value is “4”, the corresponding pixel is extracted from the previous key frame and applied to the layer composite image.
As described above, information indicating which pixels of the four layers are valid is stored in the layer separation information for each pixel position. Therefore, for each pixel position, by extracting and pasting a pixel from the current key frame or the previous key frame according to the pixel value of the layer separation information, the composition target region in FIG. 8 is synthesized according to the priority order of FIG. Will be done.

以上の処理で、図8でのA+B領域に相当するレイヤー合成画像が生成され、このレイヤー合成画像では、図8のように、今回のキーフレームFxの動被写体FxDと、前回のキーフレームの動被写体F(x−1)Dの画像が一部重なりながら、今回のキーフレームFxの動被写体FxDは、欠けずに表現されている。
なお、レイヤー合成処理では、今回キーフレームの動被写体レイヤーが第1優先となるので、動被写体画像が今回と前回で重なった部分は、常に、今回、つまりその時点で最新のフレームの動被写体画像が優先されることになる。
Through the above processing, a layer composite image corresponding to the A + B region in FIG. 8 is generated. In this layer composite image, as shown in FIG. 8, the moving subject FxD of the current key frame Fx and the previous key frame are moved. While the image of the subject F (x−1) D partially overlaps, the moving subject FxD of the current key frame Fx is expressed without being missing.
In the layer compositing process, since the moving subject layer of the current key frame has the first priority, the portion where the moving subject image overlaps this time and the previous time is always the current subject, that is, the moving subject image of the latest frame at that time. Will be given priority.

続いてレイヤー処理部3はステップF108として、レイヤー合成画像を、その時点で既存の前回合成画像に合成する。既存の前回合成画像データは、合成画像更新保持部5に保存されているため、レイヤー処理部3は、合成画像更新保持部5から読み出した前回合成画像データに、ステップF107で生成したレイヤー合成画像を合成する。
図8の例で言えば、この時点で既存の合成画像データは、C領域+A領域までの各キーフレーム画像が合成された状態となっている。このような合成画像データに対して、A+B領域のレイヤー合成画像をコピーする。A領域については、レイヤー合成画像によって上書きされることになる。これによって図8に示しているような状態の合成画像データが生成される。
Subsequently, in step F108, the layer processing unit 3 combines the layer composite image with the existing previous composite image at that time. Since the previous previous composite image data is stored in the composite image update holding unit 5, the layer processing unit 3 adds the layer composite image generated in step F107 to the previous composite image data read from the composite image update holding unit 5. Is synthesized.
In the example of FIG. 8, the existing combined image data is in a state where the key frame images up to the C area + A area are combined at this point. A layer composite image in the A + B area is copied to such composite image data. The A area is overwritten by the layer composite image. As a result, composite image data in a state as shown in FIG. 8 is generated.

このように生成された今回の合成画像データは、ステップF109でレイヤー処理部3から画像出力部4に転送される。画像出力部4は、この合成画像データを取り込んだ後、合成画像更新保持部5に供給する。
合成画像更新保持部5はステップF110で、供給された合成画像データを、次回の合成処理に用いる既存の合成画像データとして記憶保持する。つまり既存の合成画像データの内容を今回生成された合成画像データに更新する。
そして、ステップF101に戻り、次のフレーム画像データの入力に対する処理に移る。
The current composite image data generated in this way is transferred from the layer processing unit 3 to the image output unit 4 in step F109. The image output unit 4 captures this composite image data and then supplies it to the composite image update holding unit 5.
In step F110, the composite image update holding unit 5 stores and holds the supplied composite image data as existing composite image data used for the next composite processing. That is, the content of the existing composite image data is updated to the composite image data generated this time.
Then, the process returns to step F101, and the process for the input of the next frame image data is started.

なお、この図9の例ではステップF107でレイヤー合成を行い、ステップF108でレイヤー合成画像を既存の合成画像データに合成するとしたが、一番最初のキーフレームが入力された際の処理は、特に合成処理は不要であることは言うまでもない。当然この時点では既存の合成画像データも存在しない。
この場合は、ステップF107〜F108で、最初のキーフレームの画像の各画素が図8のようなサイズの合成画像データの右上部分の領域にコピーされて最初の合成画像データが生成され、ステップF110で合成画像更新保持部5に保存されることになる。
2番目のキーフレームが入力された以降は、前回キーフレームや、その時点で既存の合成画像データが存在することになるため、上記同様の処理が行われることになる。
In the example of FIG. 9, layer composition is performed in step F107, and the layer composite image is combined with existing composite image data in step F108. However, the processing when the first key frame is input is particularly Needless to say, the synthesis process is unnecessary. Of course, there is no existing composite image data at this point.
In this case, in steps F107 to F108, each pixel of the image of the first key frame is copied to the upper right portion of the composite image data having a size as shown in FIG. Thus, it is stored in the composite image update holding unit 5.
After the second key frame is input, the previous key frame and existing composite image data exist at that time, so the same processing as described above is performed.

また、合成画像データの生成処理は、ステップF107、F108の処理以外にも各種考えられる。例えば、B領域の画素については、既存の合成画像データに先にコピーしてしまい、その後、A領域についてのレイヤー合成画像を生成し、当該レイヤー合成画像を、既存の合成画像データのA領域に上書きコピーするようにしてもよい。   In addition to the processing in steps F107 and F108, various types of composite image data generation processing are possible. For example, the pixels in the area B are copied first into the existing composite image data, and then a layer composite image for the area A is generated, and the layer composite image is stored in the area A of the existing composite image data. You may make it overwrite copy.

以上のステップF101〜F110の処理が、キーフレーム入力毎に繰り返されることで、最終的に図2に示した状態の合成画像データが得られる。
この時点で、ステップF101で、全フレーム取込終了と判断される。すると処理はステップF111に進み、画像出力部4は、その時点で保持している合成画像データ(即ち図2の状態の合成画像データ)を、動作推移静止画データとして出力デバイス40に出力する。
これにより本例の画像処理装置1によって、1枚の動作推移静止画データが生成され、出力されたことになる。
The above-described processing of steps F101 to F110 is repeated for each key frame input, so that composite image data in the state shown in FIG. 2 is finally obtained.
At this point, it is determined in step F101 that all frames have been captured. Then, the process proceeds to step F111, and the image output unit 4 outputs the composite image data held at that time (that is, the composite image data in the state of FIG. 2) to the output device 40 as motion transition still image data.
As a result, one piece of motion transition still image data is generated and output by the image processing apparatus 1 of this example.

以上のように本実施の形態によれば、動作推移画像の自動生成において、動作可能範囲の拡大による動被写体の的確な表現と、多数の動被写体を並べることでの時間方向に精細な動作推移の表現の両立を実現することができる。
特にレイヤー合成により、各動被写体画像が、例えばゴルフクラブの先端等が欠けずに的確に表現され、しかも多数の動被写体画像を並べることができ、時間的に細かい間隔で動作推移を表現できる。
これにより、自己のスポーツのフォーメーションや、野生動物の複雑な動き、実験室における自然現象などを簡単に、かつ非常にわかりやすく確認することができるようになる。また画像データの切り貼りなどの手作業を必要としないのでユーザー負担も非常に軽く有用性が高い。
As described above, according to the present embodiment, in automatic generation of a motion transition image, accurate representation of a moving subject by expansion of the operable range and fine motion transition in the time direction by arranging a large number of moving subjects. It is possible to achieve both expressions.
In particular, by layer synthesis, each moving subject image can be accurately represented, for example, without missing the tip of a golf club, and a large number of moving subject images can be arranged, and motion transitions can be expressed at fine time intervals.
This makes it possible to easily and very easily confirm the formation of one's own sports, complex movements of wild animals, and natural phenomena in the laboratory. Moreover, since manual work such as cutting and pasting of image data is not required, the burden on the user is very light and useful.

また本実施の形態の画像処理装置1は、連続静止画または動画像が撮像できる撮像装置によって撮像された複数のフレーム画像データを取得できるものであればよい。例えば撮像装置に内蔵してもよいし、撮像された複数のフレーム画像データを再生する再生装置に内蔵されてもよい。さらには撮像された複数のフレーム画像データを受信/転送入力される機器に内蔵されてもよい。
従って、例えば携帯電話機、PDA(Personal Digital Assistant)、パーソナルコンピュータ、ビデオ再生装置、ビデオ編集装置などに広く適用できる。
The image processing apparatus 1 according to the present embodiment may be any apparatus that can acquire a plurality of frame image data captured by an imaging apparatus that can capture a continuous still image or a moving image. For example, it may be built in the imaging device, or may be built in a playback device that plays back a plurality of captured frame image data. Further, it may be incorporated in a device that receives / transfers input a plurality of captured frame image data.
Therefore, the present invention can be widely applied to, for example, a mobile phone, a PDA (Personal Digital Assistant), a personal computer, a video playback device, a video editing device, and the like.

[3.動作推移画像の第2の生成処理例]

続いて、同じく主に入力画選択部2、レイヤー処理部3、画像出力部4、合成画像更新保持部5により実行される動作推移画像の生成処理例として第2の生成処理例を説明していく。
ここでは、図11〜図20のような動作推移動画を生成する場合を例に挙げ、図21〜図27により具体的な処理例を説明する。
なお、上述した第1の生成処理例と、以下の第2の生成処理例とは、合成処理方式が異なる例であり、生成される動作推移画像が静止画であるか動画あるかの違いではない。
図30,図31で後述するが、第1の生成処理例に沿って、動作推移動画を生成することもできるし、以下に述べる第2の生成処理例に沿って、動作推移静止画を生成することもできる。
[3. Second Generation Processing Example of Motion Transition Image]

Next, a second generation processing example will be described as an example of a motion transition image generation processing executed mainly by the input image selection unit 2, the layer processing unit 3, the image output unit 4, and the composite image update holding unit 5. Go.
Here, a case where a motion transition moving image as shown in FIGS. 11 to 20 is generated is taken as an example, and a specific processing example is described with reference to FIGS.
Note that the first generation processing example described above and the second generation processing example below are examples in which the synthesis processing method is different, and the difference in whether the generated motion transition image is a still image or a moving image is different. Absent.
As will be described later with reference to FIGS. 30 and 31, a motion transition video can be generated along the first generation processing example, or a motion transition still image can be generated along the second generation processing example described below. You can also

まず本例の画像処理装置1で生成される動作推移動画について説明する。
上述の静止画の場合は、キーフレームのみを用いたが、動画の場合はキーフレーム以外も用いる。但し、最終的にはキーフレームを合成画像に反映させ、キーフレーム以外は、動画の過程で一時的に出力画像に含めるものとなる。
なお、各フレーム画像データがキーフレームであるか否かは、図3の例によるものとする。
First, the motion transition moving image generated by the image processing apparatus 1 of this example will be described.
In the case of the above-described still image, only the key frame is used, but in the case of a moving image, other than the key frame is used. However, the key frame is finally reflected in the composite image, and the other than the key frame is temporarily included in the output image during the moving image process.
Note that whether each frame image data is a key frame is based on the example of FIG.

図11は最初のフレーム画像データ(例えばキーフレーム)F1が入力された際の合成画像データを示している。なお、図11〜図17においては、キーフレームとされたフレーム画像データについては(K)を付している。
次に2番目の、キーフレームではないフレーム画像データF2(以下、キーフレームではないフレーム画像データを「非キーフレーム」という)が入力された際の合成画像データを図12に示す。この場合、キーフレームF1に対して、所定量ずらした画素範囲に非キーフレームF2を合成する。なお、動被写体が重なった部分については、常に最新のフレームの動被写体画像が優先されることは、上述した第1の生成処理例と同様である。
合成は、既存の合成画像データに、入力されたフレーム画像データを合成するという手法を採る。この非キーフレームF2を合成する時点での既存の合成画像データとは、図11のような合成画像データである。
FIG. 11 shows composite image data when the first frame image data (for example, key frame) F1 is input. In FIG. 11 to FIG. 17, (K) is attached to the frame image data that is a key frame.
Next, FIG. 12 shows composite image data when second frame image data F2 that is not a key frame (hereinafter, frame image data that is not a key frame is referred to as “non-key frame”) is input. In this case, the non-key frame F2 is synthesized in a pixel range shifted by a predetermined amount with respect to the key frame F1. As in the first generation processing example described above, the moving subject image of the latest frame is always given priority for the portion where the moving subjects overlap.
For the synthesis, a method of synthesizing the input frame image data with the existing synthesized image data is adopted. The existing composite image data at the time of synthesizing the non-key frame F2 is composite image data as shown in FIG.

次に3番目の非キーフレームF3が入力された際の合成画像データを図13に示す。この場合、図12の非キーフレームF2に対して、所定量ずらした画素範囲に非キーフレームF3を合成する。
ここで合成処理は、上記のように既存の合成画像データに、入力されたフレーム画像データを合成するという手法を採るが、非キーフレームが入力された際の合成画像データは、既存の合成画像データとして用いられない。
従って、この非キーフレームF3が入力された際も、既存の合成画像データとは図11の合成画像データのままである。
つまり前回の非キーフレームF2は合成に用いられず、その時点での既存の合成画像データに対して非キーフレームF3が合成されるため、図のようにフレーム画像データF1,F3の動被写体が表現される画像となる。
Next, the composite image data when the third non-key frame F3 is input is shown in FIG. In this case, the non-key frame F3 is synthesized in a pixel range shifted by a predetermined amount with respect to the non-key frame F2 of FIG.
Here, the composition processing adopts a method of synthesizing the input frame image data with the existing composite image data as described above, but the composite image data when the non-key frame is input is the existing composite image. Not used as data.
Therefore, even when this non-key frame F3 is input, the existing composite image data remains the composite image data of FIG.
That is, the previous non-key frame F2 is not used for composition, and the non-key frame F3 is synthesized with the existing composite image data at that time. The image to be expressed.

図示しないが、4番目の非キーフレームF4が入力された際は、同様にしてキーフレームF1+非キーフレームF4の合成画像データが生成され、また5番目の非キーフレームF5が入力された際は、同様にキーフレームF1+非キーフレームF5の合成画像データが生成される。つまり、いずれも、その時点で既存の合成画像データに対して入力されたフレーム画像データが合成される。   Although not shown, when the fourth non-key frame F4 is input, the composite image data of the key frame F1 + the non-key frame F4 is generated in the same manner, and when the fifth non-key frame F5 is input. Similarly, composite image data of key frame F1 + non-key frame F5 is generated. That is, in any case, the frame image data input to the existing combined image data at that time is combined.

キーフレームF6が入力された際も、既存の合成画像データに対して合成されることは同様である。
図14は2つめのキーフレームF6が入力された際の合成画像データであるが、既存の合成画像データ(この場合はキーフレームF1のみ)に対してキーフレームF6が合成される。
但しこの時点で、この図14の合成画像データも、既存の合成画像データとして保存される。
合成に用いる既存の合成画像データとしては、直前のキーフレーム入力の際の合成画像データ(前回合成画像データ)だけでなく、さらにその前のキーフレーム入力の際の合成画像データ(前々回合成画像データ)を用いても良い。
例えば後述する具体的な処理例では、前回合成画像データと前々回合成画像データを用いるため、ここでも前回合成画像データと前々回合成画像データを用いるものとして説明する。
なお、既存の合成画像データを用いるのは、上述したレイヤー合成のように、各画素について優先順位を付けて合成するためであるが、その意味で動被写体の重なり部分がどの程度の範囲になるかにより、過去に遡っての合成画像データの使用範囲を設定すればよい。例えば、前々々回合成画像データ、前々々々回合成画像データなどを合成処理に用いる例も考えられる。
Similarly, when the key frame F6 is input, it is synthesized with the existing synthesized image data.
FIG. 14 shows composite image data when the second key frame F6 is input. The key frame F6 is combined with the existing composite image data (in this case, only the key frame F1).
However, at this time, the composite image data of FIG. 14 is also stored as existing composite image data.
As the existing composite image data used for composition, not only the composite image data at the time of the previous key frame input (previous composite image data), but also the composite image data at the time of the previous key frame input (previous composite image data) ) May be used.
For example, in a specific processing example to be described later, since the previous composite image data and the previous composite image data are used, the description will be given here also using the previous composite image data and the previous composite image data.
Note that the existing combined image data is used for combining each pixel with priority as in the above-described layer combining, but in that sense, the extent to which the overlapping portions of the moving subjects are in the range Accordingly, the use range of the composite image data that goes back in the past may be set. For example, an example is also conceivable in which the combined image data before and after the combined image data before and after the combined image data is used for the combining process.

この図14の合成画像データが生成された後は、既存の合成画像データとして、前回合成画像データ(図14の合成画像)と、前々回合成画像データ(図11の合成画像)が保持され、その後の合成処理に用いられる。   After the composite image data shown in FIG. 14 is generated, the previous composite image data (the composite image shown in FIG. 14) and the previous composite image data (the composite image shown in FIG. 11) are held as the existing composite image data. Used in the synthesis process.

次に非キーフレームF7が入力された際の合成画像データを図15に示す。この場合も既存の合成画像データに非キーフレームF7の画像が合成されることで、図のようなキーフレームF1,F6の画像と非キーフレームF7の画像による合成画像が生成される。
さらに非キーフレームF8が入力された際の合成画像データを図16に示す。この場合も既存の合成画像データに非キーフレームF8の画像が合成されることで、図のようなキーフレームF1,F6の画像と非キーフレームF8の画像による合成画像が生成される。
その後に非キーフレームF9、F10が入力された際も同様である。
Next, the composite image data when the non-key frame F7 is input is shown in FIG. Also in this case, by synthesizing the image of the non-key frame F7 with the existing synthesized image data, a synthesized image is generated by the images of the key frames F1 and F6 and the image of the non-key frame F7 as shown in the figure.
Further, FIG. 16 shows composite image data when the non-key frame F8 is input. Also in this case, by synthesizing the image of the non-key frame F8 with the existing synthesized image data, a synthesized image is generated by the images of the key frames F1 and F6 and the image of the non-key frame F8 as shown in the figure.
The same applies when non-key frames F9 and F10 are input thereafter.

図17は3つめのキーフレームF11が入力された際の合成画像データであるが、既存の合成画像データに対してキーフレームF6が合成される。
但しこの時点で、この図17の合成画像データも、既存の合成画像データとして保存される。そしてこの時点で、既存の合成画像データとして、前回合成画像データは図17の合成画像に、前々回合成画像データは図14の合成画像に更新されて保持される。
FIG. 17 shows the composite image data when the third key frame F11 is input. The key frame F6 is combined with the existing composite image data.
However, at this time, the composite image data of FIG. 17 is also stored as existing composite image data. At this time, as the existing composite image data, the previous composite image data is updated to the composite image of FIG. 17 and the previous composite image data is updated to the composite image of FIG.

この図11〜図17のように、入力されるフレーム画像データ(キーフレーム及び非キーフレーム)について、順次合成処理がされていき、各時点で、それぞれ図示のような合成画像データが得られる。例えばこれらの合成画像データが、それぞれ動画を構成する1フレームとして出力されていく。さらに、以降同様にフレーム画像データの入力毎に合成画像データが生成され、図18・・・図19・・・図20のように動画出力が進行していく。
つまり、各キーフレームの被写体画像を残しながら、非キーフレームを含めて各フレームの被写体画像が合成されていき、各時点でその合成画像データが出力される。
これにより、ゴルフスイング等の動作推移を表現する動画、即ち動作推移動画が出力されることになる。
As shown in FIGS. 11 to 17, input frame image data (key frame and non-key frame) are sequentially combined, and combined image data as illustrated is obtained at each time point. For example, these combined image data are output as one frame constituting each moving image. Further, similarly, composite image data is generated for each input of frame image data, and moving image output proceeds as shown in FIGS.
That is, the subject image of each frame including the non-key frame is synthesized while leaving the subject image of each key frame, and the synthesized image data is output at each time point.
As a result, a moving image representing a motion transition such as a golf swing, that is, a motion transition moving image is output.

このような動作推移動画を生成する処理を例に挙げて、動作推移画像の第2の生成処理例を図21以降で説明していく。
図21は、動作推移動画を生成する際の、入力画選択部2、レイヤー処理部3、画像出力部4、合成画像更新保持部5によって実行される処理を示している。
ステップF301〜F305は入力画選択部2の処理となる。
上述したように入力画選択部2には、画像入力部10から時間的に連続するフレーム画像データが供給される。入力画選択部2は、1枚のフレーム画像データが供給されるたびにステップF302で、そのフレーム画像データと、動被写体情報生成部11(又は動被写体情報入力部12)からフレーム画像データに対応する動被写体情報を取り込む処理を行う。
なお、ステップF301の判断は、動作推移動画を生成する一連のフレーム画像データの取込、つまり画像入力部10からの供給が終了したか否かの判断である。つまり動作推移動画として反映させる所定数のフレーム画像データの入力が完了するまでは、ステップF301からF302に進むことになる。
Taking a process for generating such a motion transition video as an example, a second generation process example of a motion transition image will be described with reference to FIG.
FIG. 21 shows processing executed by the input image selection unit 2, layer processing unit 3, image output unit 4, and composite image update holding unit 5 when generating a motion transition video.
Steps F301 to F305 are processing of the input image selection unit 2.
As described above, temporally continuous frame image data is supplied from the image input unit 10 to the input image selection unit 2. Each time one piece of frame image data is supplied, the input image selection unit 2 responds to the frame image data and the frame image data from the moving subject information generation unit 11 (or the moving subject information input unit 12) in step F302. A process for capturing moving subject information to be performed is performed.
Note that the determination in step F301 is a determination of whether a series of frame image data for generating a motion transition moving image has been taken, that is, whether the supply from the image input unit 10 has ended. That is, the process proceeds from step F301 to F302 until the input of a predetermined number of frame image data to be reflected as the motion transition moving image is completed.

入力画選択部2は、ステップF302でフレーム画像データ及び動被写体情報を取り込んだら、ステップF303で、当該フレーム画像データをキーフレームとするか否かを選定する。例えば図3のようにキーフレーム選定を行うとすると、1番目、6番目、11番目・・・という5フレーム置きのフレームをキーフレームとする。   When the input image selection unit 2 fetches the frame image data and moving subject information in step F302, in step F303, the input image selection unit 2 selects whether or not to use the frame image data as a key frame. For example, when key frame selection is performed as shown in FIG. 3, every fifth frame of first, sixth, eleventh,...

入力されたフレーム画像データについてキーフレーム判定を行ったら、入力画選択部2はステップF304で、合成画像更新保持部5から、その時点で既存の前回合成画像データ及び前々回合成画像データを取り込む。
なお、最初のキーフレームとされたフレーム画像データについての合成処理が行われるまでは、前回合成画像データ、前々回合成画像データは存在しない。また、2番目のキーフレームとされたフレーム画像データについての合成処理が行われるまでは前々回合成画像データは存在しない。ステップF304では、その時点で前回合成画像データ、前々回合成画像データが合成画像更新保持部5に保存されていれば、それを取り込むという処理となる。
When the key frame determination is performed on the input frame image data, the input image selection unit 2 takes in the existing previous synthesized image data and the previous synthesized image data from the synthesized image update holding unit 5 at step F304.
Note that there is no previous synthesized image data and no previous synthesized image data until the synthesis process is performed on the frame image data set as the first key frame. Further, there is no previous combined image data until the combining process is performed on the frame image data set as the second key frame. In step F304, if the previous composite image data and the previous composite image data were stored in the composite image update holding unit 5 at that time, the processing is to capture them.

ステップF305では、入力画選択部2は、今回のフレーム画像データ(キーフレーム又は非キーフレーム)を合成画像に反映させる画素位置の座標計算処理を行う。即ち最終的な合成画像のサイズ(動作推移動画のサイズ)の中で、今回のフレーム画像データを当てはめる画素範囲の算出処理である。
入力画選択部2は、このステップF305で算出した座標と、今回のフレーム画像データ及び動被写体情報と、前回合成画像データと、前々回合成画像データとを、レイヤー処理部3に出力する。
In step F <b> 305, the input image selection unit 2 performs pixel position coordinate calculation processing for reflecting the current frame image data (key frame or non-key frame) in the composite image. That is, it is a calculation process of a pixel range to which the current frame image data is applied in the final synthesized image size (size of motion transition moving image).
The input image selection unit 2 outputs the coordinates calculated in step F305, the current frame image data and moving subject information, the previous combined image data, and the previous combined image data to the layer processing unit 3.

レイヤー処理部3は、ステップF306でプロセス判定処理を行う。
プロセス判定とは、効率的な合成処理を行うために、合成処理を行う範囲での画素毎(或いは列毎、或いは行毎)に、どのような合成処理プロセスを実行するかを判定する処理である。
なお、上記図11〜図20のように、被写体画像が横方向に推移していく動作推移動画を生成する場合は、プロセス判定処理は、画素毎もしくは列毎に行えばよい。一方、図示しないが、被写体画像が上下方向に推移していくような動作推移動画を生成する場合は、プロセス判定処理は、画素毎もしくは行毎に行えばよい。以下では、図11〜図20の例に合わせて、列毎にプロセス判定を行うという例に基づいて説明する。
The layer processing unit 3 performs process determination processing in step F306.
The process determination is a process for determining what type of synthesis process is to be executed for each pixel (or for each column or for each row) within a range where the synthesis process is performed in order to perform an efficient synthesis process. is there.
Note that, as shown in FIGS. 11 to 20, when generating a motion transition video in which the subject image transitions in the horizontal direction, the process determination process may be performed for each pixel or column. On the other hand, although not shown, when generating a motion transition moving image in which the subject image transitions in the vertical direction, the process determination process may be performed for each pixel or for each row. The following description is based on an example in which process determination is performed for each column in accordance with the examples of FIGS.

ステップF306で行われるプロセス判定処理を図22に示す。
本例では、合成処理には、今回のフレーム画像データと、前回合成画像データと、前々回合成画像データを用いる。既存の2つの合成画像データを用いる場合、判定するプロセス数は6個(プロセスP1〜P6)となる。もし、前々々回合成画像データ等、使用する合成画像データが増える場合は、プロセス数は増加する。
また、合成処理では、前回合成画像データに含まれる前回キーフレームの範囲の情報及び動被写体情報や、前々回合成画像データに含まれる前々回キーフレームの範囲の情報及びその動被写体情報を用いる。これらについては、前回合成画像データ、前々回合成画像データに付随して合成画像更新保持部5に保存され、上記ステップF302で読み出されるものとすればよい。
The process determination process performed in step F306 is shown in FIG.
In this example, the current frame image data, the previous synthesized image data, and the previous synthesized image data are used for the synthesis process. When two existing composite image data are used, the number of processes to be determined is six (processes P1 to P6). If the number of combined image data to be used increases, such as the combined image data, the number of processes increases.
Also, in the composition process, the previous key frame range information and moving subject information included in the previous composite image data, and the previous key frame range information and moving subject information included in the previous composite image data are used. These may be stored in the composite image update holding unit 5 along with the previous composite image data and the previous composite image data, and read in step F302.

図22のプロセス判定処理は、注目列(上記のように行の場合もある)毎に行われる。
プロセス判定を行う各列とは、例えば図18の時点で言えば、A1〜A7の範囲の各列となる。
この範囲で画素一列(図18の場合は合成画像データの上段の画素一列)を、それぞれ注目列としてプロセス判定を行う。
レイヤー処理部3は、まずステップF401として、1列を注目列とし、その画素位置(合成画像データ内での座標位置)を取得する。
そしてステップF402では、注目列の位置が前回合成画像データの範囲内か否かを判別する。前回合成画像データの範囲とは、図18のA3領域〜A7領域の範囲である。
注目列が前回合成画像データの範囲内でなければ、レイヤー処理部3はステップF403に進み、注目列が今回の推移動作有効領域内であるか否かを判別する。今回の推移動作有効領域とは、今回入力されたフレーム画像データ(キーフレーム又は非キーフレーム)の推移動作有効領域(図6(b)参照)のことであり、図18のA2領域〜A5領域の範囲である。
The process determination process in FIG. 22 is performed for each column of interest (may be a row as described above).
Each column in which the process is determined is, for example, each column in the range of A1 to A7 at the time of FIG.
Within this range, process determination is performed with each pixel row (in the case of FIG. 18, the upper pixel row in the composite image data) as a target column.
First, in step F401, the layer processing unit 3 sets one column as a target column and acquires the pixel position (coordinate position in the composite image data).
In step F402, it is determined whether or not the position of the target column is within the range of the previous combined image data. The range of the previous combined image data is the range from the A3 area to the A7 area in FIG.
If the target column is not within the range of the previous combined image data, the layer processing unit 3 proceeds to step F403, and determines whether or not the target column is within the current transition operation effective region. The transition operation effective area this time is the transition operation effective area (see FIG. 6B) of the frame image data (key frame or non-key frame) input this time, and the areas A2 to A5 in FIG. Range.

レイヤー処理部3は、ステップF403で、注目列が今回の推移動作有効領域内でないと判断した場合は、当該注目列については、プロセスP1を適用すると判定する。これは、注目列が図18のA1領域内となる場合である。
またレイヤー処理部3は、ステップF403で、注目列が今回の推移動作有効領域内であると判断した場合は、当該注目列については、プロセスP2を適用すると判定する。これは、注目列が図18のA2領域内となる場合である。
If the layer processing unit 3 determines in step F403 that the column of interest is not within the current transition operation valid area, the layer processing unit 3 determines that the process P1 is applied to the column of interest. This is a case where the column of interest falls within the A1 region of FIG.
If the layer processing unit 3 determines in step F403 that the column of interest is within the current transition operation effective area, the layer processing unit 3 determines that the process P2 is applied to the column of interest. This is a case where the target column is in the area A2 in FIG.

またステップF402で、注目列が前回合成画像データの範囲内であると判定したときはレイヤー処理部3はステップF404に進み、注目列が今回の推移動作有効領域内であるか否かを判別する。そして、このステップF404で、注目列が今回の推移動作有効領域内ではないと判別した場合は、当該注目列については、プロセスP3を適用すると判定する。これは、注目列が図18のA6及びA7領域内となる場合である。   If it is determined in step F402 that the column of interest is within the range of the previous composite image data, the layer processing unit 3 proceeds to step F404 and determines whether or not the column of attention is within the current transition motion effective region. . If it is determined in step F404 that the column of interest is not within the current transition operation effective area, it is determined that the process P3 is applied to the column of interest. This is a case where the column of interest falls within the A6 and A7 regions of FIG.

またステップF404で、注目列が今回の推移動作有効領域内であると判別した場合は、レイヤー処理部3はステップF405に進み、注目列が後領域の範囲内であるか否かを判別する。後領域とは、推移動作有効領域内で、図6(b)に示すように、動作推移画像の進行方向A(左から右に移行する場合)に対して、後側であって図6(c)の残存背景領域に含まれない領域である。なお、動作推移が右から左に移行する画像の場合は、推移動作有効領域内での右側の領域となる。また、動作推移が上から下に移行する画像の場合は、推移動作有効領域内での上側の領域となる。
図18の例で言えば、A5領域内の列が、後領域内と判定される。
ステップF405で、注目列が後領域に該当すると判別した場合は、レイヤー処理部3は、当該注目列については、プロセスP4を適用すると判定する。これは、注目列が図18のA5領域内となる場合である。
If it is determined in step F404 that the target column is within the current transition motion effective region, the layer processing unit 3 proceeds to step F405, and determines whether the target column is within the range of the subsequent region. As shown in FIG. 6 (b), the rear region is the rear side in the transition motion effective region with respect to the traveling direction A of the motion transition image (when moving from left to right), as shown in FIG. This is an area not included in the remaining background area of c). In the case of an image in which the motion transition shifts from right to left, it is the right region in the transition motion effective region. Further, in the case of an image whose motion transition is shifted from top to bottom, it is an upper region in the transition motion effective region.
In the example of FIG. 18, the column in the A5 area is determined to be in the rear area.
If it is determined in step F405 that the target column corresponds to the rear region, the layer processing unit 3 determines that the process P4 is applied to the target column. This is a case where the target column is in the area A5 in FIG.

ステップF405で後領域の範囲ではないと判別した場合は、レイヤー処理部3はステップF406に進み、注目列が前々回合成画像データの範囲内であるか否かを判別する。前々回合成画像データの範囲内とは、図18のA4領域〜A7領域の範囲である。
注目列が前々回合成画像データの範囲内ではないと判定した場合、レイヤー処理部3は、当該注目列については、プロセスP5を適用すると判定する。これは、注目列が図18のA3領域内となる場合である。
またステップF406で注目列が前々回合成画像データの範囲内であると判定した場合、レイヤー処理部3は、当該注目列については、プロセスP6を適用すると判定する。これは、注目列が図18のA6領域内となる場合である。
If it is determined in step F405 that it is not the range of the rear region, the layer processing unit 3 proceeds to step F406, and determines whether or not the column of interest is within the range of the combined image data two times before. The range of the last-time synthesized image data is the range from the A4 area to the A7 area in FIG.
When it is determined that the column of interest is not within the range of the combined image data last time, the layer processing unit 3 determines that the process P5 is applied to the column of interest. This is a case where the target column is in the area A3 in FIG.
If it is determined in step F406 that the column of interest is within the range of the previous combined image data, the layer processing unit 3 determines that the process P6 is applied to the column of interest. This is a case where the target column is in the area A6 in FIG.

レイヤー処理部3は、図21のステップF306で、或る1列の注目列について、以上の図22のプロセス判定を行うごとに、ステップF307の合成処理を行う。ステップF307は、プロセス判定結果に応じて、合成結果の画像として、当該注目列の画素の合成を行う処理となり、必要に応じてレイヤー分離・加工・合成が行われる。
そして、ステップF308,F309については後述するが、ステップF310で今回入力された現在のフレーム画像データについて処理が終了したと判断されるまで、ステップF306〜F309の処理を繰り返す。つまり、プロセス判定処理を列単位で行うとした場合、全列についてプロセス判定及び合成処理を行うまで繰り返すことになる。
The layer processing unit 3 performs the composition process of step F307 every time the above-described process determination of FIG. 22 is performed for a certain target column in step F306 of FIG. Step F307 is a process of combining the pixels of the target column as a combined result image according to the process determination result, and layer separation, processing, and combining are performed as necessary.
Steps F308 and F309 will be described later, but the processes of steps F306 to F309 are repeated until it is determined in step F310 that the process has been completed for the current frame image data input this time. In other words, if the process determination process is performed in units of columns, the process determination is repeated until the process determination and the synthesis process are performed for all columns.

プロセス判定結果に応じた注目列に対する合成処理をそれぞれ説明していく。
まず、図23に合成処理に用いる画像データを示す。
図23(a)は、ステップF302で今回入力された入力画像(フレーム画像データ)の推移動作有効領域を示している。
図23(b)は、今回の時点で既存の前回合成画像データを示している。
図23(c)は、今回の時点で既存の前々回合成画像データを示している。
なお、これらは図18の時点における入力画像、前回合成画像データ、前々回合成画像データの例としている。
Each of the synthesis processes for the target column according to the process determination result will be described.
First, FIG. 23 shows image data used for the composition process.
FIG. 23A shows the transition operation effective area of the input image (frame image data) input this time in step F302.
FIG. 23B shows the previous combined image data existing at this time.
FIG. 23 (c) shows pre-existing composite image data existing at this time.
Note that these are examples of the input image, the previous combined image data, and the previous combined image data at the time of FIG.

プロセスP1は、描画を行わない処理とされる。
従って注目列がプロセスP1と判定された場合は、ステップF307では、特に画素を合成結果に反映させるという合成処理は行わない。
プロセスP1が適用される列は、図18のA1領域の各列であり、従ってA1領域は何も描画されない。
The process P1 is a process that does not perform drawing.
Therefore, when it is determined that the column of interest is the process P1, in step F307, the combining process of reflecting the pixel in the combining result is not performed.
The columns to which the process P1 is applied are the columns of the A1 area in FIG. 18, and therefore, nothing is drawn in the A1 area.

プロセスP2は、今回のフレーム画像データの推移動作有効領域から画素データをコピーする処理とされる。
プロセスP2が適用される列は、図18のA2領域の各列である。このA2領域は、前回合成画像データ(及び前々回合成画像データ)とは重複しない領域となる。従って、今回の入力画像の画素をそのまま反映させればよい。
A2領域に相当する画素とは、図24(a)に示すように、入力画像の推移動作有効領域において斜線部で示す各列の画素となる。
この各列の画素については、そのまま図18のA2領域の画素としてコピーする。
The process P2 is a process of copying pixel data from the current frame image data transition operation effective area.
The columns to which the process P2 is applied are the columns in the area A2 in FIG. This A2 area is an area that does not overlap with the previous combined image data (and the previous combined image data). Therefore, the pixels of the current input image may be reflected as they are.
As shown in FIG. 24A, the pixels corresponding to the A2 area are pixels in each column indicated by hatched portions in the input image transition operation effective area.
The pixels in each column are copied as they are as the pixels in the area A2 in FIG.

プロセスP3は、前回合成画像データから画素データをコピーする処理とされる。
プロセスP3が適用される列は、図18のA6領域及びA7領域の各列である。このA6領域及びA7領域は、今回入力されたフレーム画像データの推移動作有効領域とは重複しない領域となる。従って、前回合成画像データの画素をそのまま反映させればよい。
A6領域及びA7領域に相当する画素とは、図24(b)に示すように、前回合成画像データにおいて斜線部で示す各列の画素となる。
この前回合成画像データの各列の画素については、そのまま図18のA6領域及びA7領域の画素としてコピーする。
Process P3 is a process of copying pixel data from the previous combined image data.
The columns to which the process P3 is applied are the columns A6 and A7 in FIG. The A6 area and the A7 area are areas that do not overlap with the transition operation effective area of the frame image data input this time. Therefore, the pixels of the previous composite image data may be reflected as they are.
As shown in FIG. 24B, the pixels corresponding to the A6 area and the A7 area are pixels in each column indicated by hatching in the previous synthesized image data.
The pixels in each column of the previous composite image data are copied as they are as the pixels in the A6 area and A7 area of FIG.

プロセスP4は、前回合成画像データ上に今回のフレーム画像データの動被写体画像(動被写体レイヤー)の画素データをコピーする処理とされる。
プロセスP4が適用される列は、図18のA5領域の各列である。このA5領域は、今回入力されたフレーム画像データの後領域となる。この領域は、今回のフレーム画像データの動被写体のみが、前回合成画像データに重なって表示されるようにする。
図25の上段には、入力画像の動被写体画像を示している。これは入力されたフレーム画像データについて図4で説明したレイヤー分離を行った後の、動被写体レイヤーとなる。即ちレイヤー処理部3は、レイヤー分離部31の機能により、今回入力されたフレーム画像データについて動被写体情報を用いてレイヤー分離を行い、図示する動被写体のみの画像(背景のない画像)を生成する。
そして、この図25の動被写体画像のうちで、斜線部が、後領域に相当する。この後領域に該当する各列の画素において、動被写体画像を構成する画素のみを、図25下段に示す前回合成画像データのA5領域相当部分(斜線部)に転写する。
このように前回合成画像データ上に、今回のフレーム画像データの後領域の動被写体画素が転写された状態が、図18のA5領域の合成画像データとして反映される。
Process P4 is a process of copying pixel data of the moving subject image (moving subject layer) of the current frame image data onto the previous synthesized image data.
The columns to which the process P4 is applied are the columns in the area A5 in FIG. This A5 area is the subsequent area of the frame image data input this time. In this area, only the moving subject of the current frame image data is displayed so as to overlap the previous synthesized image data.
The upper part of FIG. 25 shows the moving subject image of the input image. This is a moving subject layer after the layer separation described with reference to FIG. 4 is performed on the input frame image data. That is, the layer processing unit 3 performs layer separation using the moving subject information on the frame image data input this time by the function of the layer separation unit 31, and generates an image of only the moving subject shown (image without a background). .
In the moving subject image in FIG. 25, the hatched portion corresponds to the rear area. Of the pixels in each column corresponding to the subsequent region, only the pixels constituting the moving subject image are transferred to the portion corresponding to the A5 region (hatched portion) of the previous synthesized image data shown in the lower part of FIG.
In this way, the state in which the moving subject pixel in the rear area of the current frame image data is transferred onto the previous composite image data is reflected as the composite image data in the area A5 in FIG.

プロセスP5は、今回入力されたフレーム画像データの動被写体画像と、前回キーフレームの動被写体画像と、今回入力されたフレーム画像データの背景画像の3つのレイヤーを合成する処理となる。
プロセスP5が適用される列は、図18のA3領域の各列である。このA3領域は、今回入力されたフレーム画像データの推移動作有効領域と、前回合成画像データとが重なる部分である。そのため、図26に示す優先順位で3つのレイヤーを合成する。
図26(a)は入力画像の動被写体画像(動被写体レイヤー)を示している。また図26(c)は入力画像の背景画像(残存背景レイヤー)を示している。
レイヤー処理部3は、レイヤー分離部31の機能により、上記プロセスP4の場合と同じく、入力されたフレーム画像データについて図4で説明したレイヤー分離を行い、これら動被写体画像と背景画像を得る。
また図26(b)は、前回合成画像データが生成された際のキーフレーム、即ち前回キーフレームの動被写体画像(動被写体レイヤー)を示している。なお、前回キーフレーム画像は前回合成画像データに含まれるが、前回キーフレームの動被写体画像の抽出は、前回キーフレームに対応する動被写体情報を用いて抽出できる。
この図26(a)(b)(c)において、図18の合成後の画像上での領域A3に相当する部分には斜線を付している。
プロセスP5の合成処理では、図26(a)(b)(c)の斜線部の列の画素について、図示するように、入力画像の動被写体画像を第1優先、前回キーフレームの動被写体画像を第2優先、入力画像の背景画像を第3優先としてレイヤー合成する。
つまり、図26(a)の斜線部で動被写体を構成する画素は、それが最優先される。図26(a)の斜線部で動被写体を構成する画素以外の部分は、図26(b)の斜線部において、動被写体を構成する画素があれば、その画素が当てはめられる。これら以外の画素部分は、図26(c)の背景画像を構成する画素が当てはめられる。
そしてこのように3レイヤーの画素が合成された状態が、図18のA3領域の合成画像データとして反映される。
Process P5 is a process of combining three layers of the moving subject image of the frame image data input this time, the moving subject image of the previous key frame, and the background image of the frame image data input this time.
The columns to which the process P5 is applied are the columns in the area A3 in FIG. This A3 area is a part where the transition operation effective area of the frame image data input this time overlaps with the previous synthesized image data. Therefore, the three layers are synthesized in the priority order shown in FIG.
FIG. 26A shows a moving subject image (moving subject layer) of the input image. FIG. 26C shows a background image (remaining background layer) of the input image.
The layer processing unit 3 performs the layer separation described with reference to FIG. 4 on the input frame image data by the function of the layer separation unit 31, and obtains these moving subject images and background images.
FIG. 26B shows a key frame when the previous combined image data is generated, that is, a moving subject image (moving subject layer) of the previous key frame. Although the previous key frame image is included in the previous synthesized image data, the moving subject image of the previous key frame can be extracted using moving subject information corresponding to the previous key frame.
In FIGS. 26 (a), (b), and (c), a portion corresponding to the area A3 on the combined image in FIG. 18 is hatched.
In the compositing process of process P5, the moving subject image of the input image is given the first priority and the moving subject image of the previous key frame as illustrated in FIG. Are combined with the second priority and the background image of the input image as the third priority.
That is, the highest priority is given to the pixels constituting the moving subject in the shaded area in FIG. In a portion other than the pixels constituting the moving subject in the hatched portion in FIG. 26A, if there is a pixel constituting the moving subject in the shaded portion in FIG. 26B, the pixel is applied. Pixels constituting the background image in FIG. 26C are applied to the other pixel portions.
The state in which the pixels of the three layers are combined in this way is reflected as the combined image data in the area A3 in FIG.

プロセスP6は、今回入力されたフレーム画像データの動被写体画像と、前回キーフレームの動被写体画像と、前々回合成画像データの動被写体画像と、今回入力されたフレーム画像データの背景画像の4つのレイヤーを合成する処理となる。
プロセスP6が適用される列は、図18のA4領域の各列である。このA4領域は、今回入力されたフレーム画像データの推移動作有効領域と、前回合成画像データ及び前々回合成画像データとが重なる部分である。そのため、図27に示す優先順位で4つのレイヤーを合成する。
図27(a)は入力画像の動被写体画像(動被写体レイヤー)を示している。また図27(d)は入力画像の背景画像(残存背景レイヤー)を示している。
また図27(b)は、前回合成画像データが生成された際のキーフレーム、即ち前回キーフレームの動被写体画像(動被写体レイヤー)を示している。
また図27(c)は、前々回合成画像データが生成された際のキーフレーム、即ち前々回キーフレームの動被写体画像(動被写体レイヤー)を示している。
レイヤー処理部3は、レイヤー分離部31の機能により、上記プロセスP4の場合と同じく、入力されたフレーム画像データについて図4で説明したレイヤー分離を行い、これら動被写体画像と背景画像を得る。また、前回合成画像データ、前々回合成画像データから、それぞれ動被写体情報を用いて前回キーフレームの動被写体画像、前々回キーフレームの動被写体画像を抽出する。
この図27(a)(b)(c)(d)において、図18の合成後の画像上での領域A4に相当する部分には斜線を付している。
プロセスP6の合成処理では、図27(a)(b)(c)(d)の斜線部の列の画素について、図示するように、入力画像の動被写体画像を第1優先、前回キーフレームの動被写体画像を第2優先、前々回キーフレームの動被写体画像を第3優先、入力画像の背景画像を第4優先としてレイヤー合成する。
つまり、図27(a)の斜線部で動被写体を構成する画素は、それが最優先される。図27(a)の斜線部で動被写体を構成する画素以外の部分は、図27(b)の斜線部において、動被写体を構成する画素があれば、その画素が当てはめられる。さらに図27(a)(b)で動被写体を構成する画素がない部分であって図27(c)の斜線部において動被写体を構成する画素があれば、その画素が当てはめられる。これら以外の画素部分は、図27(d)の背景画像を構成する画素が当てはめられる。
そしてこのように4レイヤーの画素が合成された状態が、図18のA4領域の合成画像データとして反映される。
The process P6 includes four layers of the moving subject image of the frame image data input this time, the moving subject image of the previous key frame, the moving subject image of the previous combined image data, and the background image of the frame image data input this time. Is a process to synthesize.
The column to which the process P6 is applied is each column in the A4 area of FIG. The A4 region is a portion where the transition operation effective region of the frame image data input this time overlaps with the previous combined image data and the previous combined image data. Therefore, the four layers are synthesized with the priority shown in FIG.
FIG. 27A shows a moving subject image (moving subject layer) of the input image. FIG. 27D shows a background image (remaining background layer) of the input image.
FIG. 27B shows a key frame when the previous combined image data is generated, that is, a moving subject image (moving subject layer) of the previous key frame.
FIG. 27C shows a key frame when the synthesized image data is generated two times before, that is, a moving subject image (moving subject layer) of the key frame two times before.
The layer processing unit 3 performs the layer separation described with reference to FIG. 4 on the input frame image data by the function of the layer separation unit 31, and obtains these moving subject images and background images. Also, the moving subject image of the previous key frame and the moving subject image of the previous key frame are extracted from the previous synthesized image data and the previous synthesized image data using the moving subject information.
In FIGS. 27A, 27B, 27C, and 27D, a portion corresponding to the area A4 on the combined image in FIG. 18 is hatched.
In the compositing process of process P6, the moving subject image of the input image is given the first priority and the previous key frame of the input image as shown in FIG. 27 (a) (b) (c) (d). Layer synthesis is performed with the moving subject image as the second priority, the moving subject image of the key frame two times before the third priority, and the background image of the input image as the fourth priority.
That is, the highest priority is given to the pixels constituting the moving subject in the shaded area in FIG. In the portion other than the pixels constituting the moving subject in the shaded portion in FIG. 27A, if there is a pixel constituting the moving subject in the shaded portion in FIG. 27B, that pixel is applied. Further, if there is no pixel constituting the moving subject in FIGS. 27A and 27B and there is a pixel constituting the moving subject in the hatched portion of FIG. 27C, that pixel is applied. Pixels constituting the background image in FIG. 27D are applied to the other pixel portions.
The state in which the pixels of the four layers are combined in this way is reflected as the combined image data of the area A4 in FIG.

プロセスP1〜P6の合成処理は以上のように行われる。
図21のステップF307では、ステップF306でのプロセス判定結果に応じて、注目列の処理として上記プロセスP1〜P6のいずれかが実行される。
なお、列単位ではなく、画素単位でステップF306〜F309の処理を繰り返しても良い。
そして、合成処理対象の全ての列(全ての画素)について、いずれかのプロセスの処理が行われた時点で、例えば図18のような合成画像データが完成することになる。
その時点で図21の処理はステップF310からF311に進む。
The synthesis process of the processes P1 to P6 is performed as described above.
In step F307 in FIG. 21, one of the processes P1 to P6 is executed as the process of the target column in accordance with the process determination result in step F306.
Note that the processing in steps F306 to F309 may be repeated not for each column but for each pixel.
Then, when any of the processes is performed for all the columns (all pixels) to be combined, for example, combined image data as shown in FIG. 18 is completed.
At that time, the processing in FIG. 21 proceeds from step F310 to F311.

ステップF311では、レイヤー処理部3は合成画像データを画像出力部4に供給する。画像出力部4は、供給された合成画像データを、動作推移動画を構成する1つのフレームとして出力デバイス40に出力する。
なお、画像出力部4は、合成処理に要する時間や、画像入力部10からのフレーム画像データの入力間隔などに応じて、或いはゆっくり推移する動画を表現するためなどに応じて、1枚の合成画像データを、動作推移動画を構成する複数のフレームとして連続して出力するようにしてもよい。
In step F <b> 311, the layer processing unit 3 supplies the composite image data to the image output unit 4. The image output unit 4 outputs the supplied composite image data to the output device 40 as one frame constituting the motion transition video.
Note that the image output unit 4 combines one image according to the time required for the synthesis process, the input interval of the frame image data from the image input unit 10, or the like to express a moving image that moves slowly. The image data may be continuously output as a plurality of frames constituting the motion transition moving image.

ステップF312では、今回処理したフレーム画像データがキーフレームであったか否かで処理を分岐する。即ちステップF303での判定結果により処理を分岐する。
今回入力されたフレーム画像データがキーフレームであった場合は、ステップF313で、今回生成された合成画像データを、以降の処理で前回合成画像データとして使用するために、合成画像更新保持部5に保存する処理を行う。
合成画像更新保持部5は、その時点で保持している前回合成画像データを、前々回合成画像データとし、新たに今回画像出力部4から供給される合成画像データを前回合成画像データとして保持する。なお、キーフレームの動被写体情報なども付随して記憶する。
In step F312, the process branches depending on whether or not the frame image data processed this time is a key frame. That is, the process branches depending on the determination result in step F303.
If the frame image data input this time is a key frame, in step F313, the combined image data generated this time is stored in the combined image update holding unit 5 in order to be used as the previous combined image data in the subsequent processing. Process to save.
The composite image update holding unit 5 uses the previous composite image data held at that time as the previous composite image data, and newly holds the composite image data supplied from the current image output unit 4 as the previous composite image data. The moving subject information of the key frame is also stored along with the information.

そしてステップF301に戻り、次のフレーム画像データの処理に移る。
以上のステップF301〜F313の処理が、フレーム画像データ入力毎に繰り返される過程で、図11〜図20に示したような動作推移動画が出力される。
即ちフレーム画像データが入力され、画像合成が行われるたびにステップF311で合成画像データが動画を構成する1フレームとして出力されることで、例えば出力デバイス40がモニタ表示装置であるとすると、動作推移動画が表示されることになる。
また例えば出力デバイス40が画像記録装置であるとすると、動作推移動画を構成する各フレームが、動画データとして記録されていくことになる。
Then, the process returns to step F301 to proceed to the next frame image data processing.
In the process in which the processes in steps F301 to F313 described above are repeated for each input of frame image data, motion transition moving images as shown in FIGS. 11 to 20 are output.
That is, every time frame image data is input and image composition is performed, the composite image data is output as one frame constituting a moving image in step F311. For example, if the output device 40 is a monitor display device, the operation transition A video will be displayed.
For example, if the output device 40 is an image recording device, each frame constituting the motion transition moving image is recorded as moving image data.

ステップF301で、全フレーム取込終了と判断されると、処理はステップF314に進み、合成処理が終了されると共に、画像出力部4は、合成画像データの出力を終了する。或いは、出力デバイス40がモニタ表示装置であるような場合、例えば図20のような最終フレームの合成画像データを、継続して出力してもよい。その場合、モニタ表示装置上では、図11〜図20の動作推移動画が完了して最後の図20の画像が継続される状態となる。   If it is determined in step F301 that all frames have been captured, the process proceeds to step F314, where the composition process is terminated, and the image output unit 4 terminates the output of the composite image data. Alternatively, when the output device 40 is a monitor display device, for example, the composite image data of the final frame as shown in FIG. 20 may be continuously output. In that case, on the monitor display device, the motion transition moving image of FIGS. 11 to 20 is completed and the last image of FIG. 20 is continued.

以上のように本実施の形態によれば、動作推移動画を生成し、出力することができる。そしてこの動作推移動画は、各時点の合成画像データを動画として出力することで、視覚効果が高く、動作の推移をわかりやすく捕らえることのできるものとなる。
そして、特にこの第2の生成処理例では、上記のプロセス判定に基づいて合成処理を行うことで、効率的な処理が実現される。即ち3レイヤー、4レイヤーのレイヤー合成を伴うプロセスP5、P6での合成処理は、比較的処理負担が大きい処理となるが、これらが必要な画素領域のみで実行される。そしてレイヤー合成が不要な領域ではプロセスP1、P2、P3等の単純なコピー処理で対応できる。これにより処理の効率化、処理負担の低減が図られる。
もちろんこの第2の生成処理例の場合も、第1の生成処理例で述べた動作推移静止画の場合と同様に、被写体の動作可能範囲の拡大による動被写体の的確な表現と、多数の動被写体を並べることでの時間方向に精細な動作推移の表現の両立を実現することができる。例えばゴルフクラブの先端等が欠けずに的確に表現され、しかも多数の動被写体画像を並べることができ、時間的に細かい間隔で動作推移を表現できる。
またこのような動作推移動画を生成出力する画像処理装置1としては、各種多様な機器に適用できることは、第1の生成処理例と同様である。
As described above, according to the present embodiment, it is possible to generate and output a motion transition moving image. And this motion transition moving image has a high visual effect by outputting the composite image data at each time point as a moving image, and the motion transition can be easily understood.
In particular, in the second generation processing example, efficient processing is realized by performing synthesis processing based on the above process determination. In other words, the composition processing in the processes P5 and P6 involving the composition of layers of three layers and four layers is a processing with a relatively large processing load, but these are executed only in the necessary pixel region. An area that does not require layer composition can be handled by simple copy processing such as processes P1, P2, and P3. As a result, the processing efficiency can be improved and the processing load can be reduced.
Of course, in the case of the second generation processing example, as in the case of the motion transition still image described in the first generation processing example, an accurate expression of the moving subject by expanding the operable range of the subject, and a large number of motions. It is possible to realize both a precise expression of motion transition in the time direction by arranging the subjects. For example, the golf club can be accurately represented without missing the tip of the golf club, and a large number of moving subject images can be arranged, and the movement transition can be expressed at fine intervals in time.
Further, the image processing apparatus 1 that generates and outputs such a motion transition moving image is applicable to various types of devices, as in the first generation processing example.

ここで図21における、ステップF308,F309の処理について説明する。
ステップF309のコピー処理とは、例えば図19の時点で、上段の最後の動被写体を下段の最初の動被写体としてコピーする処理のことである。
図19に示すように、合成画像データの上段の右端(左から右へ移行する場合)の所定範囲を下段コピー範囲と設定しておく。
そして、レイヤー処理部3は、プロセス判定を行い、合成画像データに合成した各列について、ステップF308では、その列(又は画素)が、下段コピー範囲(即ち上段の最後の領域)に該当するか否かを判別する。下段コピー範囲に該当した場合は、ステップF309で、その列の画素を、下段の対応位置にコピーしていく。
この処理を行うことで、図19のように、上段における下段コピー範囲の画像が合成される際には、同時に下段にも同じ画像が合成される。
動作推移動画の表示上では、図19の上段の最後の動被写体と、下段の最初の動被写体は、同じ画像が同時に表れてくることになる。
Here, the processing of steps F308 and F309 in FIG. 21 will be described.
The copy process in step F309 is a process of copying the last moving subject in the upper stage as the first moving subject in the lower stage, for example, as shown in FIG.
As shown in FIG. 19, a predetermined range at the upper right end of the composite image data (when shifting from left to right) is set as the lower copy range.
Then, the layer processing unit 3 performs process determination, and in step F308, for each column combined with the combined image data, whether the column (or pixel) corresponds to the lower copy range (that is, the uppermost last region). Determine whether or not. If it falls under the lower copy range, in step F309, the pixels in that column are copied to the corresponding position in the lower row.
By performing this process, as shown in FIG. 19, when the image in the lower copy range in the upper stage is synthesized, the same image is also synthesized in the lower stage at the same time.
On the display of the motion transition video, the same image appears simultaneously in the last moving subject in the upper part of FIG. 19 and the first moving subject in the lower part.

このような処理を行うことで、下段コピー範囲の動被写体も、一部が途切れることなく、的確に表現されるものとなる。即ち被写体の状態によっては、上段の最後の画像の位置が途切れてしまうこともあるが、そのような被写体も下段に適切に表示される。またこれにより、上段の動作推移と、下段の動作推移が、見やすく移行するものとなる。
By performing such processing, the moving subject in the lower copy range can be accurately expressed without being partly interrupted. That is, depending on the state of the subject, the position of the last image in the upper stage may be interrupted, but such a subject is also appropriately displayed in the lower stage. As a result, the upper-stage operation transition and the lower-stage operation transition are easily transferred.

[4.動被写体情報]

上記のように、第1,第2の生成処理例では、レイヤー分離処理として、フレーム画像データを動被写体レイヤーと残存背景レイヤーに分離する処理を行う。このレイヤー分離の際には、動被写体情報生成部11又は動被写体情報入力部12からの動被写体情報を用いると述べた。
上記各例では、図4(a)に示したように動被写体情報は2値の例としたが、3値以上の多値の動被写体情報を用いるようにすることもできる。
例えば動被写体情報生成部11又は動被写体情報入力部12では、複数の動被写体の深度(画像上での奥行き方向の前後関係)に応じて異なる値とした動被写体情報を生成(又は取得)するようにしてもよい。
そのような場合は、レイヤー分離部31は、動被写体の数+背景の数のレイヤーに分離することができる。
[4. Moving subject information]

As described above, in the first and second generation processing examples, processing for separating the frame image data into the moving subject layer and the remaining background layer is performed as the layer separation processing. It has been described that the moving subject information from the moving subject information generation unit 11 or the moving subject information input unit 12 is used in the layer separation.
In each of the above examples, the moving subject information is a binary example as shown in FIG. 4A, but multi-valued moving subject information of three or more values may be used.
For example, the moving subject information generation unit 11 or the moving subject information input unit 12 generates (or acquires) moving subject information having different values according to the depths of a plurality of moving subjects (the front-rear relationship in the depth direction on the image). You may do it.
In such a case, the layer separation unit 31 can separate the layer into the number of moving subjects + the number of backgrounds.

例えば図28は、フレーム画像データ内に二人の人物(2つの動被写体画像)が存在する場合の例を示している。
図28(a)は動被写体情報を2値、図28(b)は動被写体情報を多値(例えば3値)とする例を示している。
図28(a)は、背景を「0」、動被写体を「1」とする例であるが、その場合、2つの動被写体は、共に「1」とされる。
一方、図28(b)のように多値とすると、背景を「0」、1つの動被写体Aを「1」、他の動被写体Bを「2」などとして表現することができる。
For example, FIG. 28 shows an example in which two persons (two moving subject images) exist in the frame image data.
FIG. 28A shows an example in which moving subject information is binary, and FIG. 28B shows an example in which moving subject information is multivalued (for example, ternary).
FIG. 28A shows an example in which the background is “0” and the moving subject is “1”. In this case, the two moving subjects are both “1”.
On the other hand, as shown in FIG. 28B, when the multivalue is used, the background can be expressed as “0”, one moving subject A as “1”, the other moving subject B as “2”, and the like.

ここで図29では、2つの動被写体が画面上の前後に重なった状態を示している。
この場合、図29(a)のように2値の場合は、動被写体情報上では、2つの動被写体の深度の区別はできない。
ところが図29(b)のように多値とすると、動被写体情報において、複数の動被写体の前後関係も判別できる情報となる。
Here, FIG. 29 shows a state in which two moving subjects overlap in the front-rear direction on the screen.
In this case, in the case of binary as shown in FIG. 29A, the depth of the two moving subjects cannot be distinguished on the moving subject information.
However, if it is multi-valued as shown in FIG. 29B, the moving subject information is information that can also determine the front-rear relationship of a plurality of moving subjects.

このように多値の動被写体情報を用いるようにすると、複数の動被写体画像毎にレイヤー分離が可能となる。すると、一方の動被写体と他方の動被写体の優先順位を異なるようにして合成を行ったり、一方の動被写体のみを抽出して動作推移画像を生成することなども可能となる。
If multivalued moving subject information is used in this way, layer separation can be performed for each of a plurality of moving subject images. Then, it is possible to perform composition by making the priority order of one moving subject different from the other moving subject, or to generate a motion transition image by extracting only one moving subject.

[5.第1の生成処理例の動画への適用]

上述したように、第1の生成処理例によっても、図11〜図20のような動作推移動画を生成することもできる。
図30は、図9に示した第1の生成処理例に準じて、動作推移動画を生成出力する場合の処理例を示したものである。
なお、図9と同一の処理については同一のステップ番号を付し、重複説明を避ける。この図30では、「A」を付したステップ番号であるステップF103A、F109A、F110A、F111A、F112Aが、図9とは異なる処理となる。
[5. Application of first generation processing example to movie]

As described above, the motion transition moving images as shown in FIGS. 11 to 20 can also be generated by the first generation processing example.
FIG. 30 shows a processing example in the case of generating and outputting a motion transition video in accordance with the first generation processing example shown in FIG.
In addition, the same step number is attached | subjected about the process same as FIG. 9, and duplication description is avoided. In FIG. 30, steps F103A, F109A, F110A, F111A, and F112A, which are step numbers given “A”, are different from those in FIG.

以下、図9の処理と異なる点を説明する。
図9の処理ではステップF103で、入力画選択部2はキーフレームのみを選択して画像合成処理に供するようにしていた。ところが動作推移動画の生成の場合は、上記第2の生成処理例でも述べたように、キーフレームと非キーフレームの両方を合成処理に用いることになる。そのためステップF103Aは、入力されたフレーム画像データについてキーフレームか非キーフレームかの判定処理となる(図21のステップF303と同様の処理)。
Hereinafter, differences from the processing of FIG. 9 will be described.
In the process of FIG. 9, in step F103, the input image selection unit 2 selects only the key frame and uses it for the image composition process. However, in the case of generating the motion transition moving image, as described in the second generation processing example, both key frames and non-key frames are used for the synthesis processing. For this reason, step F103A is a process for determining whether the input frame image data is a key frame or a non-key frame (the same process as step F303 in FIG. 21).

そして図30のステップF104〜F108では、入力されたフレーム画像データについて合成処理を行うが、ステップF109Aでは、画像出力部4が、生成された合成画像データを、動作推移動画を構成する1フレームのデータとして、出力デバイス40に出力する(図21のステップF311と同様の処理)。   In steps F104 to F108 in FIG. 30, the input frame image data is combined. In step F109A, the image output unit 4 converts the generated combined image data into one frame constituting the motion transition video. The data is output to the output device 40 (the same processing as step F311 in FIG. 21).

またステップF112A、F110Aは、前回合成画像データの更新についての処理となる。即ちこれは、図21のステップF312,F313と同様の意味の処理であり、今回入力されたフレーム画像データがキーフレームであれば、合成画像更新保持部5に保持する前回合成画像データを更新する処理である。   Steps F112A and F110A are processes for updating the previous composite image data. That is, this is processing having the same meaning as in steps F312 and F313 in FIG. 21. If the frame image data input this time is a key frame, the previous combined image data held in the combined image update holding unit 5 is updated. It is processing.

このようなステップF301〜F110の処理が、フレーム画像データ入力毎に繰り返される過程で、画像合成が行われるたびにステップF109Aで合成画像データが動画を構成する1フレームとして出力される。これにより例えば出力デバイス40に図11〜図20に示したような動作推移動画が出力される。
例えば出力デバイス40がモニタ表示装置であるとすると、動作推移動画が表示される。また例えば出力デバイス40が画像記録装置であるとすると、動作推移動画を構成する各フレームが、動画データとして記録されていくことになる。
In the process in which the processes in steps F301 to F110 are repeated every time frame image data is input, the combined image data is output as one frame constituting a moving image in step F109A every time image combining is performed. Accordingly, for example, the motion transition moving image as illustrated in FIGS. 11 to 20 is output to the output device 40.
For example, when the output device 40 is a monitor display device, an operation transition moving image is displayed. For example, if the output device 40 is an image recording device, each frame constituting the motion transition moving image is recorded as moving image data.

ステップF101で、全フレーム取込終了と判断されると、処理はステップF111Aに進み、合成処理が終了されると共に、画像出力部4は、合成画像データの出力を終了する。或いは、出力デバイス40がモニタ表示装置であるような場合、例えば図20のような最終フレームの合成画像データを、継続して出力してもよい。
以上の図30の処理によれば、第1の生成処理例において動作推移動画が生成され、出力されることになる。
If it is determined in step F101 that all frames have been captured, the process proceeds to step F111A, where the composition process is terminated, and the image output unit 4 terminates the output of the composite image data. Alternatively, when the output device 40 is a monitor display device, for example, the composite image data of the final frame as shown in FIG. 20 may be continuously output.
According to the processing of FIG. 30 described above, the motion transition moving image is generated and output in the first generation processing example.

[6.第2の生成処理例の静止画への適用]

上記第2の生成処理例に準じて、動作推移静止画を生成出力することもできる。
図31は、図21に示した第2の生成処理例に準じて、動作推移静止画を生成出力する場合の処理例を示したものである。
なお、図21と同一の処理については同一のステップ番号を付し、重複説明を避ける。この図31では、「A」を付したステップ番号であるステップF303A、F311A、F313A、F314Aが、図21とは異なる処理となる。
[6. Application of second generation processing example to still image]

A motion transition still image can be generated and output in accordance with the second generation processing example.
FIG. 31 shows a processing example in the case of generating and outputting a motion transition still image according to the second generation processing example shown in FIG.
Note that the same steps as those in FIG. 21 are denoted by the same step numbers to avoid redundant description. In FIG. 31, steps F303A, F311A, F313A, and F314A, which are step numbers given “A”, are different processes from those in FIG.

以下、図21の処理と異なる点を説明する。
図21の動作推移動画の生成の場合は、上述のように、キーフレームと非キーフレームの両方を合成処理に用いることになる。ところが動作推移静止画の生成の場合は、上記第1の生成処理例で述べたように、入力画選択部2はキーフレームのみを選択して画像合成処理に供する。
このため図31でも入力画選択部2は、ステップF303Aでキーフレームのみを選択してレイヤー処理部3に供給することになる(図9のステップF103と同様の処理)。
そしてステップF304〜F310で、図21で説明した合成処理が行われる。
Hereinafter, differences from the processing of FIG. 21 will be described.
In the case of generating the motion transition moving image in FIG. 21, both the key frame and the non-key frame are used for the synthesis process as described above. However, in the case of generating a motion transition still image, as described in the first generation processing example, the input image selection unit 2 selects only the key frame and uses it for the image composition processing.
Therefore, also in FIG. 31, the input image selection unit 2 selects only the key frame in step F303A and supplies it to the layer processing unit 3 (the same processing as step F103 in FIG. 9).
In steps F304 to F310, the composition processing described with reference to FIG. 21 is performed.

ステップF311Aでは、画像出力部4は生成された合成画像データを保持する(図9のステップF109と同様の処理)。
そしてステップF313Aで、画像出力部4は、合成画像データを合成画像更新保持部5に供給し、合成画像更新保持部5は前回合成画像データ及び前々回合成画像データを更新する(図9のステップF110と同様の意味の処理)。
In step F311A, the image output unit 4 holds the generated composite image data (processing similar to step F109 in FIG. 9).
In step F313A, the image output unit 4 supplies the composite image data to the composite image update holding unit 5, and the composite image update holding unit 5 updates the previous composite image data and the previous composite image data (step F110 in FIG. 9). Processing with the same meaning).

以上のステップF301〜F313Aの処理が、キーフレーム入力毎に繰り返されることで、最終的に図2に示した状態の合成画像データが得られる。
この時点で、ステップF301からステップF314Aに進み、画像出力部4は、その時点で保持している合成画像データ(即ち図2の状態の合成画像データ)を、動作推移静止画データとして出力デバイス40に出力する。
このような図31の処理によって、1枚の動作推移静止画データが生成され、出力されることになる。
The above-described processing of steps F301 to F313A is repeated for each key frame input, so that composite image data in the state shown in FIG. 2 is finally obtained.
At this time, the process proceeds from step F301 to step F314A, and the image output unit 4 outputs the composite image data held at that time (that is, the composite image data in the state of FIG. 2) as motion transition still image data. Output to.
With such a process of FIG. 31, one motion transition still image data is generated and output.

[7.プログラム]

以上の実施の形態は、画像処理装置1として説明したが、本発明の画像処理装置1は動作推移画像を生成する専用装置とする他、画像処理を行う各種機器に適用できる。例えば画像再生装置、撮像装置、通信装置、画像記録装置、ゲーム機器、ビデオ編集機、などが想定される。
さらに、汎用のパーソナルコンピュータその他の情報処理装置において、画像処理装置1を実現することも当然想定される。
例えば図9及び図10,図21及び図22,図30,図31の各処理ブロックの動作を演算処理装置に実行させるプログラムを画像処理アプリケーションソフトウエアとして提供することで、パーソナルコンピュータ等において、適切な画像処理を実現できる。
[7. program]

Although the above embodiment has been described as the image processing apparatus 1, the image processing apparatus 1 of the present invention can be applied to various devices that perform image processing in addition to a dedicated apparatus that generates a motion transition image. For example, an image reproducing device, an imaging device, a communication device, an image recording device, a game machine, a video editing machine, and the like are assumed.
Furthermore, it is naturally assumed that the image processing apparatus 1 is realized in a general-purpose personal computer or other information processing apparatus.
For example, by providing as an image processing application software a program for causing an arithmetic processing unit to execute the operation of each processing block in FIGS. 9 and 10, FIG. 21 and FIG. 22, FIG. Image processing can be realized.

即ち画像処理装置1の画像処理を実現するプログラムとは次のレイヤー分離ステップ及び合成処理ステップを演算処理装置に実行させるプログラムである。
レイヤー分離ステップでは、フレーム画像データについて、画像内の動被写体レイヤーと背景レイヤーを分離する。
合成処理ステップでは、フレーム画像データが入力された時点において既存の合成画像データの一部領域に対し、入力された最新のフレーム画像データの動被写体レイヤーを第1に優先し、また前回以前の合成処理に係るフレーム画像データの動被写体レイヤーを第2に優先したレイヤー画像合成処理を含む画像合成処理を行う。
That is, the program that realizes the image processing of the image processing apparatus 1 is a program that causes the arithmetic processing apparatus to execute the next layer separation step and composition processing step.
In the layer separation step, the moving subject layer and the background layer in the image are separated from the frame image data.
In the compositing process step, the moving subject layer of the latest frame image data that has been input is given first priority over a partial area of the existing composite image data at the time when the frame image data is input, Image composition processing including layer image composition processing in which the moving subject layer of the frame image data related to the processing is given second priority is performed.

このようなプログラムにより、本発明をパーソナルコンピュータ、携帯電話機、PDA(Personal Digital Assistant)、その他画像データを用いる多様な情報処理装置においても同様の画像処理を実行できるようにすることができる。   With such a program, the present invention can be executed in a personal computer, a cellular phone, a PDA (Personal Digital Assistant), and other various information processing apparatuses using image data.

なお、このようなプログラムは、パーソナルコンピュータ等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROMやフラッシュメモリ等に予め記録しておくことができる。
あるいはまた、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD、ブルーレイディスク、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、プログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
Such a program can be recorded in advance in an HDD as a recording medium built in a device such as a personal computer, a ROM in a microcomputer having a CPU, a flash memory, or the like.
Alternatively, temporarily or permanently on a removable recording medium such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), MO (Magnet optical) disk, DVD, Blu-ray disk, magnetic disk, semiconductor memory, memory card, etc. It can be stored (recorded). Such a removable recording medium can be provided as so-called package software.
In addition to installing the program from a removable recording medium to a personal computer or the like, the program can be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.

1 画像処理装置、2 入力画選択部、3 レイヤー処理部、4 画像出力部、5 合成画像更新保持部、10 画像入力部、11 動被写体情報生成部、12 動被写体情報入力部、21 キーフレーム判定部、22 座標計算部、31 レイヤー分離部、32 レイヤー加工部、33 レイヤー合成部、40 出力デバイス   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 2 Input image selection part, 3 Layer processing part, 4 Image output part, 5 Composite image update holding | maintenance part, 10 Image input part, 11 Moving subject information generation part, 12 Moving subject information input part, 21 Key frame Determination unit, 22 coordinate calculation unit, 31 layer separation unit, 32 layer processing unit, 33 layer composition unit, 40 output device

Claims (10)

フレーム画像データについて、画像内の動被写体レイヤーと背景レイヤーを分離するレイヤー分離部と、
フレーム画像データの入力に応じて、既存の合成画像データに、入力された最新のフレーム画像データを合成する画像合成処理を行って各フレーム画像データの動被写体画像が順次所定の方向に並んで配置されていく合成画像データを生成するとともに、上記画像合成処理では、最新のフレーム画像データの画像と既存の合成画像データの画像の重複部分となる、上記既存の合成画像データの一部である合成対象領域に対し、入力された最新のフレーム画像データの動被写体レイヤーを第1に優先し、前回の画像合成処理に係るフレーム画像データの動被写体レイヤーを第2に優先し、入力された最新のフレーム画像データの背景レイヤーを第3に優先し、前回の画像合成処理に係るフレーム画像データの背景レイヤーを第4に優先した状態でレイヤー画像合成処理を行う合成処理部と、
を備える画像処理装置。
For frame image data, a layer separation unit that separates the moving subject layer and the background layer in the image,
In response to the input of the frame image data, an image composition process for synthesizing the latest input frame image data is performed on the existing composite image data, and the moving subject images of each frame image data are sequentially arranged in a predetermined direction. In addition to generating composite image data to be processed, in the image composition processing, composition that is a part of the existing composite image data that is an overlapping portion of the image of the latest frame image data and the image of the existing composite image data For the target area, the moving subject layer of the latest frame image data input is given priority first, and the moving subject layer of the frame image data related to the previous image composition processing is given priority second, and the latest input The background layer of frame image data has priority over the third, and the background layer of frame image data related to the previous image composition processing has priority over the fourth A synthesis processing unit that performs the layer image combining process,
An image processing apparatus comprising:
所定数のフレーム画像データについて上記合成処理部で画像合成処理が行われた結果として得られる合成画像データを、動作推移静止画データとして出力する画像出力部をさらに備える請求項1に記載の画像処理装置。   The image processing according to claim 1, further comprising: an image output unit configured to output combined image data obtained as a result of image combining processing performed on the predetermined number of frame image data by the combining processing unit as motion transition still image data. apparatus. 順次入力されるフレーム画像データから、合成画像の生成に用いるキーフレームを選択する入力画選択部をさらに備え、
上記合成処理部は、キーフレームとして選択されたフレーム画像データの入力に応じて画像合成処理を行っていくことで、動作推移静止画データを生成する請求項2に記載の画像処理装置。
An input image selection unit for selecting a key frame used for generating a composite image from sequentially input frame image data;
The image processing apparatus according to claim 2, wherein the composition processing unit generates motion transition still image data by performing image composition processing in response to input of frame image data selected as a key frame.
上記合成処理部でフレーム画像データの入力に応じた画像合成処理で生成される合成画像データを、次回の画像合成処理で用いる上記既存の合成画像データとして保持する合成画像保持部をさらに備える請求項3に記載の画像処理装置。   The composite image holding part which hold | maintains the composite image data produced | generated by the image composite process according to the input of frame image data in the said composite process part as said existing composite image data used by the next image composite process. The image processing apparatus according to 3. フレーム画像データの入力毎に上記合成処理部で生成される合成画像データを、連続して、動作推移動画データとして出力する画像出力部をさらに備える請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: an image output unit that continuously outputs the composite image data generated by the composite processing unit every time frame image data is input as motion transition moving image data. 順次入力されるフレーム画像データから、合成画像の生成に用いるキーフレームを選択する入力画選択部と、
上記合成処理部で、上記キーフレームとされたフレーム画像データの入力に応じた画像合成処理で生成される合成画像データを、次回の画像合成処理で用いる上記既存の合成画像データとして保持する合成画像保持部と、
をさらに備える請求項5に記載の画像処理装置。
An input image selection unit that selects key frames used for generating a composite image from sequentially input frame image data;
A composite image in which the composite image data generated by the image composite processing according to the input of the frame image data that has been set as the key frame is held as the existing composite image data used in the next image composite processing in the composite processing unit. A holding part;
The image processing apparatus according to claim 5, further comprising:
上記合成処理部は、キーフレームとして選択されたか否かにかかわらず、各フレーム画像データの入力に応じて画像合成処理を行って合成画像データを生成していくことで、動作推移動画データを生成する請求項6に記載の画像処理装置。   Regardless of whether the frame is selected as a key frame, the above composition processing unit generates image data by performing image composition processing according to the input of each frame image data, thereby generating motion transition video data The image processing apparatus according to claim 6. フレーム画像データについて、画像内の動被写体レイヤーと背景レイヤーを分離するレイヤー分離部と、
フレーム画像データの入力に応じて、既存の合成画像データに、入力された最新のフレーム画像データを合成する画像合成処理を行って各フレーム画像データの動被写体画像が順次所定の方向に並んで配置されていく合成画像データを生成するとともに、上記画像合成処理では、最新のフレーム画像データの画像と既存の合成画像データの画像の重複部分となる、上記既存の合成画像データの一部である合成対象領域に対し、入力された最新のフレーム画像データの動被写体レイヤーが第1に優先され、前回の画像合成処理に係るフレーム画像データの動被写体レイヤーが第2に優先され、入力された最新のフレーム画像データの背景レイヤーが第3に優先され、前回の画像合成処理に係るフレーム画像データの背景レイヤーが第4に優先されて表示されるように、レイヤー画像合成処理を行う合成処理部と、
を備える画像処理装置。
For frame image data, a layer separation unit that separates the moving subject layer and the background layer in the image,
In response to the input of the frame image data, an image composition process for synthesizing the latest input frame image data is performed on the existing composite image data, and the moving subject images of each frame image data are sequentially arranged in a predetermined direction. In addition to generating composite image data to be processed, in the image composition processing, composition that is a part of the existing composite image data, which is an overlapping part of the image of the latest frame image data and the image of the existing composite image data For the target area, the moving subject layer of the latest frame image data input has priority first, and the moving subject layer of the frame image data related to the previous image composition processing has priority second, and the latest input The background layer of frame image data has priority over third, and the background layer of frame image data related to the previous image composition processing has priority over fourth. As appears Te, a synthesis processing unit that performs the layer image combining process,
An image processing apparatus comprising:
フレーム画像データについて、画像内の動被写体レイヤーと背景レイヤーを分離するレイヤー分離ステップと、
フレーム画像データの入力に応じて、既存の合成画像データに、入力された最新のフレーム画像データを合成する画像合成処理を行って各フレーム画像データの動被写体画像が順次所定の方向に並んで配置されていく合成画像データを生成するともに、上記画像合成処理では、最新のフレーム画像データの画像と既存の合成画像データの画像の重複部分となる、上記既存の合成画像データの一部である合成対象領域に対し、入力された最新のフレーム画像データの動被写体レイヤーを第1に優先し、前回の画像合成処理に係るフレーム画像データの動被写体レイヤーを第2に優先し、入力された最新のフレーム画像データの背景レイヤーを第3に優先し、前回の画像合成処理に係るフレーム画像データの背景レイヤーを第4に優先した状態でレイヤー画像合成処理を行う合成処理ステップと、
を有する画像処理方法。
For frame image data, a layer separation step for separating the moving subject layer and the background layer in the image,
In response to the input of the frame image data, an image composition process for synthesizing the latest input frame image data is performed on the existing composite image data, and the moving subject images of each frame image data are sequentially arranged in a predetermined direction. In addition to generating composite image data to be processed, in the image composition processing, composition that is a part of the existing composite image data, which is an overlapping portion of the image of the latest frame image data and the image of the existing composite image data For the target area, the moving subject layer of the latest frame image data input is given priority first, and the moving subject layer of the frame image data related to the previous image composition processing is given priority second, and the latest input In the state where the background layer of the frame image data has priority over the third, and the background layer of the frame image data related to the previous image composition processing has priority over the fourth And combining processing step of performing the ear image synthesis processing,
An image processing method.
フレーム画像データについて、画像内の動被写体レイヤーと背景レイヤーを分離するレイヤー分離ステップと、
フレーム画像データの入力に応じて、既存の合成画像データに、入力された最新のフレーム画像データを合成する画像合成処理を行って各フレーム画像データの動被写体画像が順次所定の方向に並んで配置されていく合成画像データを生成するともに、上記画像合成処理では、最新のフレーム画像データの画像と既存の合成画像データの画像の重複部分となる、上記既存の合成画像データの一部である合成対象領域に対し、入力された最新のフレーム画像データの動被写体レイヤーを第1に優先し、前回の画像合成処理に係るフレーム画像データの動被写体レイヤーを第2に優先し、入力された最新のフレーム画像データの背景レイヤーを第3に優先し、前回の画像合成処理に係るフレーム画像データの背景レイヤーを第4に優先した状態でレイヤー画像合成処理を行う合成処理ステップと、
を演算処理装置に実行させるプログラム。
For frame image data, a layer separation step for separating the moving subject layer and the background layer in the image,
In response to the input of the frame image data, an image composition process for synthesizing the latest input frame image data is performed on the existing composite image data, and the moving subject images of each frame image data are sequentially arranged in a predetermined direction. In addition to generating composite image data to be processed, in the image composition processing, composition that is a part of the existing composite image data, which is an overlapping portion of the image of the latest frame image data and the image of the existing composite image data For the target area, the moving subject layer of the latest frame image data input is given priority first, and the moving subject layer of the frame image data related to the previous image composition processing is given priority second, and the latest input In the state where the background layer of the frame image data has priority over the third, and the background layer of the frame image data related to the previous image composition processing has priority over the fourth And combining processing step of performing the ear image synthesis processing,
A program that causes an arithmetic processing unit to execute.
JP2010203981A 2010-09-13 2010-09-13 Image processing apparatus, image processing method, and program Active JP5093317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010203981A JP5093317B2 (en) 2010-09-13 2010-09-13 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010203981A JP5093317B2 (en) 2010-09-13 2010-09-13 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008209931A Division JP4591576B2 (en) 2008-08-18 2008-08-18 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2011030244A true JP2011030244A (en) 2011-02-10
JP5093317B2 JP5093317B2 (en) 2012-12-12

Family

ID=43638346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010203981A Active JP5093317B2 (en) 2010-09-13 2010-09-13 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5093317B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013125277A1 (en) 2012-02-20 2013-08-29 ソニー株式会社 Image processing device, image processing method, and program
WO2020162154A1 (en) 2019-02-04 2020-08-13 ソニー株式会社 Information processing device and information processing method
CN113454531A (en) * 2019-02-19 2021-09-28 索尼半导体解决方案公司 Imaging device, electronic device, and imaging method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180259A (en) * 2002-09-30 2004-06-24 Toshiba Corp Image composing method, image composing device, and image composing program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180259A (en) * 2002-09-30 2004-06-24 Toshiba Corp Image composing method, image composing device, and image composing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013125277A1 (en) 2012-02-20 2013-08-29 ソニー株式会社 Image processing device, image processing method, and program
WO2020162154A1 (en) 2019-02-04 2020-08-13 ソニー株式会社 Information processing device and information processing method
CN113454531A (en) * 2019-02-19 2021-09-28 索尼半导体解决方案公司 Imaging device, electronic device, and imaging method
CN113454531B (en) * 2019-02-19 2023-10-27 索尼半导体解决方案公司 Imaging device, electronic device and imaging method
US11823493B2 (en) 2019-02-19 2023-11-21 Sony Semiconductor Solutions Corporation Imaging device, electronic device, and imaging method

Also Published As

Publication number Publication date
JP5093317B2 (en) 2012-12-12

Similar Documents

Publication Publication Date Title
JP4591576B2 (en) Image processing apparatus, image processing method, and program
JP6673381B2 (en) Image processing device
TWI450180B (en) Display control device, display control method, program
JP6337888B2 (en) Image processing apparatus, image processing method, and program
US7752548B2 (en) Features such as titles, transitions, and/or effects which vary according to positions
JP4850278B2 (en) Content creation support device, content creation support method, and scenario file generation method
US8717504B2 (en) Picture processing apparatus, processing method for use therewith, and program
JP2009141821A (en) Image processing device, dynamic image reproduction device, and processing method and program used in these devices
KR100960504B1 (en) System and method for making emotion based digital storyboard
JP4697221B2 (en) Image processing apparatus, moving image reproduction apparatus, processing method and program therefor
JP5093317B2 (en) Image processing apparatus, image processing method, and program
US9396574B2 (en) Choreography of animated crowds
JP4596929B2 (en) Background image generation apparatus and background image generation program
JP4769230B2 (en) Image processing apparatus, image processing method, and program
JP2006293643A (en) Information processing device and method
JPWO2002071748A1 (en) Electronic camera and data file generator
JP5891883B2 (en) Image generation method, image generation apparatus, and program
JP2009033254A (en) Image processing apparatus and image processing method
JP2013168821A (en) Video signal generator
JP2006033388A (en) Display program, display method, display apparatus, and recording medium
JP2005079820A (en) Apparatus, method and program for image processing
Kelly et al. Storyboards and Animatics
JP2009237454A (en) Image processing device, image processing method, and program
JP2012222771A (en) Image editing device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120903

R151 Written notification of patent or utility model registration

Ref document number: 5093317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250