JP6512208B2 - Image processing apparatus, image processing method and program - Google Patents
Image processing apparatus, image processing method and program Download PDFInfo
- Publication number
- JP6512208B2 JP6512208B2 JP2016235668A JP2016235668A JP6512208B2 JP 6512208 B2 JP6512208 B2 JP 6512208B2 JP 2016235668 A JP2016235668 A JP 2016235668A JP 2016235668 A JP2016235668 A JP 2016235668A JP 6512208 B2 JP6512208 B2 JP 6512208B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- moving image
- image
- person
- cut out
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
近年、撮像素子の高画素化、或いは、動画像の規格が標準画質からフルハイビジョン、さらに4Kへと高画素化が進み、1つの画面から部分を切り出しても充分な画質を得られるようになってきている。
こういった流れの中で、注目する人物を追尾しつつ画質を落とさない範囲で切り出しを行う技術が開示されている(例えば、特許文献1参照)。
In recent years, the number of pixels of imaging devices has been increased, or the standard for moving images has been increased from standard image quality to full high vision, and further increased to 4K, so that sufficient image quality can be obtained even if portions are cut out from one screen. It is coming.
In such a flow, there is disclosed a technique of performing cutout in a range that does not degrade the image quality while tracking a person of interest (for example, see Patent Document 1).
しかしながら、注目する人物を追尾して切り出しを行う従来の技術は、注目する人物が一人、或いは複数でも画像内における時間的な位置と空間的な位置の両方が近接している場合には有効であっても、複数の人物の画像内における時間的な位置と空間的な位置のいずれかが離れている場合には、効果が得られないという課題がある。これは、人物に限らず、画像内の注目する部分が離れて存在する場合においても同様である。 However, the conventional technique of tracking and extracting the person of interest is effective when both the temporal position and the spatial position in the image are close even if one or more persons of interest are in the image. Even if there is a problem, the effect can not be obtained when any one of the temporal position and the spatial position in the images of a plurality of persons is separated. This applies not only to the person but also to the case where the portion of interest in the image is apart.
本発明の課題は、画像内に存在する複数の被写体の位置関係によらず、効果的な画像を生成することである。 An object of the present invention is to generate an effective image regardless of the positional relationship of a plurality of objects present in the image.
上記目的を達成するため、本発明の一態様の画像処置装置は、
第1の被写体と、離間したフレーム期間に存在する第2の被写体とが撮影された1つの動画像から、前記第1の被写体又は前記第2の被写体が存在するフレーム期間を切り出すことで、動画像を切り出す切出手段と、
時間的な結合基準に基づいた被写体の順位付けに応じて、前記切出手段により切り出された前記第1の被写体に対応する動画像と、前記第2の被写体に対応する動画像とを結合することで、新たな1つの動画像を生成する生成手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention is
By cutting out a frame period in which the first subject or the second subject is present from one moving image in which a first subject and a second subject existing in a separated frame period are photographed, the video Cutting means for cutting out an image,
The moving image corresponding to the first object cut out by the cutting out means is combined with the moving image corresponding to the second object according to the ranking of the objects based on the temporal combination criteria Means for generating one new moving image,
And the like.
本発明によれば、画像内に存在する複数の被写体の位置関係によらず、効果的な画像を生成することができる。 According to the present invention, an effective image can be generated regardless of the positional relationship of a plurality of objects present in the image.
以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described using the drawings.
[第1実施形態]
[構成]
図1は、本発明の一実施形態に係る画像処理装置1のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばデジタルカメラとして構成される。
First Embodiment
[Constitution]
FIG. 1 is a block diagram showing a hardware configuration of an image processing apparatus 1 according to an embodiment of the present invention.
The image processing apparatus 1 is configured as, for example, a digital camera.
画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。
The image processing apparatus 1 includes a central processing unit (CPU) 11, a read only memory (ROM) 12, a random access memory (RAM) 13, a
CPU11は、ROM12に記録されているプログラム、または、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。例えば、CPU11は、後述する画像生成処理のためのプログラムに従って、画像生成処理を実行する。
The
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
Data and the like necessary for the
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。
The
撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
Although not shown, the
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured of a lens that collects light, such as a focus lens or a zoom lens, in order to capture an object.
The focus lens is a lens that forms an object image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length in a certain range.
The optical lens unit is also provided with peripheral circuits for adjusting setting parameters such as focus, exposure, white balance, etc., as necessary.
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像」と呼ぶ。撮像画像は、CPU11等に適宜供給される。
The image sensor includes a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a complementary metal oxide semiconductor (CMOS) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) an object image, accumulates an image signal for a certain period of time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on this analog image signal. A digital signal is generated by various signal processing, and is output as an output signal of the
Hereinafter, such an output signal of the
入力部17は、各種ボタン等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスク或いはフラッシュメモリ等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The
The
The
The
ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。
A
図2は、このような画像処理装置1の機能的構成のうち、画像生成処理を実行するための機能的構成を示す機能ブロック図である。
画像生成処理とは、複数の人物が撮影された1つの動画像から、登録されている顔情報を基にそれぞれの人物の顔の部分を空間的または時間的に切り出し、切り出された動画像を結合して新たな動画像を生成する一連の処理をいう。
FIG. 2 is a functional block diagram showing a functional configuration for executing an image generation process among the functional configurations of such an image processing apparatus 1.
In the image generation processing, from one moving image in which a plurality of persons are photographed, the face portion of each person is spatially or temporally cut out based on registered face information, and the cut out moving images are It refers to a series of processes that combine to generate a new moving image.
画像生成処理が実行される場合、図2に示すように、CPU11において、画像選択部51と、切り出し基準特定部52と、切り出し処理部53と、結合基準特定部54と、結合処理部55と、レイアウト選択部56と、が機能する。
When the image generation process is executed, as shown in FIG. 2, in the
また、記憶部19の一領域には、画像記憶部71と、レイアウト記憶部72と、生成画像記憶部73と、顔情報記憶部74と、が設定される。
Further, in one area of the
画像記憶部71には、画像処理装置1または他の装置によって撮像された動画像のデータが記憶される。
レイアウト記憶部72には、新たな動画像を生成する際に用いられるレイアウトのデータと、レイアウトを選択するための条件が定義されたレイアウトテーブルと、が記憶される。
The
The
図3は、レイアウトテーブルの一例を示す図である。
図3に示すように、レイアウトテーブルには、動画像から切り出された部分の数を示す切り出し画像数と、動画像から切り出された部分のうち最も高い優先順位が設定された部分を示す最優先の切り出し対象と、対応するレイアウトとが対応付けて記憶されている。
具体的には、レイアウトテーブルには、切り出し画像数として「2、3」等の数値、最優先の切り出し対象として「人物A、B、Cの顔」、「正面、右向き、左向き等の顔の向き」、「最優先の切り出し対象なし」等の切り出し対象の属性、対応レイアウトとして「レイアウト2A、2B・・・2N、レイアウト3A、3B・・・3N」等のレイアウトのデータが対応付けられている。
FIG. 3 is a diagram showing an example of the layout table.
As shown in FIG. 3, the layout table has the highest priority indicating the number of cut-out images indicating the number of portions cut out from the moving image and the portion to which the highest priority is set among the portions cut out from the moving image. The extraction target of and the corresponding layout are stored in association with each other.
Specifically, in the layout table, numerical values such as “2, 3” as the number of cut-out images, “faces of persons A, B, C”, “faces of front, right, left etc.” Attributes of the extraction target such as “direction” and “no top priority extraction target” and layout data such as “layout 2A, 2B... 2N, layout 3A, 3B. There is.
図4は、レイアウトの一例を示す模式図であり、図4(A)はレイアウト2A、図4(B)はレイアウト2B、図4(C)はレイアウト3G、図4(D)はレイアウト3Hを示す図である。
図4の各模式図に示すように、レイアウトには、背景と、背景に合成する画像の数と、大きさ及び位置関係とが定義されている。なお、図4(A)のレイアウト2Aや、図4(B)のレイアウト2Bのように、画面全体に画像が合成される場合には、背景として枠のみが表示される。
FIG. 4 is a schematic view showing an example of the layout, FIG. 4 (A) is a layout 2A, FIG. 4 (B) is a layout 2B, FIG. 4 (C) is a layout 3G, and FIG. 4 (D) is a layout 3H. FIG.
As shown in each schematic diagram of FIG. 4, the layout defines the background, the number of images to be combined with the background, and the size and positional relationship. As in the layout 2A of FIG. 4A and the layout 2B of FIG. 4B, when an image is combined on the entire screen, only a frame is displayed as a background.
具体的には、レイアウトには、背景に合成する所定数の画像の合成位置が設定され、それぞれの合成位置には優先順位が設定されている。また、各合成位置には、合成する画像の大きさが設定されている。
例えば、図4(A)のレイアウト2Aは、2枚の画像を左右に並ぶ合成位置に、同一の大きさで配置するレイアウトであり、左側の合成位置が優先順位1、右側の合成位置が優先順位2となっている。また、図4(C)のレイアウト3Gは、3枚の画像を左上、中央、右下に並ぶ合成位置に、中央の合成位置を大きく、左上及び右下の合成位置を小さく配置するレイアウトであり、中央の合成位置が優先順位1、左上の合成位置が優先順位2、右下の合成位置が優先順位3となっている。
Specifically, in the layout, a combination position of a predetermined number of images to be combined with the background is set, and priority is set to each combination position. Also, the size of the image to be combined is set at each combining position.
For example, layout 2A in FIG. 4A is a layout in which two images are arranged in the same size at the combining position arranged in the left and right direction, and the combining position on the left is priority 1 and the combining position on the right is priority It is in the second place. In addition, layout 3G of FIG. 4C is a layout in which three images are arranged at the synthesis positions aligned in the upper left, center, lower right, with the central synthesis position larger and the upper left and lower lower synthesis positions smaller. The center combining position has priority 1, the upper left combining position has
図2に戻り、生成画像記憶部73には、切り出された動画像をレイアウトに従って結合した新たな動画像のデータが記憶される。
顔情報記憶部74には、人物の顔(正面、右向き、左向き)の認証用データが記憶されている。人物の顔の認証用データは、動画像において検出された顔が、特定の人物の顔であるか否かを認証するために用いられる。なお、動画像から顔を検出する処理及び検出された顔が特定の人物であるか否かを認証する処理には、公知の各種顔検出技術及び顔認証技術を用いることができる。
Returning to FIG. 2, the generated image storage unit 73 stores data of a new moving image obtained by combining the cut out moving images according to the layout.
The face
画像選択部51は、画像記憶部71に記憶された画像のデータの中から、ユーザの指示入力に対応する動画像のデータを選択する。以下、選択された動画像のデータを「オリジナルの動画像」と呼ぶ。
切り出し基準特定部52は、動画像から人物の顔の部分を切り出す際の切り出し基準を特定する。
本実施形態では、切り出し基準として、空間的切り出し基準と、時間的切り出し基準とが定義されており、切り出し基準特定部52は、動画像の切り出しが行われる際に、前回使用された空間的切り出し基準または時間的切り出し基準のいずれかを特定する。なお、切り出し基準特定部52が、ユーザによる任意の切り出し基準の特定を受け付けることとしてもよい。
具体的には、空間的切り出し基準及び時間的切り出し基準は、以下のように設定されている。
The
The cutout
In the present embodiment, a spatial cutout criterion and a temporal cutout criterion are defined as the cutout criterion, and the cutout
Specifically, the spatial clipping criterion and the temporal clipping criterion are set as follows.
(空間的切り出し基準1)
動画像を構成するフレーム毎の画面において検出され、特定の人物として認証された顔それぞれを切り出し対象とする。
(空間的切り出し基準2)
動画像を構成するフレーム毎の画面において検出された顔及び特定の人物として認証された顔それぞれを切り出し対象とする。
(空間的切り出し基準3)
動画像を構成するフレーム毎の画面において特定の人物として認証された顔を切り出し対象としない。
(空間的切り出し基準4)
動画像を構成するフレーム毎の画面において検出された一人の顔または特定の人物として認証された一人の顔の正面/右向き/左向きを別々に切り出し対象とする。ただし、認証された顔を検出された顔よりも優先し、複数の顔が検出または認証された場合は、認証対象として登録された顔に設定されている優先順位や、検出または認証された顔の大きさに応じて切り出し対象を決定する。
(Spatial cutout criteria 1)
Each face detected and identified as a specific person on the screen of each frame constituting the moving image is to be extracted.
(Spatial cutout criteria 2)
A face detected on a screen of each frame constituting a moving image and a face authenticated as a specific person are extracted as extraction targets.
(Spatial cutout criteria 3)
A face authenticated as a specific person in the screen of each frame constituting a moving image is not to be extracted.
(Spatial cutout criterion 4)
The face / right / left direction of one face detected on the screen of each frame constituting a moving image or one face identified as a specific person is separately extracted. However, if a plurality of faces are detected or authenticated by giving priority to the authenticated face over the detected face, the priority set to the face registered as the authentication target, or the detected or authenticated face Determine the extraction target according to the size of.
(時間的切り出し基準1)
動画像を構成する連続するフレームにおいて顔が検出された場合または特定の人物として顔が認証された場合、検出された顔及び認証された顔が存在しているか否かによらず、同じ時間の長さで各顔に対応する動画像を切り出す。ただし、顔が検出または認証されなかったフレームの期間には、オリジナルの動画像をそのまま挿入することで、同じフレーム数となるようにする。
(時間的切り出し基準2)
動画像を構成する連続するフレームにおいて顔が検出された場合または特定の人物として顔が認証された場合、検出された顔及び認証された顔が存在しているか否かによらず、同じ時間の長さで各顔に対応する動画像を切り出す。ただし、顔が検出または認証されなかったフレームの期間は切り出しを行わずに時間的に圧縮した動画像を切り出し、最も長い動画像の長さに合わせるように、他の短い動画像のフレームレートを低下させることで、異なるフレーム数でも同じ時間となるようにする。
(Temporal cutout criteria 1)
When a face is detected in consecutive frames constituting a moving image or when a face is recognized as a specific person, regardless of whether or not the detected face and the recognized face exist, the same time period Cut out a moving image corresponding to each face by the length. However, during the frame period in which the face is not detected or authenticated, the original moving image is inserted as it is, so that the same frame number is obtained.
(Temporal cutout criteria 2)
When a face is detected in consecutive frames constituting a moving image or when a face is recognized as a specific person, regardless of whether or not the detected face and the recognized face exist, the same time period Cut out a moving image corresponding to each face by the length. However, during the frame period in which no face is detected or recognized, the temporally compressed moving image is cut out without cutting out, and the frame rate of another short moving image is adjusted to match the length of the longest moving image. By reducing it, it is made to be the same time even for different number of frames.
(時間的切り出し基準3)
動画像を構成する連続するフレームにおいて顔が検出された場合または特定の人物として顔が認証された場合、検出された顔及び認証された顔が存在している部分のフレームの期間のみを切り出し、時間的に圧縮した動画を切り出す。ただし、切り出し対象とする部分は、連続して顔が検出または認証される時間が所定の閾値時間以上の部分とする。なお、検出または認証された顔の正面/右向き/左向きを区別して時間的に切り出すこととしてもよい。
(Temporal cutout criteria 3)
When a face is detected in consecutive frames constituting a moving image or when a face is identified as a specific person, only the frame period of the detected face and the portion where the identified face is present is cut out, Cut out a temporally compressed video. However, in the part to be extracted, the time during which the face is continuously detected or recognized is a part that is equal to or more than a predetermined threshold time. Note that the face of the detected or authenticated face may be cut out temporally by distinguishing between front / right / left.
切り出し処理部53は、切り出し基準特定部52によって特定された切り出し基準に従って、動画像から人物の顔の部分を切り出す切り出し処理を実行する。具体的には、切り出し処理部53は、オリジナルの動画像をサーチし、切り出し対象となる被写体を特定する。そして、切り出し処理部53は、切り出し基準特定部52によって特定された切り出し基準に従って、フレーム毎の画面内の特定の人物の顔を含む矩形領域を空間的に切り出したり、特定の人物の顔を含むフレームの期間を時間的に切り出したりする。なお、空間的に切り出された動画像は、後述するレイアウトへの合成の際に、レイアウトによっては切り出された領域の一部をカットして、サイズやアスペクト比等が変更される場合がある。そのため、切り出し処理部53において切り出し対象となる被写体を空間的に切り出す場合には、被写体の周囲に一定の余白領域を含めて切り出しておくこととしてもよい。
The
結合基準特定部54は、切り出し処理部53によって切り出された動画像を結合する際の結合基準を特定する。
本実施形態では、結合基準として、空間的結合基準と、時間的結合基準とが定義されており、結合基準特定部54は、動画像の結合が行われる際に、前回使用された空間的結合基準または時間的結合基準のいずれかを特定する。なお、結合基準特定部54が、ユーザによる任意の結合基準の特定を受け付けることとしてもよい。
具体的には、空間的結合基準及び時間的切り出し基準は、以下のように設定されている。
The combination
In the present embodiment, a spatial coupling criterion and a temporal coupling criterion are defined as the coupling criterion, and the coupling
Specifically, the spatial coupling criteria and the temporal clipping criteria are set as follows.
(空間的結合基準1)
切り出し画像数と、予め登録されている優先順位が最も高い切り出し対象とに対応するレイアウトを選択し、切り出された動画像の優先順位の順に、合成位置の領域に割り当てる。
(空間的結合基準2)
切り出し画像数と、切り出し部分が最も大きい切り出し対象とに対応するレイアウトを選択し、切り出された動画像の優先順位の順に、合成位置の領域に割り当てる。
(空間的結合基準3)
切り出し画像数と、切り出し時間(切り出し後に時間の長さを変更する場合には、元の切り出し時間)が最も長い切り出し対象とに対応するレイアウトを選択し、切り出された動画像の優先順位の順に、合成位置の領域に割り当てる。
(Spatial coupling criterion 1)
A layout corresponding to the number of cut-out images and a cut-out target registered in advance and having the highest priority is selected, and assigned to the area of the synthesis position in the order of the priority of the cut-out moving images.
(Spatial coupling criterion 2)
The layout corresponding to the number of cut-out images and the cut-out target having the largest cut-out portion is selected, and assigned to the area of the synthesis position in the order of priority of the cut-out moving images.
(Spatial coupling criterion 3)
Select the layout corresponding to the number of cut-out images and the cut-out target with the longest cut-out time (in the case of changing the length of time after cut-out, the original cut-out time), and order of priority of cut-out moving images , Assign to the area of the composite position.
(時間的結合基準1)
予め登録されている優先順位の順に結合する。ただし、認証された顔を検出された顔よりも優先し、複数の顔が検出または認証された場合は、認証対象として登録された顔に設定されている優先順位や、検出または認証された顔の大きさに応じて結合順序を決定する。
(時間的結合基準2)
切り出し部分の大きさの順に結合する。
(時間的結合基準3)
切り出し時間(切り出し後に時間の長さを変更する場合には、オリジナルの動画像を挿入していない、或いはフレームレートを低下させていない元の切り出し時間)の長さの順に結合する。
(Temporal coupling criteria 1)
It combines in order of the priority registered beforehand. However, if a plurality of faces are detected or authenticated by giving priority to the authenticated face over the detected face, the priority set to the face registered as the authentication target, or the detected or authenticated face The order of combination is determined according to the size of.
(Temporal coupling criteria 2)
Combine in order of the size of the cut out part.
(Temporal coupling criteria 3)
It combines in order of the length of cutting out time (When changing the length of time after cutting out, original moving image is not inserted, or original cutting out time which is not reducing frame rate).
結合処理部55は、結合基準特定部54によって特定された結合基準に従って、切り出し処理部53によって切り出された各動画像を結合する。具体的には、結合処理部55は、切り出された各動画像を空間的結合基準に従って結合する空間的結合処理、または、切り出された各動画像を時間的結合基準に従って結合する時間的結合処理を実行する。
レイアウト選択部56は、結合処理部55によって動画像の空間的な結合が行われる場合に、切り出し画像数及び最優先の切り出し対象に基づいて、レイアウトテーブルを参照し、レイアウトデータを選択する。
The
The
[画像生成手順の概念]
図5は、空間的切り出し基準の概念を示す模式図であり、図5(A)、(B)は空間的切り出し基準1、図5(C)、(D)は空間的切り出し基準2、図5(E)、(F)は空間的切り出し基準3、図5(G)、(H)、(I)は空間的切り出し基準4の概念を示す模式図である。なお、図5の各模式図における破線は、空間的な切り出し領域を示している。
空間的切り出し基準1では、図5(A)に示すように、動画像内に特定の人物として認証された人物A〜Cの顔が含まれる場合、人物A〜Cの顔それぞれが切り出し対象となる。また、図5(B)に示すように、動画像内に特定の人物として認証された人物A,Bの顔及びそれ以外の人物Xの顔が含まれる場合、人物A,Bの顔それぞれが切り出し対象となり、人物Xの顔は切り出し対象とならない。
[Concept of image generation procedure]
FIG. 5 is a schematic view showing the concept of the spatial clipping standard, and FIGS. 5A and 5B are spatial clipping standard 1, FIG. 5C and FIG. 5D are
In the spatial cutout criterion 1, as shown in FIG. 5A, when the moving image includes the faces of the persons A to C who are authenticated as the specific person, the faces of the persons A to C are regarded as cutout objects, respectively. Become. Further, as shown in FIG. 5B, when the moving image includes the faces of the persons A and B who have been authenticated as the specific person and the faces of the other person X, the faces of the persons A and B are respectively The face of the person X is not to be extracted.
空間的切り出し基準2では、図5(C)に示すように、動画像内に特定の人物として認証された人物A〜Cの顔が含まれる場合、図5(A)と同様に、人物A〜Cの顔それぞれが切り出し対象となる。一方、図5(D)に示すように、動画像内に特定の人物として認証された人物A,Bの顔及びそれ以外の人物Xの顔が含まれる場合、人物A,Bの顔及び人物Xの顔それぞれが切り出し対象となる。
In the
空間的切り出し基準3では、図5(E)に示すように、動画像内に特定の人物として認証された人物A〜Cの顔が含まれる場合、人物A〜Cの顔は切り出し対象となない。また、図5(F)に示すように、動画像内に特定の人物として認証された人物A,Bの顔及びそれ以外の人物(不特定の人物)Xの顔が含まれる場合、人物A,Bの顔は切り出し対象とならず、人物Xの顔は切り出し対象となる。
空間的切り出し基準4では、図5(G)〜(I)に示すように、動画像内に特定の人物として認証された人物またはそれ以外の人物の顔が含まれる場合、優先順位の最も高い顔の向きが正面の状態、右向きの状態及び左向きの状態それぞれが別々に切り出し対象となる。
In the
In the spatial cutout criterion 4, as shown in FIGS. 5G to 5I, when the moving image includes the face of the person authenticated as a specific person or the face of another person, the highest priority is given. The face orientation is the front, the right orientation, and the left orientation are separately extracted.
図6〜9は、画像生成手順全体の概念を示す模式図である。なお、図6〜9においては、時間的切り出し基準によって動画が切り出された場合を例として、時間的結合基準及び空間的結合基準によって動画像が生成される場合の概念を示している。
具体的には、図6は時間的切り出し基準1で動画像を切り出した場合、図7は時間的切り出し基準2で動画像を切り出した場合、図8は時間的切り出し基準3で動画像を切り出した場合であって、切り出した動画像間で切り出しフレームが重複する場合、図9は時間的切り出し基準3で動画像を切り出した場合であって、切り出した動画像間で切り出しフレームが重複しない場合の例を示す図である。
6 to 9 are schematic diagrams showing the concept of the entire image generation procedure. 6 to 9 illustrate the concept of the case where a moving image is generated by the temporal connection criterion and the spatial connection criterion, taking the case where the moving image is extracted by the temporal cutout criterion as an example.
Specifically, FIG. 6 shows a case where a moving image is cut out according to temporal cut-out criterion 1, FIG. 7 shows a case where a moving image is cut out according to temporal cut-out
図6に示すように、時間的切り出し基準1では、図6(A)に示すオリジナルの動画像内に特定の人物として認証された人物A,B,Cの顔が含まれる場合、同じ時間の長さで人物A,B,Cそれぞれの顔に対応する動画像が切り出される(図6(B)参照)。なお、図6(A)に示すオリジナルの動画像では、人物A,B,Cの顔が全フレームの期間において認証されているが、図7(A)に示すオリジナルの動画像のように顔が検出または認証されなかったフレームの期間がある場合には、その期間にオリジナルの動画像が挿入される。そのため、切り出される各動画像の時間、フレーム数及びフレームレートは、オリジナルの動画像と同じとなる。
このとき、予め登録されている優先順位が人物A、人物B、人物Cの順に高く、切り出された部分の大きさが人物B、人物A、人物Cの順に大きいものとする。
As shown in FIG. 6, according to the temporal cutout standard 1, when the face of the persons A, B, and C authenticated as the specific person is included in the original moving image shown in FIG. Moving images corresponding to the faces of the persons A, B, and C are cut out by the length (see FIG. 6B). In the original moving image shown in FIG. 6A, the faces of the persons A, B, and C are authenticated in the period of the entire frame, but as in the original moving image shown in FIG. 7A. If there is a period of frame that has not been detected or authenticated, the original moving image is inserted in that period. Therefore, the time, the number of frames, and the frame rate of each moving image to be cut out are the same as the original moving image.
At this time, it is assumed that the priorities registered in advance are higher in the order of person A, person B and person C, and the size of the cut out part is larger in the order of person B, person A and person C.
すると、図6(C)に示すように、切り出された動画像を時間的結合基準1に従って結合する場合、予め登録されている優先順位に応じて、人物A、人物B、人物Cの順に、切り出された動画像が結合される。
一方、切り出された動画像を時間的結合基準2に従って結合する場合、切り出し部分の大きさに応じて、人物B、人物A、人物Cの順に、切り出された動画像が結合される。また、時間的結合基準3に従って結合する場合、切り出される動画像の時間は人物A、人物B、人物Cで同じであるが、図7(A)に示すオリジナルの動画像のようにオリジナルの動画像を挿入する前の元の切り出された動画像の長さが異なる場合は、長さの順に応じて、人物A、人物B、人物Cの順に、結合する。
また、図6(D)に示すように、切り出された動画像を空間的結合基準1に従って結合する場合、予め登録されている優先順位に応じて、人物Aが優先順位1の合成位置の領域、人物Bが優先順位2の合成位置の領域、人物Cが優先順位3の合成位置の領域に結合される。なお、このとき、切り出し画像数が3であり、人物Aが最優先の切り出し対象であるため、レイアウトテーブルを参照して、レイアウト3Aが選択される。
Then, as shown in FIG. 6C, when combining the cut out moving images according to the temporal combination criterion 1, according to the priority registered in advance, in the order of person A, person B, person C, The cut out moving images are combined.
On the other hand, when the cut out moving images are combined according to the
Further, as shown in FIG. 6D, when combining the cut out moving images according to the spatial connection criterion 1, the area of the synthesis position of the person A in the priority 1 according to the priority registered in advance. The person B is joined to the area of the synthesis position of
一方、切り出された動画像を空間的結合基準2に従って結合する場合、切り出された部分の大きさに応じて、人物Bが優先順位1の合成位置の領域、人物Aが優先順位2の合成位置の領域、人物Cが優先順位3の合成位置の領域に結合される。また、空間的結合基準3に従って結合する場合、切り出される動画像の時間は人物A、人物B、人物Cで同じであるが、図7(A)に示すオリジナルの動画像のようにオリジナルの動画像を挿入する前の元の切り出された動画像の長さが異なる場合は、長さの順に応じて、人物A、人物B、人物Cの順に優先順位の高い合成位置の領域に結合する。なお、このとき、切り出し画像数が3であり、人物Bが最優先の切り出し対象であるため、レイアウトテーブルを参照して、レイアウト3Bが選択される。
On the other hand, when combining the cut out moving images according to the
また、図7に示すように、時間的切り出し基準2では、図7(A)に示すオリジナルの動画像内に特定の人物として認証された人物A,B,Cの顔が含まれる場合、同じ時間の長さで人物A,B,Cそれぞれの顔に対応する動画像が切り出される(図7(B)参照)。なお、図7(A)に示すオリジナルの動画像では、人物B,Cの顔が一部のフレームの期間において認証されていないが、顔が検出または認証されなかったフレームの期間がある場合には、その期間が切り出されず圧縮される。そのため、時間の長さを合わせるためにフレームレートをオリジナルの動画像より低下させる。
このとき、予め登録されている優先順位が人物A、人物B、人物Cの順に高く、切り出された部分の大きさが人物B、人物A、人物Cの順に大きく、切り出された動画像のフレームレートが人物A、人物B、人物Cの順に高い(即ち、時間の長さを合わせる前の長さが人物A、人物B、人物Cの順に長い)ものとする。
In addition, as shown in FIG. 7, in the
At this time, the priority registered in advance is higher in the order of person A, person B and person C, and the size of the extracted part is larger in order of person B, person A and person C and the frame of the extracted moving image It is assumed that the rate is higher in the order of person A, person B and person C (that is, the length before matching the length of time is longer in the order of person A, person B and person C).
すると、図7(C)に示すように、切り出された動画像を時間的結合基準1に従って結合する場合、予め登録されている優先順位に応じて、人物A、人物B、人物Cの順に、切り出された動画像が結合される。
一方、切り出された動画像を時間的結合基準2に従って結合する場合、切り出し部分の大きさに応じて、人物B、人物A、人物Cの順に、切り出された動画像が結合される。
さらに、切り出された動画像を時間的結合基準3に従って結合する場合、切り出し時間の長さが同じであるが、この場合は、フレームレートを低下させる前の元の切り出された動画像の長さに応じて、人物A、人物B、人物Cの順に、切り出された動画像が結合される。
Then, as shown in FIG. 7C, when combining the cut out moving images according to the temporal combination criterion 1, according to the priority registered in advance, in the order of person A, person B, person C, The cut out moving images are combined.
On the other hand, when the cut out moving images are combined according to the
Furthermore, when combining the extracted moving images according to the
また、図7(D)に示すように、切り出された動画像を空間的結合基準1に従って結合する場合、予め登録されている優先順位に応じて、人物Aが優先順位1の合成位置の領域、人物Bが優先順位2の合成位置の領域、人物Cが優先順位3の合成位置の領域に結合される。なお、このとき、切り出し画像数が3であり、人物Aが最優先の切り出し対象であるため、レイアウトテーブルを参照して、レイアウト3Aが選択される。
一方、切り出された動画像を空間的結合基準2に従って結合する場合、切り出された部分の大きさに応じて、人物Bが優先順位1の合成位置の領域、人物Aが優先順位2の合成位置の領域、人物Cが優先順位3の合成位置の領域に結合される。なお、このとき、切り出し画像数が3であり、人物Bが最優先の切り出し対象であるため、レイアウトテーブルを参照して、レイアウト3Bが選択される。
Further, as shown in FIG. 7D, when combining the cut out moving images in accordance with the spatial connection criterion 1, the area of the synthesis position of the person A in the priority 1 according to the priority registered in advance. The person B is joined to the area of the synthesis position of
On the other hand, when combining the cut out moving images according to the
さらに、切り出された動画像を空間的結合基準3に従って結合する場合、切り出し時間の長さが同じであるが、この場合は、フレームレートを低下させる前の元の切り出された動画像の長さに応じて、人物Aが優先順位1の合成位置の領域、人物Bが優先順位2の合成位置の領域、人物Cが優先順位3の合成位置の領域に結合される。なお、このとき、切り出し画像数が3であり、人物Aが最優先の切り出し対象であるため、レイアウトテーブルを参照して、レイアウト3Aが選択される。
Furthermore, if the clipped moving images are combined according to the spatial combining
また、図8に示すように、時間的切り出し基準3では、図8(A)に示すオリジナルの動画像内に特定の人物として認証された人物A,B,Cの顔が含まれる場合、人物A,B,Cの顔が含まれる部分のみが人物A,B,Cそれぞれの顔に対応する動画像として切り出される(図8(B)参照)。図8に示す例では、オリジナルの動画像において、人物A、人物B、人物Cの顔が含まれるフレームが時間的に重複している。なお、図8(A)に示すオリジナルの動画像では、人物B,Cの顔が一部のフレームの期間において認証されていないが、顔が検出または認証されなかったフレームの期間がある場合には、オリジナルの動画像以下となる。
このとき、予め登録されている優先順位が人物A、人物B、人物Cの順に高く、切り出された部分の大きさが人物B、人物A、人物Cの順に大きく、切り出された動画像の長さが人物A、人物B、人物Cの順に長いものとする。
In addition, as shown in FIG. 8, with
At this time, the priority registered in advance is higher in the order of person A, person B and person C, and the size of the extracted part is larger in order of person B, person A and person C and the length of the extracted moving image The length is longer in the order of person A, person B, and person C.
すると、図8(C)に示すように、切り出された動画像を時間的結合基準1に従って結合する場合、予め登録されている優先順位に応じて、人物A、人物B、人物Cの順に、切り出された動画像が結合される。
一方、切り出された動画像を時間的結合基準2に従って結合する場合、切り出し部分の大きさに応じて、人物B、人物A、人物Cの順に、切り出された動画像が結合される。
さらに、切り出された動画像を時間的結合基準3に従って結合する場合、切り出し時間の長さに応じて、人物A、人物B、人物Cの順に、切り出された動画像が結合される。
Then, as shown in FIG. 8C, when combining the cut out moving images according to the temporal combination criterion 1, according to the priority registered in advance, in the order of person A, person B, person C, The cut out moving images are combined.
On the other hand, when the cut out moving images are combined according to the
Furthermore, when the cut out moving images are combined according to the
また、図8(D)に示すように、切り出された動画像を空間的結合基準1に従って結合する場合、予め登録されている優先順位に応じて、人物Aが優先順位1の合成位置の領域、人物Bが優先順位2の合成位置の領域、人物Cが優先順位3の合成位置の領域に結合される。なお、このとき、切り出し画像数が3であり、人物Aが最優先の切り出し対象であるため、レイアウトテーブルを参照して、レイアウト3Aが選択される。
一方、切り出された動画像を空間的結合基準2に従って結合する場合、切り出された部分の大きさに応じて、人物Bが優先順位1の合成位置の領域、人物Aが優先順位2の合成位置の領域、人物Cが優先順位3の合成位置の領域に結合される。なお、このとき、切り出し画像数が3であり、人物Bが最優先の切り出し対象であるため、レイアウトテーブルを参照して、レイアウト3Bが選択される。
Further, as shown in FIG. 8D, when combining the cut out moving images according to the spatial connection criterion 1, the area of the combining position of the person A in the priority 1 according to the priority registered in advance. The person B is joined to the area of the synthesis position of
On the other hand, when combining the cut out moving images according to the
さらに、切り出された動画像を空間的結合基準3に従って結合する場合、切り出し時間の長さに応じて、人物Aが優先順位1の合成位置の領域、人物Bが優先順位2の合成位置の領域、人物Cが優先順位3の合成位置の領域に結合される。なお、このとき、切り出し画像数が3であり、人物Aが最優先の切り出し対象であるため、レイアウトテーブルを参照して、レイアウト3Aが選択される。
Furthermore, when combining the cut out moving images according to the
また、図9に示すように、時間的切り出し基準3では、図9(A)に示すオリジナルの動画像内に特定の人物として認証された人物の正面、右向き及び左向きの顔が含まれる場合、正面、右向き及び左向きの顔が含まれる部分のみがそれぞれ動画像として切り出される(図9(B)参照)。図9(A)に示すオリジナルの動画像では、人物の顔が全フレームの期間において認証されており、正面、右向き及び左向きの顔が含まれる各々のフレームは時間的に重複していない。そのため、切り出される動画像の長さの合計は、オリジナルの動画像の長さと同じとなる。
このとき、予め登録されている優先順位が正面、右向き、左向きの順に高く、切り出された部分の大きさが右向き、正面、左向きの順に大きく、切り出された動画像の長さが正面、右向き、左向きの順に長いものとする。
Further, as shown in FIG. 9, in the case of the
At this time, the priority registered in advance is higher in the order of front, right and left, and the size of the cut out part is larger in the order of right, front and left and the length of the cut out is front, right It is assumed to be longer in the left direction.
すると、図9(C)に示すように、切り出された動画像を時間的結合基準1に従って結合する場合、予め登録されている優先順位に応じて、正面、右向き、左向きの順に、切り出された動画像が結合される。
一方、切り出された動画像を時間的結合基準2に従って結合する場合、切り出し部分の大きさに応じて、右向き、正面、左向きの順に、切り出された動画像が結合される。
さらに、切り出された動画像を時間的結合基準3に従って結合する場合、切り出し時間の長さに応じて、正面、右向き、左向きの順に、切り出された動画像が結合される。
Then, as shown in FIG. 9C, when combining the cut out moving images according to the temporal connection standard 1, according to the priority registered in advance, the parts are cut out in the order of front, right and left. Moving pictures are combined.
On the other hand, when the cut out moving images are combined according to the temporal combination standard 2, the cut out moving images are combined in the order of rightward, front and left according to the size of the cut out portion.
Furthermore, when the cut out moving images are combined according to the
また、図9(D)に示すように、切り出された動画像を空間的結合基準1に従って結合する場合、予め登録されている優先順位に応じて、正面が優先順位1の合成位置の領域、右向きが優先順位2の合成位置の領域、左向きが優先順位3の合成位置の領域に結合される。なお、このとき、切り出し画像数が3であり、正面が最優先の切り出し対象であるため、レイアウトテーブルを参照して、レイアウト3Gが選択される。
一方、切り出された動画像を空間的結合基準2に従って結合する場合、切り出された部分の大きさに応じて、右向きが優先順位1の合成位置の領域、正面が優先順位2の合成位置の領域、左向きが優先順位3の合成位置の領域に結合される。なお、このとき、切り出し画像数が3であり、右向きが最優先の切り出し対象であるため、レイアウトテーブルを参照して、レイアウト3Hが選択される。
Further, as shown in FIG. 9D, when combining the cut out moving images according to the spatial connection standard 1, according to the priority registered in advance, the area of the synthesis position of the priority 1 in the front, The rightward direction is combined with the area of the synthesis position of
On the other hand, when combining the cut out moving images in accordance with the
さらに、切り出された動画像を空間的結合基準3に従って結合する場合、切り出し時間の長さに応じて、正面が優先順位1の合成位置の領域、右向きが優先順位2の合成位置の領域、左向きが優先順位3の合成位置の領域に結合される。なお、このとき、切り出し画像数が3であり、正面が最優先の切り出し対象であるため、レイアウトテーブルを参照して、レイアウト3Gが選択される。
Furthermore, when combining the cut out moving images according to the
[動作]
次に、動作を説明する。
[画像生成処理]
図10は、図2の機能的構成を有する図1の画像処理装置1が実行する画像生成処理の流れを説明するフローチャートである。
画像生成処理は、ユーザによる入力部17への画像生成処理開始のための操作により開始される。
[Operation]
Next, the operation will be described.
[Image generation processing]
FIG. 10 is a flow chart for explaining the flow of image generation processing executed by the image processing apparatus 1 of FIG. 1 having the functional configuration of FIG. 2.
The image generation process is started by an operation by the user for starting the image generation process on the
ステップS1において、画像選択部51は、画像記憶部71に記憶された画像のデータの中から、ユーザの指示入力に対応する動画像のデータを選択する。この選択された動画像のデータが、オリジナルの動画像となる。
ステップS2において、切り出し基準特定部52は、動画像から人物の顔の部分を切り出す際の切り出し基準を特定する。ここでは、前回選択された切り出し基準を今回使用する切り出し基準として特定するが、ユーザによる入力部17への切り出し基準の選択のための操作により特定してもよい。
In step S <b> 1, the
In step S <b> 2, the clipping
ステップS3において、切り出し処理部53は、切り出し基準特定部52によって特定された切り出し基準に従って、動画像から人物の顔の部分を切り出す切り出し処理を実行する。なお、切り出し処理の詳細は後述する。
ステップS4において、結合基準特定部54は、切り出し処理部53によって切り出された動画像を結合する際の結合基準を特定する。ここでは、前回選択された結合基準を今回使用する結合基準として特定するが、ユーザによる入力部17への結合基準の選択のための操作により特定してもよい。
In step S <b> 3, the
In step S4, the combination
ステップS5において、結合処理部55は、ステップS4において特定された結合基準に基づき、切り出された動画像を空間的に結合するか否かの判定を行う。
切り出された動画像を空間的に結合しない場合、ステップS5においてNOと判定されて、処理はステップS8に移行する。
一方、切り出された動画像を空間的に結合する場合、ステップS5においてYESと判定されて、処理はステップS6に移行する。
In step S5, the combining
If the extracted moving images are not spatially combined, it is determined as NO in step S5, and the process proceeds to step S8.
On the other hand, in the case of spatially combining the cut out moving images, YES is determined in step S5, and the process proceeds to step S6.
ステップS6において、レイアウト選択部56は、ステップS4において特定された結合基準に基づき、ステップ3において切り出し処理により切り出された切り出し画像数及び最優先の切り出し対象に基づいて、レイアウトテーブルを参照し、レイアウトデータを選択する。
ステップS7において、結合処理部55は、切り出された動画像を空間的結合基準に従って結合する空間的結合処理を実行する。なお、空間的結合処理の詳細は後述する。
In step S6, the
In step S7, the
ステップS8において、結合処理部55は、切り出された動画像を時間的結合基準に従って結合する時間的結合処理を実行する。なお、時間的結合処理の詳細は後述する。
ステップS7及びステップS8の後、画像生成処理は終了となる。
In step S8, the combining
After steps S7 and S8, the image generation process ends.
[切り出し処理]
図11は、図10におけるステップS3の切り出し処理の流れを説明するフローチャートである。
ステップS31において、切り出し処理部53は、オリジナルの動画像をサーチし、切り出し対象となる被写体を特定する。
[Cut-out process]
FIG. 11 is a flowchart for explaining the flow of the clipping process of step S3 in FIG.
In step S31, the
ステップS32において、切り出し処理部53は、特定されている空間的切り出し基準または時間的切り出し基準に基づいて、最優先の被写体を処理対象として選択する。
ステップS33において、切り出し処理部53は、選択された被写体を空間的または時間的に切り出し、中間動画像を生成する。中間動画像とは、特定のファイル形式とされていない一時的に記憶されるフレームデータの集合である。
In step S <b> 32, the
In step S33, the
ステップS34において、切り出し処理部53は、全ての切り出し対象となる被写体の切り出し処理が終了したか否かの判定を行う。
全ての切り出し対象となる被写体の切り出し処理が終了していない場合、ステップS34においてNOと判定されて、処理はステップS35に移行する。
In step S34, the
If the clipping process of all the subjects to be clipped is not completed, it is determined as NO in step S34, and the process proceeds to step S35.
ステップS35において、切り出し処理部53は、次の優先順位の被写体を処理対象として選択する。
ステップS35の後、処理はステップS33に移行する。
一方、全ての切り出し対象となる被写体の切り出し処理が終了した場合、ステップS34においてYESと判定されて、処理は図10の画像生成処理に戻る。
In step S35, the
After step S35, the process proceeds to step S33.
On the other hand, when the clipping process of all the subjects to be clipped is completed, YES is determined in step S34, and the process returns to the image generation process of FIG.
[空間的結合処理]
図12は、図10におけるステップS7の空間的結合処理の流れを説明するフローチャートである。
ステップS51において、結合処理部55は、選択されたレイアウトの各合成位置の優先順位に対応する中間動画像(サイズやアスペクト比を調整した中間動画像)をレイアウトに従って合成することにより結合する。
[Spatial connection processing]
FIG. 12 is a flow chart for explaining the flow of the spatial coupling process of step S7 in FIG.
In step S51, the combining
ステップS52において、結合処理部55は、中間動画像を結合した動画像をファイル化する。なお、本実施形態において、動画像をファイル化する際のファイル形式としては、例えば、MPEG(Moving Picture Experts Group)4、H.264或いはH.265等に準拠したものとすることができる。
ステップS52の後、処理は画像生成処理に戻る。
In step S52, the combining
After step S52, the process returns to the image generation process.
[時間的結合処理]
図13は、図10におけるステップS8の時間的結合処理の流れを説明するフローチャートである。
ステップS71において、結合処理部55は、特定された時間的結合基準の優先順位の順に中間動画像を繋いで結合する。
Temporal join processing
FIG. 13 is a flow chart for explaining the flow of the temporal connection process of step S8 in FIG.
In step S71, the combining
ステップS72において、結合処理部55は、中間動画像を結合した動画像をファイル化する。
ステップS72の後、処理は画像生成処理に戻る。
In step S72, the combining
After step S72, the process returns to the image generation process.
このような処理の結果、ユーザによって選択された動画像(オリジナルの動画像)において、複数の人物が被写体として含まれる場合であっても、空間的切り出し基準または時間的切り出し基準に従って、複数の切り出し対象が切り出される。そして、切り出された動画像が、空間的結合基準または時間的結合基準に従って、優先順位に応じて結合され、新たな動画像が生成される。
そのため、複数の人物が画面内で離れている場合であっても、それぞれの人物を適切に動画像から切り出して、新たな動画像を生成することができる。
したがって、画面内に存在する複数の被写体の位置関係によらず、効果的な画像を生成することが可能となる。
As a result of such processing, in the moving image (original moving image) selected by the user, even in the case where a plurality of persons are included as subjects, a plurality of cutouts according to the spatial cutout criterion or the temporal cutout criterion The subject is cut out. Then, the extracted moving images are combined according to the priority according to the spatial combining criterion or the temporal combining criterion, and a new moving image is generated.
Therefore, even when a plurality of persons are separated in the screen, each person can be appropriately cut out from the moving image to generate a new moving image.
Therefore, it becomes possible to generate an effective image regardless of the positional relationship of a plurality of subjects present in the screen.
また、空間的切り出し基準に従って切り出された切り出し対象を、時間的結合基準に従って結合し、新たな動画像を生成することができる。
そのため、動画像において離れた位置に写っている被写体を、予め設定された基準に適合させて、時間的に連続して表示することが可能となる。
また、時間的切り出し基準に従って切り出された切り出し対象を、空間的結合基準に従って結合し、新たな動画像を生成することができる。
そのため、動画像において同時に写っている被写体であるか否かに関わらず、予め設定された基準に適合させて、複数の被写体の動画像を空間的に配置された状態で表示することが可能となる。
Also, segmentation objects segmented according to spatial segmentation criteria can be combined according to temporal coupling criteria to generate a new moving image.
Therefore, it becomes possible to display the subject appearing at a distant position in the moving image according to a preset reference and display it continuously in time.
Also, segmentation objects segmented according to the temporal segmentation criteria can be combined according to the spatial coupling criteria to generate a new moving image.
Therefore, it is possible to display moving images of a plurality of subjects in a spatially arranged state by conforming to a preset reference regardless of whether the objects are simultaneously shown in the moving image or not. Become.
なお、本実施形態においては、画像を切り出す対象として、動画像を例に挙げて説明したが、動画像の他、連写された複数の静止画像等、連続する静止画像を対象に画像を切り出すこととしてもよい。 In the present embodiment, a moving image has been described as an example of the image cutting target, but the image is cut out for continuous still images such as a plurality of continuously shot still images as well as the moving image. You may do it.
[第2実施形態]
次に、本発明の第2実施形態について説明する。
第2実施形態に係る画像処理装置1は、静止画像を対象として被写体の空間的な切り出しを行い、切り出された静止画像を空間的に結合して新たな静止画像を生成する。
即ち、第2実施形態に係る画像処理装置1は、ハードウェアの構成及び、画像生成処理を実行するための機能的構成は第1実施形態と共通で、主として画像生成処理の内容が第1実施形態と異なっている。
Second Embodiment
Next, a second embodiment of the present invention will be described.
The image processing apparatus 1 according to the second embodiment spatially cuts out a subject for a still image, spatially combines the cut out still images, and generates a new still image.
That is, the image processing apparatus 1 according to the second embodiment has the hardware configuration and the functional configuration for executing the image generation processing in common with the first embodiment, and the contents of the image generation processing are mainly performed in the first embodiment. It is different from the form.
図14は、第2実施形態における画像処理装置1が実行する画像生成処理の流れを説明するフローチャートである。
画像生成処理は、ユーザによる入力部17への画像生成処理開始のための操作により開始される。
FIG. 14 is a flowchart illustrating the flow of the image generation process performed by the image processing apparatus 1 according to the second embodiment.
The image generation process is started by an operation by the user for starting the image generation process on the
ステップS101において、画像選択部51は、画像記憶部71に記憶された画像のデータの中から、ユーザの指示入力に対応する静止画像のデータを選択する。以下、選択された静止画像のデータを「オリジナルの静止画像」と呼ぶ。
ステップS102において、切り出し基準特定部52は、静止画像から人物の顔の部分を切り出す際の切り出し基準(空間的切り出し基準)を特定する。なお、本実施形態においては、第1実施形態における空間的切り出し基準1〜4のうち、空間的切り出し基準1〜3のいずれかが特定される。ここでも、第1実施形態同様、前回選択された切り出し基準を今回使用する切り出し基準として特定するが、ユーザによる入力部17への切り出し基準の選択のための操作により特定してもよい。
In step S101, the
In step S <b> 102, the cutout
ステップS103において、切り出し処理部53は、切り出し基準特定部52によって特定された切り出し基準に従って、静止画像から人物の顔の部分を切り出す切り出し処理を実行する。なお、切り出し処理の詳細は後述する。
ステップS104において、結合基準特定部54は、切り出し処理部53によって切り出された静止画像を結合する際の結合基準(空間的結合基準)を特定する。なお、本実施形態においては、第1実施形態における空間的結合基準1〜3のうち、空間的結合基準1,2のいずれかが特定される。ここでも、第1実施形態同様、前回選択された結合基準を今回使用する結合基準として特定するが、ユーザによる入力部17への切り出し基準の選択のための操作により特定してもよい。
In step S103, the
In step S104, the combination
ステップS105において、レイアウト選択部56は、ステップS104において特定された結合基準に基づき、ステップS103において切り出し処理により切り出された切り出し画像数及び最優先の切り出し対象に基づいて、レイアウトテーブルを参照し、レイアウトデータを選択する。
ステップS106において、結合処理部55は、切り出された静止画像を空間的結合基準に従って結合する結合処理を実行する。なお、結合処理の詳細は後述する。
ステップS106の後、画像生成処理は終了となる。
In step S105, the
In step S106, the combining
After step S106, the image generation process ends.
[切り出し処理]
図15は、図14におけるステップS103の切り出し処理の流れを説明するフローチャートである。
ステップS121において、切り出し処理部53は、オリジナルの静止画像をサーチし、切り出し対象となる被写体を特定する。
[Cut-out process]
FIG. 15 is a flowchart for explaining the flow of the clipping process of step S103 in FIG.
In step S121, the
ステップS122において、切り出し処理部53は、特定されている空間的切り出し基準に基づいて、最優先の被写体を処理対象として選択する。
ステップS123において、切り出し処理部53は、選択された被写体を空間的に切り出し、中間静止画像を生成する。中間静止画像とは、特定のファイル形式とされていない一時的に記憶される画素データの集合である。
In step S122, the
In step S123, the
ステップS124において、切り出し処理部53は、全ての切り出し対象となる被写体の切り出し処理が終了したか否かの判定を行う。
全ての切り出し対象となる被写体の切り出し処理が終了していない場合、ステップS124においてNOと判定されて、処理はステップS125に移行する。
In step S124, the
If the clipping process of all the subjects to be clipped is not completed, it is determined as NO in step S124, and the process proceeds to step S125.
ステップS125において、切り出し処理部53は、次の優先順位の被写体を処理対象として選択する。
ステップS125の後、処理はステップS123に移行する。
一方、全ての切り出し対象となる被写体の切り出し処理が終了した場合、ステップS124においてYESと判定されて、処理は図14の画像生成処理に戻る。
In step S125, the
After step S125, the process proceeds to step S123.
On the other hand, when the clipping process of all the subjects to be clipped is completed, YES is determined in step S124, and the process returns to the image generation process of FIG.
[結合処理]
図16は、図14におけるステップS106の結合処理の流れを説明するフローチャートである。
ステップS141において、結合処理部55は、選択されたレイアウトの各合成位置の優先順位に対応する中間静止画像(サイズやアスペクト比を調整した中間静止画像)をレイアウトに従って合成することにより結合する。
[Join process]
FIG. 16 is a flowchart for explaining the flow of the combining process of step S106 in FIG.
In step S141, the combining
ステップS142において、結合処理部55は、中間静止画像を結合した静止画像をファイル化する。なお、本実施形態において、静止画像をファイル化する際のファイル形式としては、例えば、JPEG(Joint Photographic Experts Group)或いはGIF(Graphic Interchange Format)等に準拠したものとすることができる。
ステップS142の後、処理は図14の画像生成処理に戻る。
In step S142, the combining
After step S142, the process returns to the image generation process of FIG.
このような処理の結果、ユーザによって選択された静止画像において、複数の人物が被写体として含まれる場合であっても、空間的切り出し基準に従って、複数の切り出し対象が切り出される。そして、切り出された静止画像が、空間的結合基準に従って、優先順位に応じて結合され、新たな静止画像が生成される。
そのため、複数の人物が画面内で離れている場合であっても、それぞれの人物を適切に静止画像から切り出して、新たな静止画像を生成することができる。
したがって、画面内に存在する複数の被写体の位置関係によらず、効果的な画像を生成することが可能となる。
As a result of such processing, even if a plurality of persons are included as subjects in the still image selected by the user, a plurality of clipping targets are clipped according to the spatial clipping standard. Then, the clipped still images are combined according to the priority according to the spatial combining criteria to generate a new still image.
Therefore, even when a plurality of persons are separated in the screen, each person can be appropriately cut out from the still image, and a new still image can be generated.
Therefore, it becomes possible to generate an effective image regardless of the positional relationship of a plurality of subjects present in the screen.
[変形例1]
上述の実施形態においては、人物の顔等の被写体を空間的に切り出す際に、各被写体を個別に切り出す場合を例に挙げて説明した。これに対し、人物の顔等の被写体を空間的に切り出す際に、画面内で近接している複数の被写体を、1つの領域でまとめて切り出すこととしてもよい。
図17は、複数の被写体をまとめて空間的に切り出す概念を示す模式図である。
図17においては、動画像のフレームまたは静止画像内に、特定の人物として認証された人物A〜Cの顔が含まれており、人物A及び人物Bの顔が設定された閾値以内の距離に位置している。
このとき、人物A及び人物Bの顔をまとめて1つの領域で空間的に切り出すことができる。
これにより、空間的に関連性が高い被写体が分離されることなく切り出されるため、新たな画像を生成する際に、被写体の状況に応じて、被写体間の関係をより適切なものとすることができる。
[Modification 1]
In the above-mentioned embodiment, when subjecting subjects, such as a person's face, etc. to be spatially cut out, the case where each subject was cut out individually was mentioned as an example and explained. On the other hand, when a subject such as the face of a person is spatially cut out, a plurality of close subjects in the screen may be cut out together in one region.
FIG. 17 is a schematic view showing a concept of collectively cutting out a plurality of subjects.
In FIG. 17, the moving image frame or still image includes the faces of persons A to C who have been authenticated as a specific person, and the distances between the faces of persons A and B within the set threshold value. positioned.
At this time, the faces of the person A and the person B can be collectively cut out spatially in one region.
As a result, since a subject with high spatial relevance is cut out without being separated, it is possible to make the relation between subjects more appropriate according to the situation of the subject when generating a new image. it can.
以上のように構成される画像処理装置1は、切り出し処理部53と、結合処理部55と、を備える。
切り出し処理部53は、1つの動画像から、空間的及び/又は時間的な切り出し基準に基づき、複数の動画像を切り出す。
結合処理部55は、切り出された前記複数の動画像を、空間的及び/又は時間的な結合基準に基づき、時間的又は空間的に結合して、新たな1つの動画像を生成する。
これにより、空間的及び/又は時間的な切り出し基準に従って切り出された複数の動画像から、空間的及び/又は時間的な結合基準に従って1つの動画像を生成することができる。
そのため、複数の被写体が画面内で離れている場合であっても、それぞれの被写体を適切に動画像から切り出して、新たな動画像を生成することができる。
したがって、画面内に存在する複数の被写体の位置関係によらず、効果的な画像を生成することが可能となる。
The image processing apparatus 1 configured as described above includes a
The
The
Thereby, one moving image can be generated according to the spatial and / or temporal connection criterion from a plurality of moving images segmented according to the spatial and / or temporal cutout criterion.
Therefore, even when a plurality of subjects are separated in the screen, each subject can be appropriately cut out from the moving image, and a new moving image can be generated.
Therefore, it becomes possible to generate an effective image regardless of the positional relationship of a plurality of subjects present in the screen.
また、結合処理部55は、空間的な切り出し基準で切り出された複数の動画像を、時間的な結合基準で結合する。
これにより、動画像において離れた位置に写っている被写体を、予め設定された時間的な結合基準に適合させて、時間的に連続して表示することが可能となる。
Further, the combining
As a result, it becomes possible to match the subject appearing at a distant position in the moving image with the preset temporal connection reference and to display the subject continuously in time.
また、結合処理部55は、時間的な切り出し基準で切り出された複数の動画像を、空間的な結合基準で結合する。
これにより、動画像において同時に写っている被写体であるか否かに関わらず、予め設定された空間的な結合基準に適合させて、複数の被写体の動画像を空間的に配置された状態で表示することが可能となる。
Further, the combining
Thereby, regardless of whether or not the subject is simultaneously captured in the moving image, the moving images of a plurality of subjects are displayed in a spatially arranged state by being adapted to a preset spatial connection reference. It is possible to
また、切り出し処理部53は、空間的な切り出し基準として、動画像を構成する個々の画面内に含まれる所定の被写体部分を空間的に切り出す。
これにより、動画像の各画面において、所定の被写体の領域を適切に切り出すことができる。
Also, the
As a result, it is possible to appropriately cut out the area of the predetermined subject on each screen of the moving image.
また、切り出し処理部53は、時間的な切り出し基準として、動画像を構成するフレームのうち所定の被写体が含まれるフレームを時間的に切り出す。
これにより、動画像において、所定の被写体が含まれるフレームの期間を適切に切り出すことができる。
Further, the
As a result, it is possible to appropriately cut out the period of a frame in which a predetermined subject is included in a moving image.
また、所定の被写体は、予め登録されている人物の顔である。
これにより、予め登録された複数の人物が画面内で離れて写っている場合であっても、それぞれの被写体を適切に動画像から切り出すことができる。
The predetermined subject is the face of a person registered in advance.
As a result, even when a plurality of persons registered in advance are captured separately in the screen, each subject can be appropriately cut out of the moving image.
また、所定の被写体は、更に、不特定の人物の顔を含む。
これにより、不特定の人物の顔が写っている動画において、複数の人物を適切に動画像から切り出すことができる。
In addition, the predetermined subject further includes the face of an unspecified person.
Thus, in a moving image in which the face of an unspecified person is taken, a plurality of persons can be appropriately cut out from the moving image.
また、切り出し処理部53による切り出しの対象としない人物の顔が予め登録される。
これにより、動画像に写っている複数の人物の中から、特定の人物を除外して、効果的な動画像を生成することができる。
In addition, the faces of persons not to be extracted by the
Thus, it is possible to generate an effective moving image by excluding a specific person from among a plurality of persons appearing in the moving image.
また、結合処理部55は、空間的な結合基準として、切り出された動画像の個々を優先順位に基づいて、画面を空間的に分割し優先順位が付けられた各領域に割り当てる。
これにより、切り出された被写体の動画像の優先順位と空間的な優先順位と対応させて、効果的な動画像を生成することができる。
Further, the combining
In this way, it is possible to generate an effective moving image in correspondence with the priority of the moving image of the subject that has been cut out and the spatial priority.
また、画像処理装置1は、レイアウト選択部56を備える。
レイアウト選択部56は、切り出された動画像の数、或いは画像に含まれる被写体に対応する、複数の画像を結合する数、大きさ或いは位置関係が定義されたレイアウトを選択する。
結合処理部55は、切り出された複数の画像を、選択されたレイアウトに結合して新たな1つの画像を生成する。
これにより、切り出された動画像を自動的に適切なレイアウトに結合して、新たな動画像を生成することができる。
The image processing apparatus 1 further includes a
The
The combining
Thereby, the extracted moving image can be automatically combined into an appropriate layout to generate a new moving image.
また、結合処理部55は、時間的な結合基準として、切り出された動画像の個々を優先順位に基づいて、時間的に繋げる。
これにより、切り出された動画像の優先順位に対応する順序で、複数の被写体の動画像を繋げて新たな動画像を生成することができる。
Further, the combining
Thus, moving images of a plurality of subjects can be connected to generate a new moving image in the order corresponding to the priority of the cut out moving images.
また、優先順位は、画像に含まれる被写体に対応する予め登録されている優先順位、切り出された被写体部分の空間的な大きさ、或いは切り出された動画像の時間的な長さである。
これにより、切り出された動画像の属性に応じて、適切な優先順位を設定することができる。
Further, the priority is a priority registered in advance corresponding to a subject included in the image, a spatial size of the clipped subject portion, or a temporal length of the clipped moving image.
Thereby, an appropriate priority can be set according to the attribute of the extracted moving image.
また、画像処理装置1は、切り出し処理部53と、レイアウト選択部56と、結合処理部55と、を備える。
切り出し処理部53は、1つの画像から、空間的な切り出し基準に基づき、複数の画像を切り出す。
レイアウト選択部56は、切り出された画像の特徴に基づき、複数の画像を結合する数、大きさ或いは位置関係が定義されたレイアウトを選択する。
結合処理部55は、切り出された複数の画像を、選択されたレイアウトに結合して新たな1つの画像を生成する。
これにより、空間的な切り出し基準に従って切り出された複数の画像から、空間的な結合基準に従って1つの静止画像または動画像を生成することができる。
そのため、複数の被写体が画面内で離れている場合であっても、それぞれの被写体を適切に静止画像から切り出して、新たな静止画像または動画像を生成することができる。
したがって、画面内に存在する複数の被写体の位置関係によらず、効果的な画像を生成することが可能となる。
The image processing apparatus 1 further includes a
The
The
The combining
Thus, it is possible to generate one still image or moving image according to the spatial connection criterion from a plurality of images extracted according to the spatial extraction criterion.
Therefore, even when a plurality of subjects are separated in the screen, each subject can be appropriately cut out from the still image, and a new still image or moving image can be generated.
Therefore, it becomes possible to generate an effective image regardless of the positional relationship of a plurality of subjects present in the screen.
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 The present invention is not limited to the above-described embodiment, and modifications, improvements, and the like in the range in which the object of the present invention can be achieved are included in the present invention.
上述の実施形態において、人物の顔を切り出しの対象として説明したが、これに限られない。即ち、人物の他の部位であってもよく、更に他の生物でも、物でも、それらの部分でも、画像から認証或いは検出が可能であればよい。 In the above-mentioned embodiment, although the face of a person was explained as the object of clipping, it is not restricted to this. That is, it may be another part of the person, and it may be possible to authenticate or detect other images, objects or parts thereof from the image.
上述の実施形態において、オリジナルの静止画像または動画像から切り出された画像を結合して生成される新たな静止画像または動画像のサイズ及びアスペクト比は、オリジナルの静止画像または動画像と同一または異なるものとすることができる。 In the above embodiment, the size and aspect ratio of the new still image or moving image generated by combining the images extracted from the original still image or moving image are the same as or different from the original still image or moving image It can be
また、上述の実施形態において、レイアウトには、背景と、背景に合成する画像の数と、大きさ及び位置関係とが定義されているものとして説明したが、これに限られない。即ち、レイアウトには、背景、合成する画像の数、大きさ、位置関係のうちの一部を定義したり、これら以外の要素を定義したりすることができる。 Further, in the above-described embodiment, it has been described that the layout defines the background, the number of images to be combined with the background, and the size and positional relationship, but the present invention is not limited to this. That is, in the layout, a part of the background, the number of images to be synthesized, the size, and the positional relationship can be defined, or other elements can be defined.
また、上述の実施形態において、画像記憶部71に記憶されている画像のデータを対象として画像生成処理を行うこととして説明したが、これに限られない。例えば、撮像部16によって撮像される静止画像または動画像を対象として画像生成処理を行うこととしてもよい。
In the above-described embodiment, the image generation processing is performed on the data of the image stored in the
また、上述の実施形態において、空間的切り出し基準4では、動画像において検出された一人の顔または特定の人物として認証された一人の顔の正面/右向き/左向きを別々に切り出し対象としたが、これに限られない。例えば、動画像において検出された一人の顔または特定の人物として認証された一人の顔の笑顔、怒った顔、泣き顔等を別々に切り出し対象としてもよい。 Further, in the above-described embodiment, in the spatial cutout criterion 4, the front / right / left direction of one face detected in a moving image or one face authenticated as a specific person is separately extracted. It is not restricted to this. For example, a smile, an angry face, a cry face, or the like of one face detected in a moving image or one face recognized as a specific person may be separately extracted.
また、上述の実施形態において、レイアウトの種類は、切り出された画像を結合できるものであれば種々のものを採用することができる。例えば、レイアウトの種類は、画面内により小さい画面を重ねて画像を表示するPinP(Picture In Picture)の形態等とすることができる。 Further, in the above-described embodiment, various types of layout can be adopted as long as they can combine cut-out images. For example, the type of layout can be a form of PinP (Picture In Picture) in which images are displayed by overlapping smaller screens in the screen.
また、上述の実施形態では、本発明が適用される画像処理装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像生成処理機能を有する電子機器一般に適用することができる。具体的には、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
Moreover, in the above-mentioned embodiment, although the image processing apparatus 1 to which this invention is applied was demonstrated as an example of the digital camera, it is not specifically limited to this.
For example, the present invention can be applied to electronic devices in general having an image generation processing function. Specifically, the present invention is applicable to a laptop personal computer, a printer, a television receiver, a video camera, a portable navigation device, a portable telephone, a smart phone, a portable game machine, and the like.
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be performed by hardware or software.
In other words, the functional configuration of FIG. 2 is merely illustrative and not particularly limited. That is, it is sufficient if the image processing apparatus 1 has a function capable of executing the above-described series of processes as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG. .
Further, one functional block may be configured by hardware alone, may be configured by software alone, or may be configured by a combination of them.
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When the series of processes are executed by software, a program that configures the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。
The recording medium including such a program is not only configured by the
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。 In the present specification, in the step of describing the program to be recorded on the recording medium, the processing performed chronologically along the order is, of course, parallel or individually not necessarily necessarily chronologically processing. It also includes the processing to be performed.
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While some embodiments of the present invention have been described above, these embodiments are merely illustrative and do not limit the technical scope of the present invention. The present invention can take other various embodiments, and furthermore, various changes such as omissions and substitutions can be made without departing from the scope of the present invention. These embodiments and modifications thereof are included in the scope and the gist of the invention described in the present specification, etc., and are included in the invention described in the claims and the equivalent scope thereof.
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
1つの動画像から、空間的及び/又は時間的な切り出し基準に基づき、複数の動画像を切り出す切出手段と、
切り出された前記複数の動画像を、空間的及び/又は時間的な結合基準に基づき、時間的又は空間的に結合して、新たな1つの動画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記生成手段は、前記空間的な切り出し基準で切り出された複数の動画像を、時間的な結合基準で結合する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記生成手段は、前記時間的な切り出し基準で切り出された複数の動画像を、空間的な結合基準で結合する、
ことを特徴とする付記1に記載の画像処理装置。
[付記4]
前記切出手段は、前記空間的な切り出し基準として、動画像を構成する個々の画面内に含まれる所定の被写体部分を空間的に切り出す、
ことを特徴とする付記1から3のいずれか1つに記載の画像処理装置。
[付記5]
前記切出手段は、前記時間的な切り出し基準として、動画像を構成するフレームのうち所定の被写体が含まれるフレームを時間的に切り出す、
ことを特徴とする付記1から4のいずれか1つに記載の画像処理装置。
[付記6]
前記所定の被写体は、予め登録されている人物の顔である、
ことを特徴とする付記4または5に記載の画像処理装置。
[付記7]
前記所定の被写体は、更に、不特定の人物の顔を含む、
ことを特徴とする付記6に記載の画像処理装置。
[付記8]
前記切出手段による切り出しの対象としない人物の顔が予め登録される、
ことを特徴とする付記6に記載の画像処理装置。
[付記9]
前記生成手段は、前記空間的な結合基準として、切り出された動画像の個々を優先順位に基づいて、画面を空間的に分割し優先順位が付けられた各領域に割り当てる、
ことを特徴とする付記1から8のいずれか1つに記載の画像処理装置。
[付記10]
切り出された動画像の数、或いは画像に含まれる被写体に対応する、複数の画像を結合する数、大きさ或いは位置関係が定義されたレイアウトを選択する選択手段を更に備え、
前記生成手段は、切り出された複数の画像を、選択された前記レイアウトに結合して新たな1つの画像を生成する、
ことを特徴とする付記9に記載の画像処理装置。
[付記11]
前記生成手段は、前記時間的な結合基準として、切り出された動画像の個々を優先順位に基づいて、時間的に繋げる、
ことを特徴とする付記4に記載の画像処理装置。
[付記12]
前記優先順位は、画像に含まれる被写体に対応する予め登録されている優先順位、切り出された被写体部分の空間的な大きさ、或いは切り出された動画像の時間的な長さである、
ことを特徴とする付記9から11のいずれか1つに記載の画像処理装置。
[付記13]
1つの画像から、所定の切り出し基準に基づき、複数の画像を切り出す切出手段と、
切り出された前記画像の特徴に基づき、複数の画像を結合する数、大きさ或いは位置関係が定義されたレイアウトを選択する選択手段と、
切り出された前記複数の画像を、選択された前記レイアウトに結合して新たな1つの画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。
[付記14]
前記選択手段は、切り出された画像の特徴として、画像の数、或いは画像に含まれる被写体に対応する前記レイアウトを選択する、
ことを特徴とする付記13に記載の画像処理装置。
[付記15]
前記切出手段は、所定の被写体が含まれる画像から、所定の被写体部分を切り出す、
ことを特徴とする付記13または14に記載の画像処理装置。
[付記16]
1つの動画像から、空間的及び/又は時間的な切り出し基準に基づき、複数の動画像を切り出す切出処理と、
切り出された前記複数の動画像を、空間的及び/又は時間的な結合基準に基づき、時間的又は空間的に結合して、新たな1つの動画像を生成する生成処理と、
を含むことを特徴とする画像処理方法。
[付記17]
コンピュータに、
1つの動画像から、空間的及び/又は時間的な切り出し基準に基づき、複数の動画像を切り出す切出機能と、
切り出された前記複数の動画像を、空間的及び/又は時間的な結合基準に基づき、時間的又は空間的に結合して、新たな1つの動画像を生成する生成機能と、
を実現させることを特徴とするプログラム。
[付記18]
1つの画像から、所定の切り出し基準に基づき、複数の画像を切り出す切出処理と、
切り出された前記画像の特徴に基づき、複数の画像を結合する数、大きさ或いは位置関係が定義されたレイアウトを選択する選択処理と、
切り出された前記複数の画像を、選択された前記レイアウトに結合して新たな1つの画像を生成する生成処理と、
を含むことを特徴とする画像処理方法。
[付記19]
コンピュータに、
1つの画像から、所定の切り出し基準に基づき、複数の画像を切り出す切出機能と、
切り出された前記画像の特徴に基づき、複数の画像を結合する数、大きさ或いは位置関係が定義されたレイアウトを選択する選択機能と、
切り出された前記複数の画像を、選択された前記レイアウトに結合して新たな1つの画像を生成する生成機能と、
を実現させることを特徴とするプログラム。
The invention described in the claims at the beginning of the application of the present application is appended below.
[Supplementary Note 1]
Clipping means for clipping a plurality of moving images from one moving image based on spatial and / or temporal clipping criteria;
Generation means for temporally or spatially combining the plurality of extracted moving images based on spatial and / or temporal connection criteria to generate one new moving image;
An image processing apparatus comprising:
[Supplementary Note 2]
The generation means combines a plurality of moving images cut out by the spatial cut-out criterion by a temporal combination reference,
The image processing apparatus according to claim 1, characterized in that:
[Supplementary Note 3]
The generation means combines a plurality of moving images cut out based on the temporal cut-out reference based on a spatial connection reference,
The image processing apparatus according to claim 1, characterized in that:
[Supplementary Note 4]
The clipping unit spatially clips, as the spatial clipping reference, a predetermined subject portion included in each screen constituting a moving image.
The image processing apparatus according to any one of appendices 1 to 3, characterized in that
[Supplementary Note 5]
The clipping unit temporally clips out a frame including a predetermined subject among frames constituting a moving image as the temporal clipping reference.
The image processing apparatus according to any one of appendices 1 to 4, characterized in that
[Supplementary Note 6]
The predetermined subject is a face of a person registered in advance.
The image processing apparatus according to any one of appendices 4 or 5, characterized in that
[Supplementary Note 7]
The predetermined subject further includes the face of an unspecified person,
The image processing apparatus according to claim 6, characterized in that
[Supplementary Note 8]
A face of a person not to be cut out by the cutting out means is registered in advance.
The image processing apparatus according to claim 6, characterized in that
[Supplementary Note 9]
The generation means spatially divides each of the cut out moving images on the basis of priority, and assigns each of the regions to which priority has been given, as the spatial connection criterion.
The image processing apparatus according to any one of appendices 1 to 8, characterized in that
[Supplementary Note 10]
The image processing apparatus further comprises selection means for selecting a layout in which the number, size, or positional relationship of combining a plurality of images corresponding to the number of cut out moving images or a subject included in the images is selected,
The generation unit combines a plurality of extracted images with the selected layout to generate a new image.
Appendix 9. The image processing apparatus according to appendix 9.
[Supplementary Note 11]
The generation unit temporally connects each of the cut out moving images based on priority as the temporal connection criterion.
The image processing apparatus according to appendix 4, characterized in that
[Supplementary Note 12]
The priority is a pre-registered priority corresponding to a subject included in an image, a spatial size of a clipped subject portion, or a temporal length of a clipped moving image.
The image processing apparatus according to any one of appendices 9 to 11, characterized in that
[Supplementary Note 13]
Clipping means for clipping a plurality of images from one image based on a predetermined clipping criterion;
Selection means for selecting a layout in which the number, size or positional relationship of combining a plurality of images is defined based on the features of the extracted images;
Generation means for combining the plurality of extracted images with the selected layout to generate a new image;
An image processing apparatus comprising:
[Supplementary Note 14]
The selection means selects the number of images or the layout corresponding to a subject included in an image as the feature of the extracted image.
The image processing device according to
[Supplementary Note 15]
The cutting out unit cuts out a predetermined subject portion from an image including the predetermined subject.
The image processing apparatus according to any one of
[Supplementary Note 16]
A clipping process of clipping a plurality of moving images from one moving image based on spatial and / or temporal clipping criteria;
Generation processing for combining the extracted moving images temporally or spatially based on spatial and / or temporal connection criteria to generate one new moving image;
An image processing method comprising:
[Supplementary Note 17]
On the computer
A clipping function of clipping a plurality of moving images from one moving image based on spatial and / or temporal clipping criteria;
A generation function of temporally or spatially combining the plurality of extracted moving images based on spatial and / or temporal connection criteria to generate one new moving image;
A program that is characterized by realizing
[Supplementary Note 18]
A clipping process of clipping a plurality of images from one image based on a predetermined clipping criterion;
A selection process of selecting a layout in which the number, size, or positional relationship of combining a plurality of images is defined based on the features of the extracted images;
Generation processing of combining the plurality of extracted images with the selected layout to generate a new image;
An image processing method comprising:
[Supplementary Note 19]
On the computer
A clipping function for clipping a plurality of images from one image based on a predetermined clipping criterion;
A selection function of selecting a layout in which the number, size, or positional relationship of combining a plurality of images is defined based on the features of the extracted images;
A generation function of combining the plurality of extracted images into the selected layout to generate a new image;
A program that is characterized by realizing
1・・・画像処理装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,31・・・リムーバブルメディア,51・・・画像選択部,52・・・切り出し基準特定部
,53・・・切り出し処理部,54・・・結合基準特定部,55・・・結合処理部,56・・・レイアウト選択部,71・・・画像記憶部,72・・・レイアウト記憶部,73・・・生成画像記憶部,74・・・顔情報記憶部
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input-output interface, 16 ... Imaging part, 17 ... An
Claims (8)
時間的な結合基準に基づいた被写体の順位付けに応じて、前記切出手段により切り出された前記第1の被写体に対応する動画像と、前記第2の被写体に対応する動画像とを結合することで、新たな1つの動画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。 By cutting out a frame period in which the first subject or the second subject is present from one moving image in which a first subject and a second subject existing in a separated frame period are photographed, the video Cutting means for cutting out an image,
The moving image corresponding to the first object cut out by the cutting out means is combined with the moving image corresponding to the second object according to the ranking of the objects based on the temporal combination criteria Means for generating one new moving image,
An image processing apparatus comprising:
ことを特徴とする請求項1に記載の画像処理装置。 The clipping unit is a clipping target when the first subject or the second subject is detected or authenticated for a predetermined threshold time or more.
The image processing apparatus according to claim 1,
ことを特徴とする請求項1又は2に記載の画像処理装置。 The temporal connection criterion may be a priority pre-registered in the subject, a spatial size of the extracted subject portion, or a temporal length of the extracted moving image.
The image processing apparatus according to claim 1, wherein the image processing apparatus comprises:
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 When the first subject and the second subject present in individual frames making up a moving image are located at a distance equal to or greater than a predetermined threshold value in the frame, the clipping means determines the first condition. Cut out the subject and the second subject independently and spatially
The image processing apparatus according to any one of claims 1 to 3, characterized in that:
ことを特徴とする請求項4に記載の画像処理装置。 When the first object and the second object present in individual frames making up a moving image are located at a distance within a frame that is less than a predetermined threshold value, the cutting-out means may perform the first operation. Collectively and spatially cutting out the subject and the second subject,
The image processing apparatus according to claim 4, characterized in that:
時間的な結合基準に基づいた被写体の順位付けに応じて、前記切出処理により切り出された前記第1の被写体に対応する動画像と、前記第2の被写体に対応する動画像とを結合
することで、新たな1つの動画像を生成する生成処理と、
を含むことを特徴とする画像処理方法。 By cutting out a frame period in which the first subject or the second subject is present from one moving image in which a first subject and a second subject existing in a separated frame period are photographed, the video a switching origin sense to cut out the image,
The moving image corresponding to the first object cut out by the cutting process and the moving image corresponding to the second object are combined according to the ranking of the objects based on the temporal combination criteria Generation processing to generate one new moving image,
An image processing method comprising:
第1の被写体と、離間したフレーム期間に存在する第2の被写体とが撮影された1つの動画像から、前記第1の被写体又は前記第2の被写体が存在するフレーム期間を切り出すことで、動画像を切り出す切出機能と、
時間的な結合基準に基づいた被写体の順位付けに応じて、前記切出機能により切り出された前記第1の被写体に対応する動画像と、前記第2の被写体に対応する動画像とを結合することで、新たな1つの動画像を生成する生成機能と、
を実現させることを特徴とするプログラム。 On the computer
By cutting out a frame period in which the first subject or the second subject is present from one moving image in which a first subject and a second subject existing in a separated frame period are photographed, the video With a clipping function that cuts out an image,
The moving image corresponding to the first object cut out by the cutting out function is combined with the moving image corresponding to the second object according to the ranking of the objects based on the temporal combination criteria Generation function to generate one new moving image,
A program that is characterized by realizing
時間的な結合基準に基づいた前記所定の被写体の順位付けに応じて、前記切出手段により切り出された動画像を、当該所定の被写体ごとに結合することで、新たな1つの動画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。 Clipping means for clipping a moving image of each predetermined subject by cutting out a frame period in which a plurality of predetermined subjects are present from one moving image in which at least one subject is present in separated frame periods;
A new moving image is generated by combining the moving images cut out by the cutting unit according to the predetermined objects in accordance with the ranking of the predetermined objects based on the temporal combination criteria. Means for generating
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016235668A JP6512208B2 (en) | 2016-12-05 | 2016-12-05 | Image processing apparatus, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016235668A JP6512208B2 (en) | 2016-12-05 | 2016-12-05 | Image processing apparatus, image processing method and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014262444A Division JP6332864B2 (en) | 2014-12-25 | 2014-12-25 | Image processing apparatus, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017054541A JP2017054541A (en) | 2017-03-16 |
JP2017054541A5 JP2017054541A5 (en) | 2018-02-08 |
JP6512208B2 true JP6512208B2 (en) | 2019-05-15 |
Family
ID=58316819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016235668A Active JP6512208B2 (en) | 2016-12-05 | 2016-12-05 | Image processing apparatus, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6512208B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019023785A (en) * | 2017-07-24 | 2019-02-14 | 富士ゼロックス株式会社 | Person identification device and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4856105B2 (en) * | 2008-01-31 | 2012-01-18 | 株式会社東芝 | Electronic device and display processing method |
JP2010087723A (en) * | 2008-09-30 | 2010-04-15 | Fujifilm Corp | Photographing device, and method for editing moving picture |
JP5398408B2 (en) * | 2009-08-07 | 2014-01-29 | オリンパスイメージング株式会社 | CAMERA, CAMERA CONTROL METHOD, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD |
JP2014220724A (en) * | 2013-05-10 | 2014-11-20 | ソニー株式会社 | Display controller, display control method and program |
-
2016
- 2016-12-05 JP JP2016235668A patent/JP6512208B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017054541A (en) | 2017-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8064656B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and computer program | |
US20110043639A1 (en) | Image Sensing Apparatus And Image Processing Apparatus | |
US20140153900A1 (en) | Video processing apparatus and method | |
US20110007187A1 (en) | Imaging Device And Image Playback Device | |
JP2011010275A (en) | Image reproducing apparatus and imaging apparatus | |
EP2573758B1 (en) | Method and apparatus for displaying summary video | |
EP2720226B1 (en) | Photographing apparatus for synthesizing an image from a sequence of captures of the same scene. | |
JP2008278458A (en) | Image pickup apparatus, image display device, and program therefor | |
US9253406B2 (en) | Image capture apparatus that can display review image, image capture method, and storage medium | |
EP2573759A2 (en) | Display apparatus and method | |
US9111363B2 (en) | Video playback apparatus and video playback method | |
JP6304293B2 (en) | Image processing apparatus, image processing method, and program | |
JP5655668B2 (en) | Imaging apparatus, image processing method, and program | |
JP6460783B2 (en) | Image processing apparatus and control method thereof | |
JP2014123908A (en) | Image processing system, image clipping method, and program | |
JP2009081786A (en) | Imaging apparatus, subject separating method, and program | |
JP6512208B2 (en) | Image processing apparatus, image processing method and program | |
JP6332864B2 (en) | Image processing apparatus, image processing method, and program | |
JP2008172395A (en) | Imaging apparatus and image processing apparatus, method, and program | |
JP2011119934A (en) | Image shooting device and image shooting method | |
JP2009081502A (en) | Photographing device and image reproducing device | |
JP6372176B2 (en) | Image processing apparatus, image processing method, and program | |
JP2015159405A (en) | image processing apparatus, imaging device, control method, program, and storage medium | |
JP5665380B2 (en) | Image processing apparatus, image processing apparatus control method, program, and recording medium | |
JP6424620B2 (en) | Image generation apparatus, image generation method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190122 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6512208 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |