JP5994612B2 - Video editing apparatus, video editing method, and video editing program - Google Patents

Video editing apparatus, video editing method, and video editing program Download PDF

Info

Publication number
JP5994612B2
JP5994612B2 JP2012264986A JP2012264986A JP5994612B2 JP 5994612 B2 JP5994612 B2 JP 5994612B2 JP 2012264986 A JP2012264986 A JP 2012264986A JP 2012264986 A JP2012264986 A JP 2012264986A JP 5994612 B2 JP5994612 B2 JP 5994612B2
Authority
JP
Japan
Prior art keywords
video
image
reduction
object region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012264986A
Other languages
Japanese (ja)
Other versions
JP2014110582A (en
Inventor
正樹 石原
正樹 石原
秋吾 中村
秋吾 中村
昌彦 杉村
昌彦 杉村
遠藤 進
進 遠藤
馬場 孝之
孝之 馬場
上原 祐介
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012264986A priority Critical patent/JP5994612B2/en
Publication of JP2014110582A publication Critical patent/JP2014110582A/en
Application granted granted Critical
Publication of JP5994612B2 publication Critical patent/JP5994612B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本件開示は、要約映像を生成するための映像編集装置および映像編集方法並びに映像編集プログラムに関する。   The present disclosure relates to a video editing apparatus, a video editing method, and a video editing program for generating a summary video.

監視カメラなどで得られた映像から、例えば、人物や車両などの物体の移動過程が撮影されている部分を切り出して集約することで、要約映像を作成する場合がある。   In some cases, for example, a summary video may be created by cutting out and collecting a part in which a moving process of an object such as a person or a vehicle is captured from a video obtained by a surveillance camera or the like.

要約映像を作成するための技術として、例えば、物体の動きが要約映像で表される時空間で重ならないように編集する技術が提案されている(特許文献1参照)。   As a technique for creating a summary video, for example, a technique for editing so that the motion of an object does not overlap in the space-time represented by the summary video has been proposed (see Patent Document 1).

特表2009−516257号公報Special table 2009-516257

ところで、例えば、店舗の入り口付近を撮影した映像に基づいて、各人物が入店直後にどのように移動するかを解析することで、店舗内の設備などの効果的な配置を検討する場合がある。このような場合に、例えば、営業時間の開始から終了までの期間にわたって店舗の入り口付近を撮影した映像から要約映像を作成する場合がある。   By the way, for example, by analyzing how each person moves immediately after entering the store based on the video taken near the entrance of the store, there is a case where an effective arrangement of equipment in the store is examined. is there. In such a case, for example, a summary video may be created from a video taken near the entrance of a store over a period from the start to the end of business hours.

この場合に、各人物がカメラの撮影範囲を通過していく期間の映像を重ね合わせることによって要約映像を作成すれば、多数の人物が移動する様子を一括して提示する要約映像を生成することができる。しかしながら、このような要約映像において、多数の人物の像が重なり合って表示されてしまうと、個々の人物の性別や年齢層などの属性や人物それぞれの仕草などの細かい動作や視線の向きなどを把握するための情報を提示することが困難になってしまう。   In this case, if a summary video is created by superimposing videos of each person passing through the camera's shooting range, a summary video can be generated that presents a large number of people moving together. Can do. However, in such a summary video, if images of a large number of people are displayed in an overlapping manner, attributes such as the gender and age group of each person, the detailed actions such as the gesture of each person, and the direction of the line of sight are grasped. It becomes difficult to present information for doing so.

一方、物体の動きが重ならないように映像を要約する手法では、複数の物体それぞれの動きを同じ時系列で一覧させるような要約映像を生成することはできない。   On the other hand, in the method of summarizing videos so that the motions of objects do not overlap, it is not possible to generate a summary video that lists the motions of a plurality of objects in the same time series.

本件開示は、複数の物体の属性および移動経路を一括して再現する要約映像を生成可能な映像編集装置および映像編集方法並びに映像編集プログラムを提供することを目的とする。   An object of the present disclosure is to provide a video editing apparatus, a video editing method, and a video editing program capable of generating a summary video that collectively reproduces attributes and movement paths of a plurality of objects.

一つの観点による映像編集装置は、所定の箇所を背景とした各物体の移動過程を表す複数の映像を受け、前記各映像に含まれる各画像において、前記各物体の像を含む物体領域を特定する特定部と、前記各映像の先頭からの相対時間が同じ画像を重ね合わせることで生成される要約映像中の各画像において、前記物体にそれぞれ対応する前記物体領域が互いに重複している部分を検出する検出部と、前記各物体領域において、前記重複している部分から離れている頂点を基準として縮小することで、前記重複している部分を小さくするための縮小率を求める算出部と、前記算出部で得られた縮小率で縮小した前記各物体領域の重心位置が、前記各物体領域の前記縮小前の重心位置に近くなるように、前記物体領域の位置を調整する調整部とを備える。   A video editing apparatus according to one aspect receives a plurality of videos representing a moving process of each object with a predetermined location as a background, and identifies an object region including the image of each object in each image included in each video And a portion where the object regions corresponding to the objects overlap each other in each image in the summary video generated by superimposing images having the same relative time from the beginning of each video. A detection unit for detecting, and a calculation unit for obtaining a reduction rate for reducing the overlapping part by reducing the overlapping part in the respective object regions with reference to a vertex away from the overlapping part; An adjustment unit that adjusts the position of the object region so that the gravity center position of each object region reduced by the reduction ratio obtained by the calculation unit is close to the gravity center position of each object region before the reduction. Obtain.

また、別の観点による映像編集方法は、所定の箇所を背景とした各物体の移動過程を表す複数の映像を受け、前記各映像に含まれる各画像において、前記各物体の像を含む物体領域を特定し、前記各映像の先頭からの相対時間が同じ画像を重ね合わせることで生成される要約映像中の各画像において、前記物体にそれぞれ対応する前記物体領域が互いに重複している部分を検出し、前記各物体領域において、前記重複している部分から離れている頂点を基準として縮小することで、前記重複している部分を小さくするための縮小率を求め、求められた縮小率で縮小した前記各物体領域の重心位置が、前記各物体領域の前記縮小前の重心位置に近くなるように、前記物体領域の位置を調整する。   Further, a video editing method according to another aspect receives a plurality of videos representing a movement process of each object with a predetermined background as a background, and an object region including an image of each object in each image included in each video In each image in the summary video generated by superimposing images with the same relative time from the beginning of each video, a portion where the object regions corresponding to the objects overlap each other is detected. Then, in each of the object regions, a reduction rate for reducing the overlapped part is obtained by reducing the vertexes away from the overlapped part as a reference, and reduction is performed at the obtained reduction rate. The position of the object area is adjusted so that the center of gravity of each object area is close to the position of the center of gravity of each object area before the reduction.

また、別の観点による映像編集プログラムは、所定の箇所を背景とした各物体の移動過程を表す複数の映像を受け、前記各映像に含まれる各画像において、前記各物体の像を含む物体領域を特定し、前記各映像の先頭からの相対時間が同じ画像を重ね合わせることで生成される要約映像中の各画像において、前記物体にそれぞれ対応する前記物体領域が互いに重複している部分を検出し、前記各物体領域において、前記重複している部分から離れている頂点を基準として縮小することで、前記重複している部分を小さくするための縮小率を求め、求められた縮小率で縮小した前記各物体領域の重心位置が、前記各物体領域の前記縮小前の重心位置に近くなるように、前記物体領域の位置を調整する処理をコンピュータに実行させる。   Further, a video editing program according to another aspect receives a plurality of videos representing a moving process of each object with a predetermined place as a background, and an object region including an image of each object in each image included in each video In each image in the summary video generated by superimposing images with the same relative time from the beginning of each video, a portion where the object regions corresponding to the objects overlap each other is detected. Then, in each of the object regions, a reduction rate for reducing the overlapped part is obtained by reducing the vertexes away from the overlapped part as a reference, and reduction is performed at the obtained reduction rate. The computer is caused to execute a process of adjusting the position of the object region so that the center of gravity of each object region is close to the center of gravity of each object region before the reduction.

本件開示の映像編集装置および映像編集方法並びに映像編集プログラムによれば、複数の物体の属性および移動経路を一括して再現する要約映像を生成することができる。   According to the video editing apparatus, the video editing method, and the video editing program of the present disclosure, it is possible to generate a summary video that collectively reproduces the attributes and movement paths of a plurality of objects.

映像編集装置の一実施形態を示す図である。It is a figure which shows one Embodiment of a video editing apparatus. 映像編集装置に入力される映像の例を示す図である。It is a figure which shows the example of the image | video input into a video editing apparatus. 部分映像の例を示す図である。It is a figure which shows the example of a partial image | video. 物体領域の例を示す図である。It is a figure which shows the example of an object area | region. 物体情報保持部の例を示す図である。It is a figure which shows the example of an object information holding part. 2つの物体領域の相対位置の例を示す図である。It is a figure which shows the example of the relative position of two object area | regions. 物体領域の縮小の例を示す図である。It is a figure which shows the example of reduction of an object area | region. 調整部による縮小後の物体領域の位置を調整する例を示す図である。It is a figure which shows the example which adjusts the position of the object area | region after reduction by the adjustment part. 要約映像の各画像に重ね合わせられた物体領域の例を示す図である。It is a figure which shows the example of the object area | region superimposed on each image of the summary image | video. 映像編集処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of a video editing process. 縮小後の物体領域の位置を調整した例を示す図である。It is a figure which shows the example which adjusted the position of the object area | region after reduction. 映像編集装置の別実施形態を示す図である。It is a figure which shows another embodiment of a video editing apparatus. 相似変換の例を示す図である。It is a figure which shows the example of similarity conversion. 多目的最適化問題の解の例を示す図である。It is a figure which shows the example of the solution of a multi-objective optimization problem. 映像編集装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of a video editing apparatus. 映像編集処理のフローチャートの別例を示す図である。It is a figure which shows another example of the flowchart of a video editing process. 制約条件を生成する処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which produces | generates a constraint condition. 評価式を求める処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which calculates | requires an evaluation formula. 相似変換のパラメータを算出する処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which calculates the parameter of similarity transformation.

以下、図面に基づいて、本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、映像編集装置の一実施形態を示す。図1に示した映像編集装置10は、動き映像抽出装置3から所定の箇所を背景とした各物体の移動過程を表す映像を受け、受け取った各映像を合成することにより要約映像を生成し、生成した要約映像を要約映像記憶装置4に記憶させる。   FIG. 1 shows an embodiment of a video editing apparatus. The video editing apparatus 10 shown in FIG. 1 receives a video representing the movement process of each object with a predetermined location as a background from the motion video extraction apparatus 3, generates a summary video by synthesizing each received video, The generated summary video is stored in the summary video storage device 4.

図1に示した映像蓄積装置1は、例えば、監視カメラなどの撮影装置2によって所定の撮影範囲を撮影することで得られた映像を蓄積している。また、動き映像抽出装置3は、映像蓄積装置1に蓄積された映像から、何らかの物体の動きが捉えられている期間それぞれの映像を抽出し、抽出した各映像を映像編集装置10に入力する。   The video storage device 1 shown in FIG. 1 stores video obtained by shooting a predetermined shooting range by a shooting device 2 such as a surveillance camera. In addition, the motion video extraction device 3 extracts each video from the video stored in the video storage device 1 during a period in which some kind of object motion is captured, and inputs the extracted video to the video editing device 10.

図2は、映像編集装置10に入力される映像の例を示している。図2(A)は、図1に示した映像蓄積装置1に蓄積された映像の撮影範囲VWの例を示している。また、図2(B)は、映像蓄積装置1に蓄積された映像Vの例を示している。   FIG. 2 shows an example of a video input to the video editing device 10. FIG. 2A shows an example of the shooting range VW of the video stored in the video storage device 1 shown in FIG. FIG. 2B shows an example of the video V stored in the video storage device 1.

図2(A)に示した撮影範囲VWにおいて、符号Drは、自動ドアを示しており、また、符号P1は、それぞれ自動ドアDrから室内に進入した人物の例を示している。また、図2(A)において、符号Tr1は、上述した人物P1の移動経路を示している。   In the photographing range VW shown in FIG. 2A, the symbol Dr indicates an automatic door, and the symbol P1 indicates an example of a person who has entered the room from the automatic door Dr. Further, in FIG. 2A, reference numeral Tr1 indicates the movement path of the person P1 described above.

また、図2(B)に示した映像Vは、上述した人物P1を含む複数の人物および物体が、図2(A)に示した撮影範囲VWを背景として移動する過程を撮影した映像を含んでいる。   Also, the video V shown in FIG. 2B includes a video that captures a process in which a plurality of persons and objects including the person P1 described above move with the imaging range VW shown in FIG. 2A moving as a background. It is out.

ここで、例えば、図2に示した自動ドアDrから進入した人物を含む物体が撮影範囲VWにおいてどのように移動するかを調べるために、映像Vから各物体の移動過程を表す映像を抽出し、抽出した映像を合成することで要約映像を生成する場合を考える。   Here, for example, in order to examine how an object including a person who has entered through the automatic door Dr illustrated in FIG. 2 moves in the imaging range VW, an image representing the movement process of each object is extracted from the image V. Consider a case where a summary video is generated by synthesizing extracted videos.

各物体の移動過程を表す映像は、例えば、自動ドアDrが開くイベントが撮影されたタイミングを映像Vから検出し、検出したタイミングそれぞれから所定の時間τが経過するまでの映像を映像Vから抽出することで取得することができる。以下の説明では、「自動ドアDrが開くイベント」を「ドアイベント」と称する。   For example, the video representing the moving process of each object is detected from the video V at the timing when the event of opening the automatic door Dr is taken, and the video from the detected timing until a predetermined time τ elapses is extracted from the video V. You can get it. In the following description, “an event that the automatic door Dr opens” is referred to as a “door event”.

例えば、映像Vの撮影期間に、延べL個の物体が自動ドアDrから室内に進入した場合に、図1に示した動き映像抽出装置3は、ドアイベントごとに時間τの部分を映像Vから抽出することで、L個の映像を取得する。   For example, when a total of L objects enter the room through the automatic door Dr during the video V shooting period, the motion video extraction device 3 shown in FIG. By extracting, L videos are acquired.

以下、図2(B)に示した映像Vにおいて、映像Vの先頭から見てk番目にドアイベントが撮影された時刻Tkから時間τの部分を、k番目に検出された物体Pkの移動過程を表す部分映像Vpkと称する。例えば、図1に示した人物P1が、映像Vの先頭から見て最初に上述したドアイベントが撮影された時刻T1に自動ドアDrから室内に進入した場合に、時刻T1から時間τの間の部分は、人物P1の移動過程を表す部分映像Vp1である。なお、以下の説明において、各物体の移動過程を表す映像として、映像Vから抽出された部分映像を総称する場合は、部分映像Vpと称する。   Hereinafter, in the video V shown in FIG. 2 (B), the part of the time τ from the time Tk when the kth door event was photographed as viewed from the top of the video V is the moving process of the kth detected object Pk. This is referred to as a partial video Vpk representing For example, when the person P1 shown in FIG. 1 enters the room from the automatic door Dr at the time T1 when the above-described door event is first photographed when viewed from the top of the video V, for example, between the time T1 and the time τ. The part is a partial video Vp1 representing the movement process of the person P1. In the following description, the partial video extracted from the video V is collectively referred to as a partial video Vp as the video representing the movement process of each object.

上述した部分映像Vp1,Vpkを含む各部分映像Vpは、いずれも、ドアイベントが発生したタイミングを基準として、自動ドアDrから進入してきた物体が、撮影範囲VWを背景として移動する過程を表す映像である。すなわち、各部分映像Vpは、所定の箇所を背景として移動する各物体に対応し、当該物体の移動過程を所定のタイミングを基準として表す映像の一例である。なお、各部分映像Vpを映像Vから抽出する際に検出するイベントは、上述したドアイベントに限らず、各物体の移動する過程に共通して含まれるイベントであればよく、例えば、各物体が所定の箇所を通過するイベントを部分映像Vpの抽出の契機としてもよい。   Each of the partial videos Vp including the partial videos Vp1 and Vpk described above is an image representing a process in which an object entering from the automatic door Dr moves with the shooting range VW as a background on the basis of the timing at which the door event occurs. It is. That is, each partial video Vp is an example of a video that corresponds to each object that moves with a predetermined location as a background, and that represents the movement process of the object with a predetermined timing as a reference. The event detected when each partial video Vp is extracted from the video V is not limited to the door event described above, and may be an event that is included in the process of moving each object. An event passing through a predetermined location may be used as an opportunity for extracting the partial video Vp.

図3は、部分映像Vpの例を示している。なお、図3に示した要素のうち、図2に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 3 shows an example of the partial video Vp. Note that among the elements shown in FIG. 3, the same elements as those shown in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.

図3において、符号G1_mは、部分映像Vp1に含まれる画像のうち、画像番号mの画像を示している。同様に、符号Gk_mは、部分映像Vpkに含まれる画像のうち、画像番号mの画像を示している。これらの画像G1_m,Gk_mのように、部分映像Vpにおいて同一の画像番号で示される画像は、いずれも各部分映像Vpの先頭から同じ時間の経過後に撮影された画像である。   In FIG. 3, reference symbol G <b> 1 </ b> _m indicates an image with an image number m among images included in the partial video Vp <b> 1. Similarly, a symbol Gk_m indicates an image with an image number m among images included in the partial video Vpk. Like these images G1_m and Gk_m, the images indicated by the same image number in the partial video Vp are all images taken after the same time has elapsed from the beginning of each partial video Vp.

図3に示した部分映像Vpkは、k番目のドアイベントの際に自動ドアDrから室内に進入してきた物体として、人物Pkが撮影されている場合を示している。   The partial video Vpk shown in FIG. 3 shows a case where a person Pk is photographed as an object that has entered the room from the automatic door Dr at the time of the k-th door event.

また、図3において、符号Vsは、各部分映像Vpを後述するようにして重畳することで得られる要約映像の例を示しており、符号Gs_mは、要約映像Vsに含まれる画像のうち、画像番号mの画像を示している。なお、図3では、画像G1_m,Gk_m,Gs_m以外は、画像の図示を省略している。   In FIG. 3, reference sign Vs indicates an example of a summary video obtained by superimposing the partial videos Vp as described later, and reference sign Gs_m represents an image among images included in the summary video Vs. The image of number m is shown. In FIG. 3, illustration of images other than the images G1_m, Gk_m, and Gs_m is omitted.

図3に示した要約映像Vsに含まれる画像Gs_mは、部分映像Vp1,Vpkにそれぞれ含まれる画像番号mの画像から抽出された人物P1,Pkの部分を、背景を表す画像にそれぞれ重ね合わせた例である。このように、各映像Vp中の各画像に含まれる移動中の物体の部分を、それぞれの画像における位置を維持しながら重ね合わせた画像を生成し、これらの画像から要約映像Vsすることができる。このようにして生成された要約映像Vsに含まれる各画像は、各部分映像Vpの同じ画像番号の画像からそれぞれ抽出された物体の部分を、抽出元の画像における位置に対応して含んでいる。したがって、このような要約映像Vsによれば、例えば、自動ドアDrが開いたタイミングを基準として、人物P1,Pkを含む各物体が移動する様子を一括して表現することができる。   The image Gs_m included in the summary video Vs shown in FIG. 3 is obtained by superimposing the portions of the persons P1 and Pk extracted from the images of the image number m included in the partial videos Vp1 and Vpk, respectively, on the image representing the background. It is an example. In this way, it is possible to generate an image in which the moving object parts included in each image in each video Vp are superimposed while maintaining the position in each image, and the summary video Vs can be generated from these images. . Each image included in the summary video Vs generated in this way includes a part of an object extracted from an image having the same image number in each partial video Vp, corresponding to the position in the extraction source image. . Therefore, according to such summary video Vs, for example, it is possible to collectively represent the movement of each object including the persons P1 and Pk on the basis of the opening timing of the automatic door Dr.

つまり、異なるタイミングで撮影された各部分映像Vpについて、上述した重ね合わせを含む編集処理を施すことにより、人物P1,Pkを含む各物体が移動する様子を一覧可能な要約映像Vsを生成することができる。なお、上述した重ね合わせを含む編集処理で生成される要約映像Vsの長さは、図2に示したように、各部分映像Vpの長さと同等の時間、即ち時間τである。   That is, by performing the above-described editing processing including superposition on each partial video Vp photographed at different timings, a summary video Vs that can list how each object including the persons P1 and Pk moves is generated. Can do. It should be noted that the length of the summary video Vs generated by the above-described editing process including superposition is a time equivalent to the length of each partial video Vp, that is, time τ, as shown in FIG.

本件開示の映像編集装置10は、上述した重ね合わせを含む編集処理による要約映像Vsの生成を実現するために、図1に示すように、特定部11と、物体情報保持部12と、検出部13と、算出部14と、縮小部15と、調整部16とを含んでいる。なお、要約映像記憶装置4は、予め、図2(B)に示した各部分映像Vpに含まれる画像と同数のn枚の背景を表す画像を保持していてもよい。また、映像編集装置10は、図2(B)に示した各部分映像Vpの画像それぞれから抽出した物体を表す画像に、図7および図8を用いて説明する編集処理を施した上で、要約映像記憶装置4に保持された各画像に重畳することで要約映像Vsを生成してもよい。以下の説明では、要約映像Vsに含まれる各画像を生成するために要約映像記憶装置4に予め用意されたn枚の背景を表す画像を、要約映像Vsの各画像と称する場合もある。   As shown in FIG. 1, the video editing apparatus 10 of the present disclosure, in order to realize the generation of the summary video Vs by the editing process including superposition described above, includes a specifying unit 11, an object information holding unit 12, and a detection unit. 13, a calculation unit 14, a reduction unit 15, and an adjustment unit 16. The summary video storage device 4 may hold in advance n images representing the same number of backgrounds as the images included in each partial video Vp shown in FIG. In addition, the video editing apparatus 10 performs an editing process described with reference to FIGS. 7 and 8 on an image representing an object extracted from each of the images of the partial videos Vp shown in FIG. The summary video Vs may be generated by superimposing the images on the summary video storage device 4. In the following description, an image representing n backgrounds prepared in advance in the summary video storage device 4 for generating each image included in the summary video Vs may be referred to as each image of the summary video Vs.

図1に示した特定部11は、上述した動き映像抽出装置3から、所定の箇所を背景とした各物体の移動過程を表す映像として上述した部分映像Vpを受け、各部分映像Vpに含まれる各画像において、各物体の像を含む物体領域を特定する。ここで、各部分映像Vpは、時間τの間に撮影されたn枚の画像をそれぞれ含んでおり、これらの各画像は、要約映像記憶装置4に保持されたn枚の背景を表す画像にそれぞれ対応付けられている。特定部11は、各部分映像Vpに含まれるn枚の画像それぞれにおいて、例えば、図4に示すように、当該画像に含まれる物体の像を囲む矩形の領域を物体領域として特定する。   The identification unit 11 illustrated in FIG. 1 receives the partial video Vp described above as a video representing the movement process of each object with a predetermined location as a background from the motion video extraction device 3 described above, and is included in each partial video Vp. In each image, an object region including an image of each object is specified. Here, each partial video Vp includes n images taken during time τ, and each of these images is an image representing n backgrounds held in the summary video storage device 4. Each is associated. For example, as illustrated in FIG. 4, the specifying unit 11 specifies a rectangular region surrounding an object image included in the image as an object region in each of n images included in each partial video Vp.

図4は、物体領域の例を示している。なお、図4に示した各要素のうち、図2、図3に示した要素と同等のものについては、同一の符号を付して示し、その説明を省略する。   FIG. 4 shows an example of the object region. 4 that are the same as those shown in FIGS. 2 and 3 are given the same reference numerals, and descriptions thereof are omitted.

図4において、符号G1_1,G1_2,…,G1_m,…,G1_n−1,G1_nは、それぞれ映像Vp1に含まれる画像番号1,2,…,m,…,n−1,nの画像を示している。なお、図4においては、画像G1_m以外の画像の図示を省略している。また、符号Rm1は、画像G1_mに含まれる人物P1の像を囲む矩形の領域であり、図1に示した特定部11によって特定された物体領域の一例である。   4, G1_1, G1_2,..., G1_m,..., G1_n−1, G1_n indicate images of image numbers 1, 2,..., M, ..., n−1, n included in the video Vp1, respectively. Yes. In FIG. 4, illustration of images other than the image G1_m is omitted. Reference sign Rm1 is a rectangular area surrounding the image of the person P1 included in the image G1_m, and is an example of the object area specified by the specifying unit 11 shown in FIG.

また、図4に示した座標軸x、yは、上述した画像G1_mの左上の頂点を原点とする座標系を示している。このような座標系x、yを用いて、上述した物体領域R1mの左上の頂点Q1_mの位置を示すとともに、物体領域R1mの幅w1mおよび高さh1mを示すことで、特定部11は、物体領域R1mの位置とサイズを特定してもよい。同様にして、特定部11は、映像Vp1に含まれる各画像において、それぞれの画像に含まれる人物P1の像を囲む矩形の領域を当該画像における物体領域として特定する。なお、図4の例では、画像G1_m以外の各画像において特定部11が特定した物体領域の図示を省略している。   Also, coordinate axes x and y shown in FIG. 4 indicate a coordinate system having the origin at the upper left vertex of the above-described image G1_m. By using such coordinate systems x and y to indicate the position of the upper left vertex Q1_m of the object region R1m and the width w1m and height h1m of the object region R1m, the specifying unit 11 can The position and size of R1m may be specified. Similarly, the specifying unit 11 specifies a rectangular area surrounding the image of the person P1 included in each image as an object area in each image included in the video Vp1. In the example of FIG. 4, the illustration of the object region specified by the specifying unit 11 in each image other than the image G1_m is omitted.

更に、特定部11は、上述したVp1以外の各部分映像Vpに含まれる各画像において、同様にして、それぞれの画像に含まれる物体の像を囲む矩形の領域を当該画像における物体領域として特定する。以下の説明において、特定部11により、各部分映像Vpに含まれる各画像において特定された物体領域を総称する際には、単に物体領域と称する。   Further, the specifying unit 11 similarly specifies a rectangular region surrounding the image of the object included in each image as the object region in the image in each image included in each partial video Vp other than the above-described Vp1. . In the following description, the object area specified in each image included in each partial video Vp by the specifying unit 11 is simply referred to as an object area.

また、特定部11は、各部分映像Vpに含まれる各画像において特定した物体領域の位置およびサイズを示す情報を含む物体情報を、図5に示すような物体情報保持部12を介して検出部13に渡してもよい。   Further, the specifying unit 11 detects object information including information indicating the position and size of the object region specified in each image included in each partial video Vp via the object information holding unit 12 as illustrated in FIG. 13 may be passed.

図5は、物体情報保持部12の例を示している。図5に示した物体情報保持部12は、各物体に対応する部分映像Vpそれぞれにおいて同一の画像番号で示される画像ごとに、当該画像において特定された物体領域の位置およびサイズを含む物体情報を保持している。   FIG. 5 shows an example of the object information holding unit 12. The object information holding unit 12 illustrated in FIG. 5 stores object information including the position and size of the object region specified in the image for each image indicated by the same image number in each of the partial videos Vp corresponding to the objects. keeping.

図5に示した物体情報保持部12において、物体ID(ID:IDentifier)は、図1に示した動き映像抽出装置3によって抽出された各部分映像Vpにより移動過程が示されている物体を識別する情報であり、個々の部分映像Vpを識別する情報に相当する。   In the object information holding unit 12 shown in FIG. 5, the object ID (ID: IDentifier) identifies the object whose movement process is indicated by each partial video Vp extracted by the motion video extraction device 3 shown in FIG. And corresponds to information for identifying each partial video Vp.

図5において、例えば、画像番号1と人物P1を示す物体ID「P1」との組み合わせに対応して示した座標(X11,Y11)は、部分映像Vp1の画像番号1の画像において特定された物体領域の左上の頂点の位置を示している。また、上述した組み合わせに対応するサイズを示す情報(w11,h11)は、上述した物体領域の幅および高さを示している。同様に、図5において、画像番号1と人物Pkを示す物体ID「Pk」との組み合わせに対応して示した座標(Xk1,Yk1)は、部分映像Vpkの画像番号1の画像における物体領域の位置の左上の頂点の位置を示している。また、上述した組み合わせに対応するサイズを示す情報(wk1,hk1)は、上述した物体領域の幅および高さを示している。   In FIG. 5, for example, coordinates (X11, Y11) corresponding to the combination of the image number 1 and the object ID “P1” indicating the person P1 are the objects specified in the image of the image number 1 of the partial video Vp1. The position of the top left vertex of the area is shown. The information (w11, h11) indicating the size corresponding to the combination described above indicates the width and height of the object region described above. Similarly, in FIG. 5, coordinates (Xk1, Yk1) corresponding to the combination of the image number 1 and the object ID “Pk” indicating the person Pk are the object regions in the image of the image number 1 of the partial video Vpk. The position of the top left vertex of the position is shown. The information (wk1, hk1) indicating the size corresponding to the combination described above indicates the width and height of the object region described above.

また、図5において、例えば、画像番号mと上述した物体ID「P1」との組み合わせに対応して示した座標(X1m,Y1m)は、図4に示した部分映像Vp1の画像番号mの画像G1_mでの物体領域R1mの左上の頂点の位置を示している。また、上述した組み合わせに対応するサイズを示す情報(w1m,h1m)は、上述した物体領域R1mの幅および高さを示している。同様に、図5において、画像番号mと上述した物体ID「Pk」との組み合わせに対応して示した座標(Xkm,Ykm)は、部分映像Vpkの画像番号mの画像における物体領域の左上の頂点の位置を示している。また、上述した組み合わせに対応するサイズを示す情報(wkm,hkm)は、上述した物体領域の幅および高さを示している。   In FIG. 5, for example, the coordinates (X1m, Y1m) corresponding to the combination of the image number m and the object ID “P1” described above are the images of the image number m of the partial video Vp1 shown in FIG. The position of the top left vertex of the object region R1m at G1_m is shown. The information (w1m, h1m) indicating the size corresponding to the combination described above indicates the width and height of the object region R1m described above. Similarly, in FIG. 5, the coordinates (Xkm, Ykm) corresponding to the combination of the image number m and the object ID “Pk” described above are the upper left of the object region in the image of the image number m of the partial video Vpk. The position of the vertex is shown. The information (wkm, hkm) indicating the size corresponding to the combination described above indicates the width and height of the object region described above.

また、物体情報保持部12は、各部分映像Vpの各画像において特定した物体領域の画像データを、画像番号と物体IDとの組み合わせに対応して保持しておき、例えば、後述するように、図1に示した縮小部15による縮小処理に供してもよい。なお、物体情報保持部12は、各物体領域の画像データとして、例えば、個々の物体領域に含まれる物体の像以外の背景を表す部分を透明な画像として表す情報を保持してもよい。   Further, the object information holding unit 12 holds the image data of the object region specified in each image of each partial video Vp in correspondence with the combination of the image number and the object ID. For example, as described later, You may use for the reduction process by the reduction part 15 shown in FIG. Note that the object information holding unit 12 may hold, as the image data of each object region, for example, information that represents a portion representing the background other than the image of the object included in each object region as a transparent image.

図1に示した検出部13は、上述した物体情報保持部12に各画像番号に対応して保持された物体情報に基づいて、要約映像Vsの対応する画像番号で示される画像に重ね合わる際に、重複する部分を持つ複数の物体領域を検出する。   The detection unit 13 shown in FIG. 1 superimposes the image indicated by the corresponding image number of the summary video Vs based on the object information held corresponding to each image number in the object information holding unit 12 described above. In addition, a plurality of object regions having overlapping portions are detected.

検出部13は、例えば、物体情報保持部12に各画像番号に対応して保持された複数の物体情報から選択した2つの物体情報でそれぞれ示される物体領域が重複する部分を持つか否かを次のようにして判定してもよい。   For example, the detection unit 13 determines whether or not the object information indicated by the two pieces of object information selected from the plurality of pieces of object information held in correspondence with each image number in the object information holding unit 12 has overlapping portions. The determination may be made as follows.

例えば、図6に示す2つの物体領域Ra、Rbが重複する部分を持つか否かを判定する場合を考える。   For example, consider a case where it is determined whether or not two object regions Ra and Rb shown in FIG. 6 have overlapping portions.

図6は、2つの物体領域Ra、Rbの相対位置の例を示している。図6において、符号Qaは、物体領域Raの位置を示す左上の頂点を示し、符号Qa’は、頂点Qaの対角頂点を示している。また、符号Qbは、物体領域Rbの位置を示す左上の頂点を示し、符号Qb’は、頂点Qbの対角頂点を示している。また、座標軸x,yは、例えば、画像の左上の隅を原点とする座標系を示している。   FIG. 6 shows an example of the relative positions of the two object regions Ra and Rb. In FIG. 6, the symbol Qa indicates the upper left vertex indicating the position of the object region Ra, and the symbol Qa ′ indicates the diagonal vertex of the vertex Qa. The symbol Qb indicates the upper left vertex indicating the position of the object region Rb, and the symbol Qb ′ indicates the diagonal vertex of the vertex Qb. The coordinate axes x and y indicate, for example, a coordinate system having the origin at the upper left corner of the image.

図6の例では、物体領域Raの頂点Qa及び頂点Qa’の位置は、それぞれ座標(xa,ya)及び座標(xa+wa,ya+ha)である。同様に、物体領域Rbの頂点Qb及び頂点Qb’の位置は、それぞれ座標(xb,yb)及び座標(xb+wb,yb+hb)である。   In the example of FIG. 6, the positions of the vertex Qa and the vertex Qa ′ of the object region Ra are coordinates (xa, ya) and coordinates (xa + wa, ya + ha), respectively. Similarly, the positions of the vertex Qb and the vertex Qb ′ of the object region Rb are coordinates (xb, yb) and coordinates (xb + wb, yb + hb), respectively.

したがって、図6に示したような2つの物体領域Ra,Rbが重複する部分を持つ条件は、式(1)のように表すことができる。
xa<xbのときxb+wb>xa+wa
xa>xbのときxb+wb<xa+wa
かつ
ya<ybのときyb+hb>ya+ha
ya>ybのときyb+hb<ya+ha ・・・(1)
つまり、図1に示した検出部13は、各画像番号に対応して物体情報保持部12に保持された複数の物体情報から選択した物体情報のペアの中から、上述した式(1)を満たすペアを見つけることにより、重複する部分を持つ物体領域のペアを検出することができる。
Therefore, the condition having a portion where the two object regions Ra and Rb overlap as shown in FIG. 6 can be expressed as Equation (1).
When xa <xb, xb + wb> xa + wa
When xa> xb, xb + wb <xa + wa
And when ya <yb, yb + hb> ya + ha
When ya> yb, yb + hb <ya + ha (1)
That is, the detection unit 13 illustrated in FIG. 1 calculates the above equation (1) from the pair of object information selected from the plurality of object information held in the object information holding unit 12 corresponding to each image number. By finding a satisfying pair, a pair of object regions having overlapping portions can be detected.

算出部14は、検出部13で検出された物体領域のペアに対応する2つの物体情報を受け取り、これらの物体情報に基づいて、重複する部分の面積を最小化するように、2つの物体領域をそれぞれの頂点の一つを基準点として縮小する際の縮小率を求める。   The calculation unit 14 receives two pieces of object information corresponding to the pair of object regions detected by the detection unit 13, and based on these pieces of object information, the two object regions are minimized so as to minimize the area of the overlapping portion. The reduction ratio when reducing one of the vertices as a reference point is obtained.

図1に示した算出部14は、検出部13から受け取った2つの物体情報に基づいて、各物体領域の頂点の中から重複している部分から最も離れている頂点を特定し、特定した頂点を縮小の基準点として選択してもよい。また、算出部14は、例えば、図7に示すように、2つの物体領域それぞれについて特定した縮小の基準点に向かう方向への縮小により、2つの物体領域が重複する部分がなくなるような縮小率を算出してもよい。   Based on the two pieces of object information received from the detection unit 13, the calculation unit 14 illustrated in FIG. 1 identifies the vertex that is farthest from the overlapping portion among the vertices of each object region, and the identified vertex May be selected as a reference point for reduction. In addition, for example, as illustrated in FIG. 7, the calculation unit 14 reduces the reduction rate so that there is no overlap between the two object regions due to the reduction in the direction toward the reduction reference point specified for each of the two object regions. May be calculated.

図7は、物体領域の縮小例を示している。図7において、符号Ra,Rbは、それぞれ物体領域を示しており、符号Rdにより網掛けで示した部分は、2つの物体領域Ra,Rbが重複している部分を示している。また、符号Uaは、物体領域Raについての縮小の基準点を示し、符号Ubは、物体領域Rbについての縮小の基準点を示す。   FIG. 7 shows an example of reduction of the object area. In FIG. 7, symbols Ra and Rb indicate object regions, respectively, and a portion shaded by the symbol Rd indicates a portion where the two object regions Ra and Rb overlap. Further, the symbol Ua indicates a reduction reference point for the object region Ra, and the symbol Ub indicates a reduction reference point for the object region Rb.

図7に示した例では、物体領域Raの縮小の基準点Uaは、物体領域Raを示す矩形の左上の頂点であり、図6に示した頂点Qaに相当する。一方、物体領域Rbの縮小の基準点Ubは、物体領域Rbを示す矩形の右下の頂点であり、図6に示した頂点Qb’に相当する。また、図7において、座標軸x、yは、例えば、画像の左上の隅を原点とする座標系を示している。   In the example shown in FIG. 7, the reference point Ua for reducing the object region Ra is the upper left vertex of the rectangle indicating the object region Ra, and corresponds to the vertex Qa shown in FIG. On the other hand, the reference point Ub for reducing the object region Rb is the lower right vertex of the rectangle indicating the object region Rb, and corresponds to the vertex Qb 'shown in FIG. In FIG. 7, coordinate axes x and y indicate, for example, a coordinate system with the upper left corner of the image as the origin.

図7において、符号Rasで示した太い破線の領域は、物体領域Raについて特定された縮小の基準点Uaに向かって、縮小率αaで物体領域Raを縮小することよって得られる縮小後の物体領域を示している。また、符号Rbsで示した太い実線の領域は、物体領域Rbについて特定された縮小の基準点Ubに向かって、縮小率αbで物体領域Rbを縮小することよって得られる縮小後の物体領域を示している。   In FIG. 7, the thick broken line area indicated by the symbol Ras is a reduced object area Ra obtained by reducing the object area Ra with the reduction ratio αa toward the reduction reference point Ua specified for the object area Ra. Is shown. A thick solid line area indicated by reference sign Rbs indicates a reduced object area obtained by reducing the object area Rb at a reduction ratio αb toward the reduction reference point Ub specified for the object area Rb. ing.

図7に示した縮小後の物体領域Ras,Rbsが重複する部分を持つ場合に、重複している部分の面積は、上述した縮小率αaおよび縮小率αbを用いて、例えば、式(2)のように表すことができる。式(2)において、符号Sabは、縮小後の物体領域Ras,Rbsが重複している部分の面積を示している。また、式(2)において、符号Xa,Yaは、物体領域Raについて特定された縮小の基準点UaのX,Y座標をそれぞれ示し、符号Xb,Ybは、物体領域Rbについて特定された縮小の基準点UbのX,Y座標をそれぞれ示している。また、式(2)において、符号waは、縮小前の物体領域Raの幅を示し、符号haは、縮小前の物体領域Raの高さを示している。同様に、符号wbは、縮小前の物体領域Rbの幅を示し、符号hbは、縮小前の物体領域Rbの高さを示している。なお、縮小後の物体領域Ras,Rbsが重複する部分を持つ条件は、上述した縮小の基準点Ua,Ubの位置が、式(2)に含まれる2つの因数の値をともに正とする範囲の座標値で示されることである。
Sab=((αa・wa+αb・wb)−|Xa−Xb|)((αa・ha+αb・hb)−|Ya−Yb|) ・・・(2)
つまり、図1に示した算出部14は、重複する部分が検出された物体領域のペアを図7に示した物体領域Ra,Rbとし、それぞれに対応する物体情報に基づいて、上述した式(2)で表される面積Sabを最小化する縮小率αa,αbを算出すればよい。
When the object regions Ras and Rbs after reduction shown in FIG. 7 have overlapping portions, the area of the overlapping portions can be calculated by using, for example, the equation (2) using the reduction rate αa and the reduction rate αb described above. It can be expressed as In the expression (2), a symbol Sab indicates an area of a portion where the object regions Ras and Rbs after the reduction overlap. In Expression (2), symbols Xa and Ya indicate the X and Y coordinates of the reduction reference point Ua specified for the object region Ra, respectively, and symbols Xb and Yb indicate the reduction specified for the object region Rb. The X and Y coordinates of the reference point Ub are shown respectively. In Expression (2), the symbol wa indicates the width of the object region Ra before reduction, and the symbol ha indicates the height of the object region Ra before reduction. Similarly, the symbol wb indicates the width of the object region Rb before reduction, and the symbol hb indicates the height of the object region Rb before reduction. Note that the condition where the reduced object regions Ras and Rbs have overlapping portions is a range in which the positions of the above-described reduction reference points Ua and Ub both have positive values of the two factors included in Expression (2). It is indicated by the coordinate value of.
Sab = ((αa · wa + αb · wb) − | Xa−Xb |) ((αa · ha + αb · hb) − | Ya−Yb |) (2)
That is, the calculation unit 14 illustrated in FIG. 1 sets the object region pair in which the overlapping portion is detected as the object regions Ra and Rb illustrated in FIG. 7, and the above-described formula ( The reduction ratios αa and αb that minimize the area Sab represented by 2) may be calculated.

なお、式(2)から縮小率αa,αbを算出する際に、算出部14は、例えば、勾配法などを利用した繰り返し演算などの手法を利用してもよい。また、算出部14は、式(2)に代えて、2つの物体領域Ra,Rbに共通の縮小率αを設定することで単純化した式(3)を解析的に解くことにより、例えば、面積Sabを数値0とするような縮小率αを求めてもよい。
Sab=(α(wa+wb)−|Xa−Xb|)(α(ha+hb)−|Ya−Yb|) ・・・(3)
ここで、物体領域Ra,Rbを図7に示した基準点Ua,Ubを基準として縮小することで重複を解消する場合は、例えば、各物体領域Ra,Rbの重心Ca,Cbを基準として等方的に縮小する場合に比べて、縮小後の各物体領域の大きさを維持することができる。つまり、算出部14が、各物体領域の頂点の中で重複する部分から最も離れた頂点を縮小の基準点として選択することで、縮小後の各物体領域の大きさを維持しながら物体領域の重複を解消することが可能な縮小率を求めることができる。
When calculating the reduction ratios αa and αb from Expression (2), the calculation unit 14 may use a technique such as an iterative calculation using a gradient method, for example. Further, the calculation unit 14 analytically solves the expression (3) simplified by setting a common reduction ratio α for the two object regions Ra and Rb instead of the expression (2), for example, You may obtain | require the reduction rate (alpha) which sets the area Sab to the numerical value 0. FIG.
Sab = (α (wa + wb) − | Xa−Xb |) (α (ha + hb) − | Ya−Yb |) (3)
Here, when the overlap is eliminated by reducing the object areas Ra and Rb with reference to the reference points Ua and Ub shown in FIG. 7, for example, the centers of gravity Ca and Cb of the object areas Ra and Rb are used as the reference. The size of each object region after the reduction can be maintained as compared with the case where the reduction is squarely performed. That is, the calculation unit 14 selects the vertex farthest from the overlapping portion among the vertices of each object region as the reference point for reduction, thereby maintaining the size of each object region after reduction. A reduction ratio that can eliminate the overlap can be obtained.

このようにして得られた各物体領域に対応して算出された縮小率に基づいて、図1に示した縮小部15は、物体情報保持部12に個々の物体領域に対応して保持された画像データに対する縮小処理を実行することで、縮小後の物体領域の画像を生成する。   Based on the reduction ratio calculated corresponding to each object region obtained in this way, the reduction unit 15 shown in FIG. 1 is held in the object information holding unit 12 corresponding to each object region. By executing a reduction process on the image data, an image of the reduced object region is generated.

ところで、2つの物体領域Ra,Rbを互いに最も離れた頂点を縮小の基準点として縮小した後の物体領域Ras,Rbsの重心Cas,Cbsの位置は、図7に示したように、縮小前の物体領域Ra,Rbの重心Ca,Cbとは異なっている。   By the way, the positions of the centroids Cas and Cbs of the object regions Ras and Rbs after the two object regions Ra and Rb are reduced using the most distant vertex as a reference point for reduction, as shown in FIG. It is different from the centers of gravity Ca and Cb of the object areas Ra and Rb.

図7の例では、縮小後の物体領域Rasの重心Casは、縮小前の物体領域Raの重心Caに比べて、他方の物体領域Rbから遠ざかる方向に移動している。同様に、縮小後の物体領域Rbsの重心Cbsは、縮小前の物体領域Rbの重心Cbに比べて、他方の物体領域Raから遠ざかる方向に移動している。   In the example of FIG. 7, the center of gravity Cas of the object region Ra after reduction is moved in a direction away from the other object region Rb as compared to the center of gravity Ca of the object region Ra before reduction. Similarly, the center of gravity Cbs of the object region Rbs after reduction has moved in a direction away from the other object region Ra as compared with the center of gravity Cb of the object region Rb before reduction.

このため、図1に示した縮小部15で得られた縮小後の物体領域Ras,Rbsの画像を、上述した縮小の基準点Ua,Ubの位置に基づいて要約映像Vsの対応する画像に重ね合わせると、部分映像Vpにおける元の位置からずれた位置に物体を表示させてしまう。   Therefore, the image of the reduced object regions Ras and Rbs obtained by the reduction unit 15 shown in FIG. 1 is superimposed on the corresponding image of the summary video Vs based on the positions of the above-described reduction reference points Ua and Ub. When combined, the object is displayed at a position shifted from the original position in the partial video Vp.

図1に示した映像編集装置10は、このようなズレを低減するために、調整部16を含んでいる。   The video editing apparatus 10 shown in FIG. 1 includes an adjustment unit 16 in order to reduce such a shift.

調整部16は、縮小部15で得られた縮小後の各物体領域Ras,Rbsの画像を要約映像Vsの画像に重ね合わせる位置を、図8に示すように、縮小前の当該物体領域Ra,Rbに対応する範囲において調整する。調整部16がこのような調整を行うことで、縮小前後での当該物体領域の重心の移動距離を最小化することができる。   As shown in FIG. 8, the adjusting unit 16 positions the positions of the image of the reduced object regions Ras and Rbs obtained by the reducing unit 15 on the summary video Vs, as shown in FIG. Adjustment is made in a range corresponding to Rb. When the adjustment unit 16 performs such adjustment, the moving distance of the center of gravity of the object region before and after the reduction can be minimized.

図8は、調整部16により縮小後の物体領域の位置を調整する例を示している。なお、図8に示した要素のうち、図7に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 8 shows an example in which the position of the reduced object region is adjusted by the adjustment unit 16. Note that among the elements shown in FIG. 8, elements equivalent to those shown in FIG. 7 are denoted by the same reference numerals and description thereof is omitted.

図8(A)は、縮小部15によって縮小後の2つの物体領域Ras,Rbsが、それぞれの縮小の基準点Ua,Ubの対角の頂点を含む辺のうちy軸に平行な辺で接する場合に、調整部16が、これらの物体領域Ras,Rbsの位置を調整する例を示している。   In FIG. 8A, the two object regions Ras and Rbs that have been reduced by the reduction unit 15 touch each other at the side parallel to the y-axis among the sides including the diagonal vertices of the respective reduction reference points Ua and Ub. In this case, the adjustment unit 16 adjusts the positions of the object regions Ras and Rbs.

図8(A)において、符号Racで示した網掛けの領域は、縮小後の物体領域Ras,Rbsが重複する部分の面積を0に維持しながら縮小後の物体領域Rasを移動させることができる可動範囲を示している。同様に、符号Rbcで示した網掛けの領域は、縮小後の物体領域Ras,Rbsが重複する部分の面積を0に維持しながら縮小後の物体領域Rbsを移動させることができる可動範囲を示している。   In FIG. 8A, the shaded area indicated by reference numeral Rac can move the reduced object area Ras while maintaining the area of the portion where the reduced object areas Ras and Rbs overlap with zero. The movable range is shown. Similarly, the shaded area indicated by the symbol Rbc indicates a movable range in which the reduced object area Rbs can be moved while maintaining the area of the portion where the reduced object areas Ras and Rbs overlap with zero. ing.

図8(A)に示した可動範囲Racは、縮小前の物体領域Raを上述したy軸に平行な辺を含む直線L1を境界として分割して得られる2つの領域のうち、縮小の基準点Uaに近い側の領域の一部に相当する。同様に、可動範囲Rbcは、縮小前の物体領域Rbを上述したy軸に平行な辺を含む直線L1を境界として分割して得られる2つの領域のうち、縮小の基準点Ubに近い側の領域の一部に相当する。   The movable range Rac shown in FIG. 8A is a reference point for reduction among the two regions obtained by dividing the object region Ra before reduction using the straight line L1 including the side parallel to the y axis as described above. This corresponds to a part of the region closer to Ua. Similarly, the movable range Rbc is obtained by dividing the unreduced object region Rb with the straight line L1 including the side parallel to the y-axis described above as a boundary, on the side closer to the reduction reference point Ub. It corresponds to a part of the area.

また、図8(B)は、縮小部15によって縮小後の2つの物体領域Ras,Rbsが、それぞれの縮小の基準点Ua,Ubの対角の頂点を含む辺のうちx軸に平行な辺で接する場合に、調整部16が、これらの物体領域Ras,Rbsの位置を調整する例を示している。   8B shows that two object regions Ras and Rbs that have been reduced by the reduction unit 15 are sides that are parallel to the x-axis among the sides that include the diagonal vertices of the respective reference points Ua and Ub for reduction. In this example, the adjustment unit 16 adjusts the positions of the object regions Ras and Rbs when they are in contact with each other.

図8(B)において、符号Racで示した網掛けの領域は、縮小後の物体領域Ras,Rbsが重複する部分の面積を0に維持しながら縮小後の物体領域Rasを移動させることができる可動範囲を示している。同様に、符号Rbcで示した網掛けの領域は、縮小後の物体領域Ras,Rbsが重複する部分の面積を0に維持しながら縮小後の物体領域Rbsを移動させることができる可動範囲を示している。   In FIG. 8B, the shaded area indicated by reference numeral Rac can move the reduced object area Ras while maintaining the area of the portion where the reduced object areas Ras and Rbs overlap with zero. The movable range is shown. Similarly, the shaded area indicated by the symbol Rbc indicates a movable range in which the reduced object area Rbs can be moved while maintaining the area of the portion where the reduced object areas Ras and Rbs overlap with zero. ing.

図8(B)に示した可動範囲Racは、縮小前の物体領域Raを上述したx軸に平行な辺を含む直線L2を境界として分割して得られる2つの領域のうち、縮小の基準点Uaに近い側の領域の一部に相当する。同様に、可動範囲Rbcは、縮小前の物体領域Rbを上述したx軸に平行な辺を含む直線L2を境界として分割して得られる2つの領域のうち、縮小の基準点Ubに近い側の領域の一部に相当する。   The movable range Rac shown in FIG. 8B is a reference point for reduction among the two regions obtained by dividing the object region Ra before reduction using the straight line L2 including the side parallel to the x axis as described above. This corresponds to a part of the region closer to Ua. Similarly, the movable range Rbc is obtained by dividing the object region Rb before reduction with the straight line L2 including the side parallel to the x-axis described above as a boundary, on the side close to the reference point Ub for reduction. It corresponds to a part of the area.

また、図8(C)は、縮小部15によって縮小後の2つの物体領域Ras,Rbsが、それぞれの縮小の基準点Ua,Ubの対角の頂点において接する場合に、調整部16が、これらの物体領域Ras,Rbsの位置を調整する例を示している。   FIG. 8C shows that when the two object regions Ras and Rbs after reduction by the reduction unit 15 touch each other at the diagonal vertices of the respective reduction reference points Ua and Ub, the adjustment unit 16 In this example, the positions of the object regions Ras and Rbs are adjusted.

図8(C)において、符号Racで示した網掛けの領域は、縮小後の物体領域Ras,Rbsが重複する部分の面積を0に維持しながら縮小後の物体領域Rasを移動させることができる可動範囲を示している。同様に、符号Rbcで示した網掛けの領域は、縮小後の物体領域Ras,Rbsが重複する部分の面積を0に維持しながら縮小後の物体領域Rbsを移動させることができる可動範囲を示している。   In FIG. 8C, the shaded area indicated by reference numeral Rac can move the reduced object area Ras while maintaining the area of the portion where the reduced object areas Ras and Rbs overlap with zero. The movable range is shown. Similarly, the shaded area indicated by the symbol Rbc indicates a movable range in which the reduced object area Rbs can be moved while maintaining the area of the portion where the reduced object areas Ras and Rbs overlap with zero. ing.

図8(C)に示した可動範囲Racの一方は、縮小後の物体領域Ras,Rbsの接点を通るy軸に平行な直線L3を境界として縮小前の物体領域Raを分割して得られる2つの領域のうち、縮小の基準点Uaに近い側の領域の一部に相当する。また、可動範囲Racの他方は、上述した接点を通るx軸に平行な直線L4を境界として縮小前の物体領域Raを分割して得られる2つの領域のうち、縮小の基準点Uaに近い側の領域の一部に相当する。同様に、可動範囲Rbcの一方は、上述した直線L3を境界として分割して得られる2つの領域のうち、縮小の基準点Ubに近い側の領域の一部に相当する。また、可動範囲Rbcの他方は、上述した直線L4を境界として分割して得られる2つの領域のうち、縮小の基準点Ubに近い側の領域の一部に相当する。   One of the movable ranges Rac shown in FIG. 8C is obtained by dividing the object region Ra before reduction using a straight line L3 parallel to the y axis passing through the contact point between the object regions Ras and Rbs after reduction as a boundary. Of the two regions, this corresponds to a part of the region closer to the reduction reference point Ua. The other of the movable ranges Rac is a side closer to the reduction reference point Ua, out of two areas obtained by dividing the object area Ra before reduction with the straight line L4 passing through the contact point and parallel to the x-axis as a boundary. Corresponds to a part of the area. Similarly, one of the movable ranges Rbc corresponds to a part of a region closer to the reduction reference point Ub among two regions obtained by dividing the above-described straight line L3 as a boundary. The other of the movable ranges Rbc corresponds to a part of a region closer to the reduction reference point Ub among the two regions obtained by dividing the above-described straight line L4 as a boundary.

図1に示した調整部16は、縮小後の2つの物体領域Ras,Rbsの相対位置に基づいて、図8(A)〜(C)に示した可動範囲のいずれかを選択し、選択した可動範囲において、縮小後の物体領域Ras、Rbsを要約映像Vsの画像に重畳する位置を調整する。   The adjustment unit 16 illustrated in FIG. 1 selects and selects one of the movable ranges illustrated in FIGS. 8A to 8C based on the relative positions of the two object regions Ras and Rbs after the reduction. In the movable range, the position where the reduced object regions Ras and Rbs are superimposed on the image of the summary video Vs is adjusted.

例えば、調整部16は、図8(A)に示した縮小後の物体領域Rasをy軸方向に移動させ、重心Casのy座標を重心Caのy座標と一致させるように調整した位置で、縮小後の物体領域Rasを要約映像Vsの対応する画像に重畳してもよい。これにより、縮小前の重心Casと重心Caとの距離を最小化するように、縮小後の物体領域Rasを要約映像Vsの対応する画像に重畳することができる。同様に、調整部16は、例えば、縮小後の物体領域Rbsを要約映像Vsの対応する画像に重畳する位置を、重心Cbsのy座標を重心Cbのy座標と一致するように調整することで、重心Cbsと重心Cbとの距離を最小化することができる。このような調整は、物体領域Rasと物体領域Rbsとの間で重複する部分の面積を0に維持したままで実行することができる。   For example, the adjustment unit 16 moves the reduced object region Ras illustrated in FIG. 8A in the y-axis direction, and adjusts the y coordinate of the centroid Cas so as to coincide with the y coordinate of the centroid Ca. The reduced object region Ras may be superimposed on the corresponding image of the summary video Vs. Thus, the reduced object region Ras can be superimposed on the corresponding image of the summary video Vs so as to minimize the distance between the center of gravity Cas and the center of gravity Ca before reduction. Similarly, the adjustment unit 16 adjusts, for example, the position where the reduced object region Rbs is superimposed on the corresponding image of the summary video Vs so that the y coordinate of the centroid Cbs matches the y coordinate of the centroid Cb. The distance between the center of gravity Cbs and the center of gravity Cb can be minimized. Such adjustment can be performed while maintaining the area of the overlapping portion between the object region Ras and the object region Rbs at zero.

つまり、調整部16が、縮小後の各物体領域Ras,Rbsについて上述した位置の調整を行うことにより、物体領域を互いに重複させずに、要約映像Vsの各画像での物体の位置と抽出元の部分映像Vpの各画像での位置とのズレを低減することができる。なお、調整部16は、要約映像Vsの対応する画像への重ね合わせが完了した物体領域に対応して、上述した調整後の位置を示す情報を用いて、物体情報保持部12内の対応する物体情報を更新してもよい。   That is, the adjustment unit 16 performs the above-described adjustment of the positions of the reduced object areas Ras and Rbs, so that the object positions in each image of the summary video Vs and the extraction source are not overlapped with each other. The deviation from the position of each partial video Vp in each image can be reduced. The adjustment unit 16 corresponds to the object region in which the summary video Vs has been superimposed on the corresponding image, and uses the information indicating the position after adjustment described above to correspond to the object region in the object information holding unit 12. Object information may be updated.

上述した調整部16を有する映像編集装置10によれば、例えば、図9に示すように、個別に撮影された2つの物体の移動経路が近接している場合にも、要約映像において、これらの物体を重複させずに、しかもそれぞれの移動経路を忠実に再現することができる。   According to the video editing apparatus 10 having the adjusting unit 16 described above, for example, as illustrated in FIG. 9, even when the movement paths of two individually photographed objects are close to each other, Each moving path can be faithfully reproduced without overlapping the objects.

図9は、要約映像Vsの各画像に重ね合わせられた物体領域の例を示している。なお、図9において、符号tは、要約映像Vsにおける時間経過を表す時間軸を示している。また、時間軸tにおいて、符号Ti,Tj,Tkは、それぞれ画像番号i、画像番号j、画像番号kの画像に対応するタイミングを示している。   FIG. 9 shows an example of an object region superimposed on each image of the summary video Vs. In FIG. 9, the symbol t indicates a time axis representing the passage of time in the summary video Vs. On the time axis t, symbols Ti, Tj, and Tk indicate timings corresponding to the images of image number i, image number j, and image number k, respectively.

図9において、符号Rai,Raj,Rakで示した細い破線の領域は、物体Aの移動過程を表す部分映像Vpに含まれる画像番号i、j、kで示される各画像から抽出された物体領域を示している。同様に、符号Rbi,Rbj,Rbkで示した細い実線の領域は、物体Bの移動過程を表す部分映像Vpに含まれる画像番号i、j、kで示される各画像から抽出された物体領域を示している。   In FIG. 9, thin broken line areas indicated by reference signs Rai, Raj, and Rak are object areas extracted from the images indicated by the image numbers i, j, and k included in the partial video Vp representing the movement process of the object A. Is shown. Similarly, the thin solid line areas indicated by reference characters Rbi, Rbj, and Rbk are object areas extracted from the images indicated by the image numbers i, j, and k included in the partial video Vp representing the movement process of the object B. Show.

図9の例は、上述したタイミングiからタイミングkまでの期間に含まれる各タイミングに対応する要約映像の画像に、物体Aに対応する物体領域と物体Bに対応する物体領域とが重複する部分を持って重畳される場合を示している。   In the example of FIG. 9, a part in which the object region corresponding to the object A and the object region corresponding to the object B overlap with the summary video image corresponding to each timing included in the period from the timing i to the timing k described above. It shows the case of being superimposed with

また、図9において、符号Rasi,Rasj,Raskで示した太い破線の領域は、上述した物体領域Rai,Raj,Rakを物体領域Rbi,Rbj,Rbkから最も離れた頂点を基準として縮小して得られる縮小後の物体領域をそれぞれ示している。同様に、符号Rbsi,Rbsj,Rbskで示した太い実線の領域は、上述した物体領域Rbi,Rbj,Rbkを物体領域Rai,Raj,Rakから最も離れた頂点を基準として縮小して得られる縮小後の物体領域をそれぞれ示している。   Further, in FIG. 9, the thick broken line areas indicated by reference numerals Rasi, Rasj, and Rask are obtained by reducing the above-described object areas Rai, Raj, and Rak with the vertex farthest from the object areas Rbi, Rbj, and Rbk as a reference. Each of the reduced object regions is shown. Similarly, thick solid line areas denoted by reference characters Rbsi, Rbsj, and Rbsk are obtained by reducing the above-described object areas Rbi, Rbj, and Rbk with reference to a vertex that is farthest from the object areas Rai, Raj, and Rak. Each object region is shown.

また、図9において、符号Gaは、縮小前の物体領域Rai,Raj,Rakの重心Cai,Caj,Cakで示される物体Aの本来の軌跡を示している。同様に、符号Gbは、縮小前の物体領域Rbi,Rbj,Rbkの重心Cbi,Cbj,Cbkで示される物体Bの本来の軌跡を示している。   In FIG. 9, the symbol Ga indicates the original trajectory of the object A indicated by the centers of gravity Cai, Caj, Cak of the object regions Rai, Raj, Rak before reduction. Similarly, the symbol Gb indicates the original trajectory of the object B indicated by the centroids Cbi, Cbj, Cbk of the object regions Rbi, Rbj, Rbk before reduction.

図9に示したように、縮小後の物体領域Rasi,Rasj,Raskそれぞれの重心Casi,Casj,Caskで示される軌跡Gasは、上述した物体Aの本来の軌跡Gaからずれてしまっている。同様に、縮小後の各物体領域Rbsi,Rbsj,Rbskの重心Cbsi,Cbsj,Cbskで示される軌跡Gbsもまた、物体Bの本来の軌跡Gbからずれてしまっている。   As shown in FIG. 9, the trajectory Gas indicated by the centroids Casi, Casj, and Casks of the reduced object regions Rasi, Rasj, and Rask is deviated from the original trajectory Ga of the object A described above. Similarly, the trajectory Gbs indicated by the centroids Cbsi, Cbsj, and Cbsk of the reduced object regions Rbsi, Rbsj, and Rbsk is also deviated from the original trajectory Gb of the object B.

これに対して、上述した位置の調整を適用した後の縮小後の物体領域Rasi’,Rasj’,Rask’の重心Casi’,Casj’,Cask’は、調整前の重心Casi,Casj,Caskに比べて元の重心Cai,Caj,Cakに近い位置にある。同様に、上述した位置の調整を適用した後の縮小後の物体領域Rbsi’,Rbsj’,Rbsk’の重心Cbsi’,Cbsj’,Cbsk’は、調整前の重心Casi,Casj,Caskに比べて元の重心Cbi,Cbj,Cbkに近い位置にある。   On the other hand, the centroids Casi ′, Casj ′, and Cas ′ of the reduced object regions Rasi ′, Rasj ′, and Rask ′ after applying the position adjustment described above are changed to the centroids Casi, Casj, and Cask before the adjustment. Compared to the original center of gravity Cai, Caj, Cak, it is in a position. Similarly, the centroids Cbsi ′, Cbsj ′, and Cbsk ′ of the reduced object regions Rbsi ′, Rbsj ′, and Rbsk ′ after applying the position adjustment described above are compared with the centroids Casi, Casj, and Cask before adjustment. It is in a position close to the original center of gravity Cbi, Cbj, Cbk.

同様に、画像番号iと画像番号jとの間の各画像番号および画像番号jと画像番号kとの間の各画像番号で示される要約映像の画像に、物体Aおよび物体Bに対応する物体領域を重畳する際に、上述した縮小処理および位置の調整処理を適用することができる。これにより、要約映像の画像番号iから画像番号kまでの各画像において、物体Aおよび物体Bに対応する縮小後の物体領域を縮小前の重心位置からのズレを最小化しながら重ね合わせることができる。   Similarly, objects corresponding to the object A and the object B are displayed in the summary video images indicated by the image numbers between the image numbers i and j and the image numbers between the image numbers j and k. When the regions are superimposed, the above-described reduction processing and position adjustment processing can be applied. Thereby, in each image from the image number i to the image number k of the summary video, the reduced object regions corresponding to the object A and the object B can be overlapped while minimizing the deviation from the center of gravity position before the reduction. .

したがって、重心Casi’,Casj’,Cask’を含む、縮小処理および位置の調整処理を適用した物体領域の重心の軌跡により、調整前の重心Casi,Casj,Caskで示される軌跡Gasよりも、物体Aの本来の軌跡Gaに近い軌跡を示すことができる。同様に、重心Cbsi’,Cbsj’,Cbsk’を含む、縮小処理および位置の調整処理を適用した物体領域の重心の軌跡により、調整前の重心Cbsi,Cbsj,Cbskで示される軌跡Gbsよりも、物体Bの本来の軌跡Gbにより近い軌跡を示すことができる。なお、図9においては、縮小処理および位置の調整処理を適用した物体領域Rasi’,Rasj’,Rask’の重心Casi’,Casj’,Cask’で示される軌跡は、上述した軌跡Gaとほぼ一致するため、図示を省略している。同様に、縮小処理および位置の調整処理を適用した物体領域Rbsi’,Rbsj’,Rbsk’の重心Cbsi’,Cbsj’,Cbsk’で示される軌跡も、上述した軌跡Gbとほぼ一致するため、図9における図示を省略している。   Therefore, the locus of the center of gravity of the object area to which the reduction process and the position adjustment process are applied, including the centroids Casi ′, Casj ′, and Cask ′, is more effective than the locus Gas indicated by the centroids Casi, Casj, and Cassk before the adjustment. A locus close to the original locus Ga of A can be shown. Similarly, the locus of the center of gravity of the object region to which the reduction process and the position adjustment process are applied, including the centroids Cbsi ′, Cbsj ′, and Cbsk ′, than the locus Gbs indicated by the centroids Cbsi, Cbsj, and Cbsk before the adjustment. A locus closer to the original locus Gb of the object B can be shown. In FIG. 9, the trajectories indicated by the centroids Casi ′, Casj ′, and Cas ′ of the object regions Rasi ′, Rasj ′, and Rask ′ to which the reduction process and the position adjustment process are applied substantially coincide with the trajectory Ga described above. Therefore, the illustration is omitted. Similarly, the trajectories indicated by the centroids Cbsi ′, Cbsj ′, Cbsk ′ of the object regions Rbsi ′, Rbsj ′, Rbsk ′ to which the reduction process and the position adjustment process are applied substantially coincide with the trajectory Gb described above. The illustration in 9 is omitted.

同様の縮小処理と位置の調整処理とを、重複する部分を持って要約映像Vsの各画像に重ね合わせられる2つの物体領域ごとに適用することにより、各部分映像Vpに撮影された物体を互いに重複させることなく、各物体の元の位置を保存することができる。   The same reduction processing and position adjustment processing are applied to each of two object regions that are overlapped with each image of the summary video Vs with overlapping portions, whereby objects photographed in each partial video Vp are mutually connected. The original position of each object can be preserved without overlapping.

ここで、多数の物体それぞれの移動過程に対応する部分映像から抽出された物体領域を要約映像Vsの各画像に重畳する際に、互いの重複を解消することで、例えば、人物の表情や服装および仕草などの詳細な属性を示す情報を把握することが可能となる。また、元の部分映像Vpの各画像における物体の位置を保存することで、要約映像Vsの各画像における各物体領域の軌跡により、各物体の移動経路を忠実に再現することができる。   Here, when the object region extracted from the partial video corresponding to the movement process of each of the many objects is superimposed on each image of the summary video Vs, by eliminating the mutual overlap, for example, the facial expression and clothes of the person And information indicating detailed attributes such as gestures can be grasped. Further, by storing the position of the object in each image of the original partial video Vp, the movement path of each object can be faithfully reproduced by the trajectory of each object region in each image of the summary video Vs.

つまり、図1に示した本件開示の映像編集装置10によれば、複数の物体の移動過程をそれぞれ撮影した部分映像から、各物体の詳細な属性と実際に近い移動経路とを一括して再現する要約映像Vsを生成し、表示装置5に表示させることができる。   That is, according to the video editing apparatus 10 of the present disclosure shown in FIG. 1, the detailed attributes of each object and the actual movement path are collectively reproduced from the partial images obtained by capturing the movement processes of the plurality of objects. The summary video Vs to be generated can be generated and displayed on the display device 5.

このようにして得られた要約映像Vsによれば、上述したドアイベントのような共通するイベントの発生以降における複数の人物のふるまいを、ドアイベントのタイミングから時系列に従って一覧できるように提示することができる。   According to the summary video Vs obtained in this way, the behaviors of a plurality of persons after the occurrence of a common event such as the door event described above can be presented so as to be listed in chronological order from the timing of the door event. Can do.

このような要約映像Vsの提示を受けた利用者は、例えば、年齢層や性別が異なる人物ごとの行動の傾向や移動経路の違いとともに、多数の人物が共通して視線を向ける方向などを直感的に把握することが可能となる。多数の人物の移動に見られる流れを示す情報とともに、属性ごとに異なる人物の行動の傾向や多くの人物に共通する行動などを示す情報は、例えば、大規模小売店舗や遊園地などの各コーナーの配置やディスプレイの効果を評価する際に、有用な情報である。したがって、本件開示の映像編集装置10は、デパートを含む大規模小売店舗や遊園地やゲームセンターを含むアミューズメント施設などの設計や改装を行う分野において有用である。また、本件開示の映像編集装置10で生成される要約映像は、企業などのオフィスの設計および改装や、公園や駅、地下道などの公共施設の設計および改装にも利用することが可能である。   A user who has received such a summary video Vs intuitively knows, for example, the direction of action and the direction in which a large number of persons point their eyes in common, as well as the behavioral trends and movement paths of persons of different age groups and genders. It becomes possible to grasp it. Information indicating the flow seen in the movement of a large number of people, as well as information indicating behavior trends of different people for each attribute and behaviors common to many people, for example, each corner of large retail stores and amusement parks This information is useful when evaluating the placement and display effects. Therefore, the video editing apparatus 10 disclosed herein is useful in the field of designing and refurbishing large-scale retail stores including department stores, amusement facilities including amusement parks and game centers. In addition, the summary video generated by the video editing apparatus 10 disclosed herein can be used for designing and remodeling offices of companies and the like and designing and renovating public facilities such as parks, stations, and underground passages.

また、本件開示の映像編集方法は、図1に示した映像編集装置10が、動き映像抽出装置3から受け取った複数の部分映像Vpに対して、図10に示すフローチャートに従う映像編集処理を実行することによって実現してもよい。   Further, in the video editing method disclosed in the present disclosure, the video editing apparatus 10 illustrated in FIG. 1 executes the video editing process according to the flowchart illustrated in FIG. 10 on the plurality of partial videos Vp received from the motion video extracting apparatus 3. May be realized.

図10は、映像編集処理のフローチャートの例を示している。図10に示したステップ301〜ステップ310は、図1に示した映像編集装置10に含まれる特定部11、検出部13、算出部14、縮小部15および調整部16によって実行される。   FIG. 10 shows an example of a flowchart of the video editing process. Steps 301 to 310 shown in FIG. 10 are executed by the specifying unit 11, the detecting unit 13, the calculating unit 14, the reducing unit 15, and the adjusting unit 16 included in the video editing apparatus 10 shown in FIG.

まず、特定部11は、各部分映像Vpに含まれる各画像において、背景に対して移動している物体を表している部分を物体領域として特定し、特定した物体領域を示す物体情報を物体情報保持部12に保持させる(ステップ301)。また、特定部11は、各物体情報に対応して、物体領域の画像データとして、例えば、個々の物体領域に含まれる物体の像以外の背景を表す部分を透明な画像として表す情報を物体情報保持部12に保持させてもよい。   First, the specifying unit 11 specifies a part representing an object moving with respect to the background as an object area in each image included in each partial video Vp, and sets object information indicating the specified object area as object information. It is held by the holding unit 12 (step 301). Further, the identification unit 11 corresponds to each object information, for example, as object image data, for example, information indicating a portion representing a background other than an object image included in each object area as a transparent image. You may hold | maintain to the holding | maintenance part 12. FIG.

次に、検出部13は、例えば、要約映像Vsの各画像を画像番号1の画像から順に処理対象の画像として選択し、処理対象の画像を示す画像番号に対応して物体情報保持部12に保持された物体情報の中から順次に処理対象の物体領域を選択する(ステップ302)。検出部13は、例えば、図5に示した物体情報保持部12に選択された画像番号に対応して保持された物体領域の中から、物体IDに従って順次に処理対象の物体領域を選択してもよい。   Next, the detection unit 13 selects, for example, each image of the summary video Vs as an image to be processed in order from the image with the image number 1, and stores it in the object information holding unit 12 corresponding to the image number indicating the image to be processed. The object area to be processed is sequentially selected from the held object information (step 302). For example, the detection unit 13 sequentially selects object regions to be processed according to the object ID from the object regions held corresponding to the image numbers selected by the object information holding unit 12 illustrated in FIG. Also good.

次いで、検出部13は、処理対象の物体領域に対応する物体情報と他の物体領域に対応する物体情報が、上述した式(1)で示した関係を満たすか否かに基づいて、処理対象の物体領域が他の物体領域と重複するか否かを判定する(ステップ303)。   Next, the detection unit 13 determines whether or not the object information corresponding to the object area to be processed and the object information corresponding to another object area satisfy the relationship expressed by the above formula (1). It is determined whether or not the object area overlaps with other object areas (step 303).

処理対象の物体領域と重複する部分を持つ物体領域が見つからなかった場合に(ステップ303の否定判定(NO))、映像編集装置10は、処理対象の物体領域の画像データをそのまま要約映像Vsの対応する画像に重畳する(ステップ304)。例えば、図1に示した検出部13は、処理対象の物体領域と重複する部分を持つ物体領域を検出しなかった場合に、その旨を調整部16に通知することで、調整部16に上述したステップ304の処理を実行させてもよい。調整部16は、重複する部分が検出されない旨の検出結果を受け取ったときに、物体情報保持部12から処理対象の物体領域の画像データを読み出し、読み出した画像データを要約映像記憶装置4に格納された対応する画像に重畳するように合成してもよい。   When an object area having a portion overlapping with the object area to be processed is not found (No determination in step 303), the video editing apparatus 10 directly uses the image data of the object area to be processed as the summary video Vs. The image is superimposed on the corresponding image (step 304). For example, when the detection unit 13 illustrated in FIG. 1 does not detect an object region having a portion that overlaps the object region to be processed, the detection unit 13 notifies the adjustment unit 16 of the fact, thereby notifying the adjustment unit 16. The process of step 304 may be executed. When the adjustment unit 16 receives the detection result indicating that the overlapping portion is not detected, the adjustment unit 16 reads the image data of the object region to be processed from the object information holding unit 12 and stores the read image data in the summary video storage device 4. The images may be combined so as to be superimposed on the corresponding image.

一方、処理対象の物体領域と重複する部分を持つ物体領域が検出された場合に(ステップ303の肯定判定(YES))、映像編集装置10は、ステップ305〜ステップ308の処理を実行する。   On the other hand, when an object area having a portion overlapping with the object area to be processed is detected (Yes in step 303), the video editing apparatus 10 executes the processes in steps 305 to 308.

ステップ303の肯定判定ルートにおいて、検出部13は、処理対象の物体領域と検出した物体領域とに対応する物体情報のペアを算出部14に渡し、ステップ305の処理を実行させる。   In the affirmative determination route of step 303, the detection unit 13 passes a pair of object information corresponding to the object region to be processed and the detected object region to the calculation unit 14 and causes the process of step 305 to be executed.

算出部14は、検出部13から受け取った物体情報と上述した式(2)又は式(3)とに基づいて、処理対象の物体領域および検出された物体領域のペアについて、これらの物体領域で重複する部分の面積を最小化するための縮小率をそれぞれ算出する(ステップ305)。また、算出部14は、ステップ305の処理で算出した縮小率および縮小の基準点を示す情報を縮小部15に渡す。   Based on the object information received from the detection unit 13 and the above-described equation (2) or equation (3), the calculation unit 14 calculates a pair of the object region to be processed and the detected object region using these object regions. A reduction ratio for minimizing the area of the overlapping portion is calculated (step 305). Further, the calculation unit 14 passes the information indicating the reduction ratio and the reduction reference point calculated in the process of step 305 to the reduction unit 15.

縮小部15は、物体情報保持部12に上述した2つの物体領域に対応して保持された画像データで表される物体領域の画像を、図7に示したように、算出部14から受け取った基準点を基準として、指定された縮小率で縮小する処理を実行する(ステップ306)。   The reduction unit 15 receives the image of the object area represented by the image data held in correspondence with the two object areas described above in the object information holding unit 12 from the calculation unit 14 as illustrated in FIG. Using the reference point as a reference, a process of reducing at a specified reduction rate is executed (step 306).

このようにして得られた2つの縮小後の物体領域について、調整部16は、図8、図9を用いて説明したようにして、元の物体領域からの重心の移動が最小となるように、縮小後の物体領域の位置を調整する(ステップ307)。調整部16は、例えば、図8に示した可動範囲の中で、縮小後の各物体領域の重心を元の重心に近づける調整をした際の移動量を求め、求めた移動量を各物体領域の縮小の基準点の位置を示す座標に適用することで、調整後の基準点の位置をそれぞれ特定してもよい。   As described with reference to FIGS. 8 and 9, the adjustment unit 16 makes the movement of the center of gravity from the original object region to be minimum for the two reduced object regions thus obtained. Then, the position of the reduced object area is adjusted (step 307). For example, the adjustment unit 16 obtains a movement amount when adjustment is performed so that the center of gravity of each reduced object region approaches the original center of gravity within the movable range illustrated in FIG. 8, and the obtained movement amount is calculated for each object region. The position of the adjusted reference point may be specified by applying to the coordinates indicating the position of the reference point for reduction.

次いで、調整部16は、上述したようにして特定した調整後の基準点の位置に基づいて、縮小部15から受け取った縮小後の物体領域それぞれの画像を、要約映像Vsの処理対象の画像に重ね合わせる(ステップ308)。調整部16は、例えば、図1に示した要約映像記憶装置4内の上述した画像番号に対応する画像において、ステップ307の処理で特定した座標で示される位置に縮小後の物体領域の画像を重畳することで、要約映像Vsの処理対象の画像への重畳を実現してもよい。また、調整部16は、ステップ307で特定した縮小の基準点の位置に基づいて、物体情報保持部12に保持された対応する物体情報を更新してもよい。例えば、調整部16は、上述した位置の調整を適用した後の基準点の座標および適用した縮小率に基づいて、処理対象の物体領域について位置を調整した後の左上頂点の座標と当該物体領域の縮小後の幅および高さを算出することができる。このように、算出した左上頂点の座標および縮小後の幅および高さを用いて物体情報を書き換えておけば、新たな物体領域に注目して以降の処理を行う際に、更新された物体情報を用いて物体領域間の重複の有無を判断することができる。   Next, the adjusting unit 16 converts the image of each reduced object region received from the reducing unit 15 into an image to be processed of the summary video Vs based on the position of the adjusted reference point specified as described above. Overlay (step 308). For example, in the image corresponding to the above-described image number in the summary video storage device 4 illustrated in FIG. 1, the adjustment unit 16 reduces the image of the reduced object region to the position indicated by the coordinates specified in step 307. By superimposing, the summary video Vs may be superimposed on the processing target image. Further, the adjustment unit 16 may update the corresponding object information held in the object information holding unit 12 based on the position of the reduction reference point specified in step 307. For example, the adjusting unit 16 adjusts the coordinates of the upper left vertex after adjusting the position of the object region to be processed based on the coordinates of the reference point after applying the position adjustment described above and the applied reduction ratio, and the object region. The reduced width and height can be calculated. In this way, if the object information is rewritten using the calculated coordinates of the upper left vertex and the reduced width and height, the updated object information will be used when performing the subsequent processing while paying attention to the new object region. Can be used to determine whether there is overlap between object regions.

上述したようにして、ステップ303の肯定判定ルートの処理あるいは否定判定ルートの処理が完了した後に、映像編集装置10は、処理対象の画像を示す画像番号に対応する物体情報の中に未処理の物体情報があるか否かを判定する(ステップ309)。   As described above, after the processing of the affirmative determination route or the negative determination route in step 303 is completed, the video editing apparatus 10 has not yet processed the object information corresponding to the image number indicating the image to be processed. It is determined whether there is object information (step 309).

未処理の物体情報がある場合に(ステップ309の肯定判定(YES))、映像編集装置10は、ステップ302の処理に戻り、未処理の物体情報で示される物体領域の一つを処理対象の物体領域としてステップ303以下の処理を実行する。   When there is unprocessed object information (Yes in step 309 (YES)), the video editing apparatus 10 returns to the process of step 302 and selects one of the object areas indicated by the unprocessed object information as a processing target. The processing from step 303 onward is executed as the object region.

その後、処理対象の画像を示す画像番号に対応して物体情報保持部12に保持された全ての物体情報についてのステップ302〜ステップ309の処理が完了したときに、映像編集装置10は、ステップ309の否定判定ルートに従ってステップ310の処理に進む。   After that, when the processing from step 302 to step 309 is completed for all the object information held in the object information holding unit 12 corresponding to the image number indicating the image to be processed, the video editing apparatus 10 performs step 309. The process proceeds to step 310 according to the negative determination route.

ステップ310において、映像編集装置10は、要約映像Vsの全ての画像番号で示される画像について、上述したステップ302〜ステップ309の処理が完了したか否かを判定する。要約映像Vsに含まれるn枚の画像の中に、まだ生成されていない画像がある場合に、映像編集装置10は、全ての画像についての処理が完了していないと判断する(ステップ310の否定判定(NO))。この場合に、映像編集装置10は、ステップ302の処理に戻り、未生成の画像の中から処理対象の画像を選択し、選択した画像を示す画像番号に対応して物体情報保持部12に保持された物体情報について、上述したステップ303以下の処理を実行する。   In step 310, the video editing apparatus 10 determines whether or not the processing in steps 302 to 309 described above has been completed for the images indicated by all the image numbers of the summary video Vs. If there is an image that has not yet been generated among the n images included in the summary video Vs, the video editing apparatus 10 determines that the processing has not been completed for all the images (No in step 310). Judgment (NO)). In this case, the video editing apparatus 10 returns to the process of step 302, selects an image to be processed from ungenerated images, and holds it in the object information holding unit 12 corresponding to the image number indicating the selected image. With respect to the object information thus obtained, the processing from step 303 described above is executed.

画像番号1〜nのそれぞれに対応して物体情報保持部12に保持された物体情報について上述した処理を実行することにより、各画像番号で示される要約映像Vsの画像に各部分映像Vpの対応する画像から抽出された物体領域を重畳する処理が完了する。このようにして、全ての画像番号で示される画像についての処理が完了したときに(ステップ310の肯定判定(YES))、映像編集装置10は、要約映像Vsの生成が完了したと判断し、映像編集処理を終了する。   By executing the above-described processing for the object information held in the object information holding unit 12 corresponding to each of the image numbers 1 to n, each partial video Vp is associated with the image of the summary video Vs indicated by each image number. The process of superimposing the object region extracted from the image to be completed is completed. In this way, when the processing for the images indicated by all the image numbers is completed (Yes in step 310), the video editing apparatus 10 determines that the generation of the summary video Vs has been completed, The video editing process ends.

以上に説明した本件開示の映像編集方法によれば、各画像番号で示される要約映像Vsの画像に各部分映像Vpの対応する画像から抽出された物体領域を重畳する際に、重複を解消するように縮小するとともに、元の位置からのズレを最小化することができる。   According to the video editing method of the present disclosure described above, the overlap is eliminated when the object region extracted from the corresponding image of each partial video Vp is superimposed on the image of the summary video Vs indicated by each image number. Thus, the deviation from the original position can be minimized.

これにより、部分映像Vp複数の物体の移動過程を、複数の物体の移動過程をそれぞれ撮影した部分映像から、各物体の全体の像で表される詳細な属性とともに各物体の移動経路とを一括して再現する要約映像Vsを生成することができる。   As a result, the movement process of the plurality of objects is collectively displayed from the partial images obtained by capturing the movement processes of the plurality of objects and the detailed attributes represented by the entire image of each object. Thus, the summary video Vs to be reproduced can be generated.

ところで、上述したように、2つの物体領域の重複する部分を完全に解消するように縮小する場合には、例えば、重複する部分の割合が大きい場合に、縮小後の物体領域の大きさが元の物体領域の半分程度にまで縮小されてしまうことがある。   By the way, as described above, when the reduction is performed so that the overlapping part of the two object areas is completely eliminated, for example, when the ratio of the overlapping parts is large, the size of the object area after the reduction is the original. May be reduced to about half of the object area.

ここで、要約映像Vsに含まれる各画像に重畳される個々の物体領域が元の物体領域に比べて小さくなりすぎると、個々の物体の細部を再現することが困難になるため、各物体領域に適用する縮小率には所定の下限を設定することが望ましい。また、要約映像Vsにおいて、各物体の像が時系列的に連続している印象を利用者に与えるためには、要約映像Vsに含まれる各画像において同じ物体IDで示される物体の像の大きさが大きく変動しないように各物体領域の縮小率を決定することが望ましい。   Here, if the individual object regions superimposed on the images included in the summary video Vs are too small compared to the original object region, it becomes difficult to reproduce the details of the individual objects. It is desirable to set a predetermined lower limit for the reduction ratio applied to the above. Further, in order to give the user an impression that images of each object are continuous in time series in the summary video Vs, the size of the image of the object indicated by the same object ID in each image included in the summary video Vs. It is desirable to determine the reduction ratio of each object region so that the fluctuation does not vary greatly.

また、図8に示したように縮小後の物体領域の位置を互いに重複させない範囲で調整する手法では、やはり、重複する部分の割合が大きい場合に、図11に示すように、縮小後の物体領域の大きさに比べて無視できない大きさの重心位置のズレが残ることがある。   Further, in the method of adjusting the positions of the reduced object regions within a range that does not overlap each other as shown in FIG. 8, when the ratio of overlapping parts is large, as shown in FIG. There may be a case where the deviation of the position of the center of gravity which cannot be ignored compared to the size of the area remains.

図11は、縮小後の物体領域の位置を調整した例を示している。なお、図11に示した要素のうち、図7に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 11 shows an example in which the position of the reduced object region is adjusted. Note that among the elements shown in FIG. 11, elements equivalent to those shown in FIG. 7 are denoted by the same reference numerals and description thereof is omitted.

図11は、物体領域Ra,Rbを頂点Ua,Ubをそれぞれ基準点として重複する部分がなくなるまで縮小し、縮小後の物体領域Ras,Rbsを重複させない範囲で移動させ、元の重心Ca,Cbの位置に縮小後の重心Cas,Cbsを近づけた例を示している。   In FIG. 11, the object regions Ra and Rb are reduced with the vertices Ua and Ub as reference points until there is no overlapping portion, and the reduced object regions Ras and Rbs are moved within a range that does not overlap. This shows an example in which the reduced gravity centers Cas and Cbs are brought close to the position of.

この場合に、例えば、物体領域Raに適用する縮小率αaを2/3とすると、図11に細い破線で示した物体領域Raの重心Caと、太い破線で示した縮小及び位置調整後の物体領域Rasの重心との距離は、縮小後の物体領域Rasの幅の1/4に匹敵する。   In this case, for example, if the reduction rate αa applied to the object region Ra is 2/3, the center of gravity Ca of the object region Ra shown by a thin broken line in FIG. 11 and the object after reduction and position adjustment shown by a thick broken line The distance from the center of gravity of the region Ras is equal to 1/4 of the width of the reduced object region Ras.

2つの部分映像Vpからそれぞれ抽出された物体領域が互いに重複する部分の割合は、例えば、これらの部分映像Vpにそれぞれ撮影された物体の移動経路が、部分映像Vpそれぞれの先頭から同じ時間の経過後に交差する場合などに大きくなる。そして、このような2つの部分映像Vpから生成される要約映像Vsでは、要約映像Vsの先頭から上述した時間の経過後の画像において、図11に示したような大きな重心位置のズレが残るために、各物体の移動経路を忠実に再現できなくなってしまう。   The ratio of the portions where the object regions extracted from the two partial videos Vp overlap each other is, for example, that the movement path of the object photographed in each of the partial videos Vp passes the same time from the beginning of each partial video Vp. It becomes large when crossing later. Then, in the summary video Vs generated from the two partial videos Vp, a large shift in the center of gravity position as shown in FIG. 11 remains in the image after the elapse of time from the beginning of the summary video Vs. In addition, the movement path of each object cannot be faithfully reproduced.

一方、重複する部分が残ることを許容する方向にも移動可能な範囲を広げれば、2つの物体領域間で重複する部分の割合が大きい場合でも、上述したような重心位置のズレを低減し、各物体の移動経路を忠実に再現することが可能である。   On the other hand, if the movable range is expanded in a direction that allows the overlapping part to remain, even when the ratio of the overlapping part between the two object regions is large, the shift of the center of gravity position as described above is reduced, It is possible to faithfully reproduce the movement path of each object.

ここで、図11に示した2つの物体領域Ra,Rbのそれぞれを縮小するとともに元の物体領域Ra,Rbの範囲内で移動させる操作は、基準点Ua,Ubを原点として、回転を伴わない相似変換を行う操作として捉えることができる。つまり、図1に示した縮小部15および調整部16の機能は、例えば、縮小率と基準点Ua,Ubの移動量とをパラメータとする相似変換処理によって実現してもよい。   Here, the operation of reducing each of the two object regions Ra and Rb shown in FIG. 11 and moving them within the range of the original object regions Ra and Rb does not involve rotation with the reference points Ua and Ub as the origin. It can be understood as an operation for performing similarity transformation. That is, the functions of the reduction unit 15 and the adjustment unit 16 illustrated in FIG. 1 may be realized by, for example, similarity conversion processing using the reduction rate and the movement amounts of the reference points Ua and Ub as parameters.

また、相似変換後の2つの物体領域が重複する部分の面積よりも相似変換前後での重心の移動量を重視して最小化するように相似変換のパラメータを決定すれば、2つの物体領域間で重複する部分の割合が大きい場合でも、移動経路の再現性を向上できる。   In addition, if the parameters of similarity transformation are determined so as to minimize the movement amount of the center of gravity before and after the similarity transformation rather than the area where the two object regions after the similarity transformation overlap, between the two object regions Even when the ratio of overlapping parts is large, the reproducibility of the movement route can be improved.

以下では、図12〜図19を用いて、物体領域の重複を許容する重ね合わせを行うことで、2つの物体領域間で重複する部分の割合が大きい場合でも、各物体の移動経路を忠実に再現することが可能な要約映像を生成するために好適な実施形態について説明する。   In the following, by using FIG. 12 to FIG. 19 to perform overlapping that allows overlapping of object regions, even when the ratio of overlapping portions between two object regions is large, the movement path of each object is faithfully observed. A preferred embodiment for generating a summary video that can be reproduced will be described.

図12は、映像編集装置10の別実施形態を示している。なお、図12に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 12 shows another embodiment of the video editing apparatus 10. 12 that are the same as those shown in FIG. 1 are denoted by the same reference numerals and description thereof is omitted.

図12に示した映像編集装置10は、図1に示した縮小部15および調整部16に代えて、相似変換処理部17を含んでいる。また、図11に示した算出部14は、割合算出部141と、設定部142と、条件生成部143と、決定部144とを含んでいる。   The video editing apparatus 10 illustrated in FIG. 12 includes a similarity conversion processing unit 17 instead of the reduction unit 15 and the adjustment unit 16 illustrated in FIG. Further, the calculation unit 14 illustrated in FIG. 11 includes a ratio calculation unit 141, a setting unit 142, a condition generation unit 143, and a determination unit 144.

算出部14は、検出部13によって重複する部分が検出された2つの物体領域ごとに、物体情報保持部12に保持された物体情報に基づいて、後述するようにして、各物体領域に適用する縮小率および基準点の移動量を含む相似変換のパラメータを算出する。   The calculation unit 14 applies to each object region, as described later, based on the object information held in the object information holding unit 12 for each of the two object regions in which overlapping portions are detected by the detection unit 13. The similarity transformation parameters including the reduction ratio and the movement amount of the reference point are calculated.

相似変換処理部17は、検出部13によって重複する部分が検出された2つの物体領域に適用する縮小率および基準点の移動量を含むパラメータを算出部14から受け取り、受け取ったパラメータに基づいて各物体領域に図13のような相似変換処理を行う。   The similarity conversion processing unit 17 receives from the calculation unit 14 parameters including a reduction ratio and a reference point movement amount applied to the two object regions in which the overlapping portions are detected by the detection unit 13, and based on the received parameters, Similarity transformation processing as shown in FIG. 13 is performed on the object region.

図13は、相似変換の例を示している。なお、図13に示した要素のうち、図6および図7に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 13 shows an example of similarity transformation. Note that among the elements shown in FIG. 13, elements equivalent to those shown in FIGS. 6 and 7 are denoted by the same reference numerals and description thereof is omitted.

図13において、符号Rat、Rbtは、それぞれ物体領域Ra,Rbに対して相似変換を適用して得られる変換後の物体領域を示し、符号Rdで示した網掛けの領域は、変換後の物体領域Rat,Rbtの重複する部分を示している。また、符号Uat,Ubtは、相似変換後の物体領域Rat,Rbtにおいて、変換前の物体領域Ra,Rbについて特定した基準点Ua,Ubに対応する変換後の基準点を示している。また、符号αa,αbは、2つの物体領域Ra,Rbを互いに最も離れた頂点を基準点Ua,Ubとして縮小する際の縮小率を示している。   In FIG. 13, reference characters Rat and Rbt indicate object regions after conversion obtained by applying similarity conversion to the object regions Ra and Rb, respectively, and shaded regions indicated by reference characters Rd indicate converted object regions. The overlapping portions of the regions Rat and Rbt are shown. Reference symbols Uat and Ubt indicate converted reference points corresponding to the reference points Ua and Ub specified for the object regions Ra and Rb before conversion in the object regions Rat and Rbt after similarity conversion. Symbols αa and αb indicate the reduction ratio when the two object regions Ra and Rb are reduced as the reference points Ua and Ub with the vertices farthest from each other.

また、図13において、符号dxa,dyaは、変換前の基準点Uaから変換後の基準点Uatへの変化量を示し、符号dxb,dybは、変換前の基準点Ubから変換後の基準点Ubtへの変化量を示している。また、図13において、符号Dxは、変換後の基準点Ua,UbのX座標の差分を示し、符号Dyは、変換後の基準点Ua,UbのY座標の差分を示している。   In FIG. 13, symbols dxa and dya indicate the amount of change from the reference point Ua before conversion to the reference point Uat after conversion, and symbols dxb and dyb indicate reference points after conversion from the reference point Ub before conversion. The amount of change to Ubt is shown. In FIG. 13, the symbol Dx indicates the difference between the X coordinates of the converted reference points Ua and Ub, and the symbol Dy indicates the difference between the Y coordinates of the converted reference points Ua and Ub.

図13に示した変換後の物体領域Rat,Rbtの重複する部分Rdの面積は、上述したX座標の差分DxおよびY座標の差分Dyと縮小率αaおよび縮小率αbとを用いて、例えば、式(4)のように表すことができる。なお、式(4)において、符号Sdは、上述した重複する部分Rdの面積を示しており、また、符号waは、物体領域Raの幅を示し、符号haは、物体領域Raの高さを示している。同様に、符号wbは、物体領域Rbの幅を示し、符号hbは、物体領域Rbの高さを示している。また、X座標の差分DxおよびY座標の差分Dyは、上述したX軸方向の変化量dxa,dxbおよびY軸方向の変化量dya,dybを用いて、それぞれ式(5)、(6)のように表すことができる。なお、式(5)において、符号Xa,Yaは、物体領域Raの基準点UaのX,Y座標をそれぞれ示し、符号Xb,Ybは、物体領域Rbの基準点UbのX,Y座標をそれぞれ示している。
Sd=((αa・wa+αb・wb)−Dx)((αa・ha+αb・hb)−Dy) ・・・(4)
Dx=|Xb−Xa|−|dxa|−|dxb| ・・・(5)
Dy=|Yb−Ya|−|dya|−|dyb| ・・・(6)
また、変換前の物体領域Raの重心Caと変換後の物体領域Ratの重心Catとの距離、即ち、変換の前後での重心の移動距離Daは、縮小率αaと物体領域Raの幅waと高さhaとを用いて式(7)のように表すことができる。同様に、変換前の物体領域Rbの重心Cbと変換後の物体領域Rbtの重心Cbtとの距離、即ち、変換の前後での重心の移動距離Dbは、縮小率αbおよび物体領域Rbの幅wbと高さhbとを用いて式(8)のように表すことができる。
The area of the overlapping portion Rd of the converted object regions Rat and Rbt shown in FIG. 13 is calculated using, for example, the X-coordinate difference Dx and the Y-coordinate difference Dy, the reduction rate αa, and the reduction rate αb. It can be expressed as equation (4). In equation (4), the symbol Sd indicates the area of the overlapping portion Rd described above, the symbol wa indicates the width of the object region Ra, and the symbol ha indicates the height of the object region Ra. Show. Similarly, the symbol wb indicates the width of the object region Rb, and the symbol hb indicates the height of the object region Rb. Further, the X-coordinate difference Dx and the Y-coordinate difference Dy are expressed by equations (5) and (6), respectively, using the above-described change amounts dxa and dxb in the X-axis direction and change amounts dya and dyb in the Y-axis direction. Can be expressed as: In Equation (5), symbols Xa and Ya indicate the X and Y coordinates of the reference point Ua of the object region Ra, respectively, and symbols Xb and Yb indicate the X and Y coordinates of the reference point Ub of the object region Rb, respectively. Show.
Sd = ((αa · wa + αb · wb) −Dx) ((αa · ha + αb · hb) −Dy) (4)
Dx = | Xb−Xa | − | dxa | − | dxb | (5)
Dy = | Yb−Ya | − | dya | − | dyb | (6)
Further, the distance between the center of gravity Ca of the object area Ra before conversion and the center of gravity Cat of the object area Rat after conversion, that is, the distance Da of movement of the center of gravity before and after conversion is expressed by the reduction rate αa and the width wa of the object area Ra. Using the height ha, it can be expressed as equation (7). Similarly, the distance between the centroid Cb of the object region Rb before conversion and the centroid Cbt of the object region Rbt after conversion, that is, the moving distance Db of the centroid before and after conversion is expressed by the reduction rate αb and the width wb of the object region Rb. And the height hb can be expressed as in Expression (8).

Figure 0005994612
上述した面積Sdと、重心の移動距離Da,Dbとをともに最小化するパラメータは、式(4)、式(7)および式(8)のそれぞれを目的関数とする多目的最適化問題を解くことによって求めることができる。なお、上述した多目的最適化問題を解く際に、例えば、物体領域Ra,Rbに適用する縮小率αa,αbについての上限および下限を示す制約条件を設定することで、各物体領域Ra,Rbが縮小されすぎないようにすることができる。
Figure 0005994612
The parameters for minimizing both the area Sd and the movement distances Da and Db of the center of gravity are to solve the multi-objective optimization problem using the equations (4), (7), and (8) as objective functions. Can be obtained. When solving the above-mentioned multi-objective optimization problem, for example, by setting the constraint conditions indicating the upper and lower limits for the reduction ratios αa and αb applied to the object regions Ra and Rb, the object regions Ra and Rb It can be prevented from being reduced too much.

ここで、式(4)、式(7)および式(8)で示される目的関数に用いられた6個の変数のうち、例えば、物体領域Rbに関する変数である縮小率αbと基準点Ubの移動量dxb、dybを固定値として、上述した多目的最適化問題の単純化を図ってもよい。このような単純化により、物体領域Rbに関する変数を含む6個の変数を用いた3つの目的関数を最適化する問題を、物体領域Raに関する3個の変数を用いた2つの目的関数、即ち式(4)および式(7)で示される目的関数を最適化する問題として解くことができる。   Here, among the six variables used in the objective function expressed by the equations (4), (7), and (8), for example, the reduction rate αb that is a variable related to the object region Rb and the reference point Ub The movement amounts dxb and dyb may be fixed values to simplify the multi-objective optimization problem described above. By such simplification, the problem of optimizing three objective functions using six variables including variables relating to the object region Rb is changed to two objective functions using three variables relating to the object region Ra, ie, equations It can be solved as a problem of optimizing the objective function represented by (4) and (7).

物体領域Raに関する変数である縮小率αaと基準点Uaの移動量dxa、dyaを用いて式(4)で示される面積Sdと式(7)で示される重心の移動距離Daとの双方を最小化する問題は、例えば勾配法などを用いて解くことができる。また、上述した面積Sdと重心の移動距離Daを最小化する問題を解くことにより、図14に示すようなパレート解を得ることができる。   Using the reduction ratio αa, which is a variable related to the object region Ra, and the movement amounts dxa and dya of the reference point Ua, both the area Sd expressed by the equation (4) and the moving distance Da of the center of gravity expressed by the equation (7) are minimized. The problem to be solved can be solved using, for example, a gradient method. Further, a Pareto solution as shown in FIG. 14 can be obtained by solving the above-described problem of minimizing the area Sd and the movement distance Da of the center of gravity.

図14は、面積Sdと重心の移動距離Daの最小化を目的とした多目的最適化問題の解の例を示している。図14に示した横軸は、面積Sdの大きさを示し、縦軸は、重心の移動距離Daの大きさを示している。   FIG. 14 shows an example of a solution to the multi-objective optimization problem for the purpose of minimizing the area Sd and the movement distance Da of the center of gravity. The horizontal axis shown in FIG. 14 indicates the size of the area Sd, and the vertical axis indicates the size of the moving distance Da of the center of gravity.

図14に示した符号Vは、上述した多目的最適化問題のパレート解の集合を表すグラフの例を示している。図14に示したグラフVから分かるように、面積Sdとして小さい値を与える解は重心の移動距離Daとして大きな値を与える傾向があり、逆に、重心の移動距離Daに小さい値を与える解は面積Sdに大きな値を与える傾向がある。   The code | symbol V shown in FIG. 14 has shown the example of the graph showing the set of the Pareto solution of the multi-objective optimization problem mentioned above. As can be seen from the graph V shown in FIG. 14, a solution that gives a small value as the area Sd tends to give a large value as the movement distance Da of the center of gravity. Conversely, a solution that gives a small value to the movement distance Da of the center of gravity is There is a tendency to give a large value to the area Sd.

そこで、面積Sdと重心の移動距離Daとを用いて式(9)で表される評価式により、図14に示したグラフVから最適解を求めることを考える。なお、式(9)において、符号Cは任意の定数を示し、符号ω1,ω2は、それぞれ面積Sdに与えられる第1重みおよび重心の移動距離Daに与えられる第2重みを示している。
ω1・Sd+ω2・Da+C=0 ・・・(9)
図14に示した符号L1は、上述した式(9)において第2重みω2に第1重みω1よりも大きい値を設定した評価式を示すグラフの例である。このような評価式によれば、グラフL1とグラフVとの接点Zc1を与える縮小率αaと基準点Uaの移動量dxa、dyaとして、重心の移動距離Daを面積Sdよりも重視した場合の最適解を特定することができる。
Therefore, it is considered that an optimum solution is obtained from the graph V shown in FIG. 14 by the evaluation formula expressed by the formula (9) using the area Sd and the movement distance Da of the center of gravity. In equation (9), symbol C represents an arbitrary constant, and symbols ω1 and ω2 represent a first weight given to the area Sd and a second weight given to the center-of-gravity movement distance Da, respectively.
ω1 · Sd + ω2 · Da + C = 0 (9)
A symbol L1 illustrated in FIG. 14 is an example of a graph indicating an evaluation formula in which the second weight ω2 is set to a value larger than the first weight ω1 in the above-described formula (9). According to such an evaluation formula, the optimum when the reduction rate αa giving the contact Zc1 between the graph L1 and the graph V and the movement amounts dxa and dya of the reference point Ua are more important than the area Sd. The solution can be specified.

また、図14に示した符号L2は、上述した式(9)において第1重みω1に第2重みω2よりも大きい値を設定した評価式を示すグラフの例である。このような評価式によれば、グラフL2とグラフVとの接点Zc2を与える縮小率αaと基準点Uaの移動量dxa、dyaとして、重心の移動距離Daよりも面積Sdを重視した場合の最適解を特定することができる。   Moreover, the code | symbol L2 shown in FIG. 14 is an example of the graph which shows the evaluation type | formula which set larger value than 1st weight omega1 in 2nd weight omega2 in the formula (9) mentioned above. According to such an evaluation formula, the optimum when the area Sd is more important than the movement distance Da of the center of gravity as the reduction rate αa that gives the contact Zc2 between the graph L2 and the graph V and the movement amounts dxa and dya of the reference point Ua. The solution can be specified.

同様にして、物体領域Rbに関する変数である縮小率αbと基準点Ubの移動量dxb,dybを用いて式(4)で示される面積Sdと式(8)で示される重心の移動距離Dbとの双方を最小化する問題を解くことができる。   Similarly, the area Sd expressed by the equation (4) and the moving distance Db of the center of gravity expressed by the equation (8) using the reduction ratio αb and the movement amounts dxb and dyb of the reference point Ub, which are variables related to the object region Rb, To solve the problem of minimizing both.

図12に示した算出部14は、上述した評価式を生成するために、割合算出部141と設定部142とを含んでいる。   The calculation unit 14 illustrated in FIG. 12 includes a ratio calculation unit 141 and a setting unit 142 in order to generate the above-described evaluation formula.

割合算出部141は、検出部13によって重複する部分が検出された2つの物体領域に対応して物体情報保持部12に保持された物体情報に基づいて、2つの物体領域それぞれにおいて重複する部分が占める割合を算出する。例えば、割合算出部141は、各物体領域の面積それぞれに対する重複する部分の面積の比をそれぞれ求め、得られた比の値を上述した割合を示す情報として設定部142に渡してもよい。なお、割合算出部141は、各物体領域の幅あるいは高さなど各物体領域の大きさを示す値と、重複する部分の大きさを示す値との比を求め、得られた比の値を上述した割合を示す情報として設定部142に渡してもよい。   Based on the object information held in the object information holding unit 12 corresponding to the two object areas in which the overlapping parts are detected by the detecting unit 13, the ratio calculating unit 141 detects the overlapping parts in the two object areas. Calculate the share. For example, the ratio calculation unit 141 may obtain the ratio of the area of the overlapping portion to the area of each object region, and pass the obtained ratio value to the setting unit 142 as information indicating the above-described ratio. The ratio calculation unit 141 obtains a ratio between a value indicating the size of each object region, such as the width or height of each object region, and a value indicating the size of the overlapping portion, and calculates the value of the obtained ratio. You may pass to the setting part 142 as information which shows the ratio mentioned above.

また、設定部142は、割合算出部141で得られた比の値の少なくとも一方が所定の閾値以上である場合に、式(9)の第2重みω2に第1重みω1よりも大きい値を設定した評価式を生成する。一方、割合算出部141で得られた比の値の双方が所定の閾値よりも小さい場合に、設定部142は、式(9)の第1重みω1に第2重みω2よりも大きい値を設定した評価式を生成する。上述した所定の閾値は、例えば、図8に示したように、重複する部分がなくなるように各物体領域を縮小した場合に、縮小前後での重心位置のx軸方向あるいはy軸方向の移動量が許容できる上限の値となるような割合を示す値を設定することが望ましい。   In addition, the setting unit 142 sets a value greater than the first weight ω1 to the second weight ω2 of Equation (9) when at least one of the ratio values obtained by the ratio calculation unit 141 is equal to or greater than a predetermined threshold. Generate the set evaluation formula. On the other hand, when both of the ratio values obtained by the ratio calculation unit 141 are smaller than the predetermined threshold, the setting unit 142 sets a value greater than the second weight ω2 to the first weight ω1 of Equation (9). Generated evaluation formula. For example, as shown in FIG. 8, the predetermined threshold described above is the amount of movement in the x-axis direction or the y-axis direction of the center of gravity position before and after the reduction when each object region is reduced so that there is no overlapping portion. It is desirable to set a value indicating a ratio such that is an allowable upper limit value.

上述した割合算出部141と設定部142とによれば、2つの物体領域で重複する部分の割合が大きい場合に、重心の移動距離を重視した最適解を得る評価式を生成し、他の場合に、重複する部分の面積を重視した最適解を得る評価式を生成することができる。なお、それぞれの場合に式(9)に設定する第1重みω1,第2重みω2の値は、例えば、過去に撮影された映像から要約映像を生成する際に、様々な値を持つ第1重みω1,第2重みω2を設定した評価式を用いた実験によって予め決定しておくことが望ましい。   According to the ratio calculation unit 141 and the setting unit 142 described above, when the ratio of the overlapping portions in the two object regions is large, an evaluation formula for obtaining an optimal solution that emphasizes the moving distance of the center of gravity is generated. In addition, it is possible to generate an evaluation formula that obtains an optimal solution that places importance on the area of overlapping portions. Note that the values of the first weight ω1 and the second weight ω2 set in Expression (9) in each case are, for example, first values having various values when generating a summary video from a video shot in the past. It is desirable to determine in advance by an experiment using an evaluation formula in which the weight ω1 and the second weight ω2 are set.

また、図12に示した算出部14は、各物体領域に適用する縮小率についての制約条件を生成するために、条件生成部143を含んでいる。   In addition, the calculation unit 14 illustrated in FIG. 12 includes a condition generation unit 143 in order to generate a constraint condition regarding the reduction ratio applied to each object region.

条件生成部143は、入力される縮小率の最小値αminと、1つ前の画像番号で示される画像についての処理において、同一の物体に対応する物体領域に適用した縮小率とに基づいて、2つの物体領域に適用する縮小率それぞれについての制約条件を生成する。条件生成部143は、上述した最小値αminを用いて、例えば、式(10)に示すような制約条件を生成してもよい。なお、式(10)において、符号βa,βbは、1つ前の画像番号で示される画像についての処理で、図13に示した2つの物体領域Ra,Rbに対応する物体IDの像として重ね合わせられた2つの物体領域に適用した縮小率を示している。また、符号κは、0以上1未満の値を持つ所定の係数を示している。
max(αmin,(1−κ)・βa)≦αa≦min(1,(1+κ)・βa)
max(αmin,(1−κ)・βb)≦αb≦min(1,(1+κ)・βb)・・・(10)
上述した所定の係数κの値は、例えば、連続する画像番号で示される画像に含まれる同一の物体IDに対応する物体領域の大きさについて許容できる変動の割合を示す値を設定することが望ましい。また、縮小率の最小値αminの値は、例えば、平均的な物体領域の大きさと物体の属性を把握可能な限界の大きさとの比に基づいて予め設定しておくことが望ましい。
Based on the input minimum value αmin of the reduction rate and the reduction rate applied to the object region corresponding to the same object in the processing for the image indicated by the previous image number, the condition generation unit 143 A constraint condition is generated for each reduction ratio applied to the two object regions. The condition generation unit 143 may generate a constraint condition as shown in, for example, Expression (10) using the above-described minimum value αmin. In Expression (10), symbols βa and βb are processes for the image indicated by the previous image number, and are superimposed as object ID images corresponding to the two object regions Ra and Rb shown in FIG. The reduction ratio applied to the two combined object regions is shown. Further, the symbol κ represents a predetermined coefficient having a value of 0 or more and less than 1.
max (αmin, (1-κ) · βa) ≦ αa ≦ min (1, (1 + κ) · βa)
max (αmin, (1-κ) · βb) ≦ αb ≦ min (1, (1 + κ) · βb) (10)
As the value of the predetermined coefficient κ described above, for example, it is desirable to set a value indicating a permissible variation ratio with respect to the size of the object region corresponding to the same object ID included in the image indicated by the consecutive image numbers. . The minimum value αmin of the reduction ratio is preferably set in advance based on, for example, the ratio between the average size of the object region and the limit size at which the object attribute can be grasped.

式(10)に示すような制約条件によれば、各物体領域に適用する縮小率の下限を上述した最小値αmin以上とするとともに、前の画像の対応する物体領域に適用した縮小率からの変化量を抑制することができる。   According to the constraint condition shown in Expression (10), the lower limit of the reduction ratio applied to each object region is set to the above-described minimum value αmin or more, and the reduction ratio applied to the corresponding object region of the previous image is reduced. The amount of change can be suppressed.

このようにして条件生成部143で生成された制約条件と、上述した割合算出部141と設定部142とで生成された評価式とは、図12に示した決定部144に渡される。   The constraint conditions generated in this way by the condition generation unit 143 and the evaluation formulas generated by the ratio calculation unit 141 and the setting unit 142 described above are passed to the determination unit 144 illustrated in FIG.

決定部144は、条件生成部143で得られた制約条件の範囲で、上述した式(4)および式(7)あるいは式(4)および式(8)を最小化する最適化問題についてのパレート解をそれぞれ求める。   The determination unit 144 is a Pareto for the optimization problem that minimizes the above-described Expression (4) and Expression (7) or Expression (4) and Expression (8) within the range of the constraint conditions obtained by the condition generation section 143. Find each solution.

決定部144は、2つの物体領域Ra,Rbに対応して物体情報保持部12に保持された物体情報に基づいて、上述した式(4)、式(7)、式(8)に含まれる基準点Ua,Ubの座標を求めることができる。また、決定部144は、図14を用いて説明したように、2つの物体領域それぞれについてのパレート解の集合を示すグラフと上述した評価式を示すグラフとの接点をそれぞれ求めることで、これらの物体領域についての相似変換のパラメータを特定する。決定部144は、例えば、上述した接点として求めたパレート解を与える縮小率と基準点の移動量とを、相似変換のパラメータとして相似変換処理部17に渡せばよい。   The determining unit 144 is included in the above-described formula (4), formula (7), and formula (8) based on the object information held in the object information holding unit 12 corresponding to the two object areas Ra and Rb. The coordinates of the reference points Ua and Ub can be obtained. Further, as described with reference to FIG. 14, the determination unit 144 obtains contact points between a graph indicating a set of Pareto solutions for each of the two object regions and a graph indicating the above-described evaluation formula. The parameters of similarity transformation for the object area are specified. The determination unit 144 may pass, for example, the reduction ratio that gives the Pareto solution obtained as the contact point and the movement amount of the reference point to the similarity conversion processing unit 17 as parameters for similarity conversion.

また、決定部144は、上述したようにして相似変換のパラメータを求めた際に、各物体領域の縮小率を物体情報保持部12に渡し、処理中の画像を示す画像番号に対応して保持された各物体領域に対応する物体情報に追加してもよい。このような物体情報の追加を行った場合には、以降の画像番号で示される画像についての処理の際に、上述した条件生成部143は、物体情報保持部12を参照することにより、前の画像において対応する物体領域に適用された縮小率を取得することができる。   Further, when determining the similarity transformation parameters as described above, the determination unit 144 passes the reduction ratio of each object region to the object information holding unit 12 and holds it corresponding to the image number indicating the image being processed. It may be added to the object information corresponding to each object region. When such object information is added, the above-described condition generation unit 143 refers to the object information holding unit 12 in the process for the image indicated by the subsequent image number, and the previous information is displayed. The reduction ratio applied to the corresponding object region in the image can be acquired.

上述した算出部14によれば、検出部13によって検出された2つの物体領域で重複する部分の割合が大きい場合に、重複する部分の面積よりも、相似変換の前後における重心の移動量を重視した最適化により、相似変換のパラメータを決定することができる。   According to the calculation unit 14 described above, when the ratio of the overlapping parts in the two object regions detected by the detection unit 13 is large, the movement amount of the center of gravity before and after the similarity transformation is more important than the area of the overlapping part. Through the optimization, the parameters of the similarity transformation can be determined.

このようなパラメータを用いた相似変換を相似変換処理部17が実行することで、2つの物体の移動経路が交差する場合のように、2つの物体領域が重複する部分が大きくなる場合にも、重心位置のズレを抑制しながら重複する部分の面積を最小化することができる。   When the similarity conversion processing unit 17 executes similarity conversion using such parameters, even when a portion where two object regions overlap each other, such as when the movement paths of two objects intersect, The area of the overlapping portion can be minimized while suppressing the shift of the center of gravity position.

つまり、上述した相似変換で得られた変換後の各物体領域を、要約映像記憶装置4に保持された対応する画像に重ね合わせることで、要約映像Vsの各画像において、重心位置のズレを抑制しながら重複する部分の面積を最小化することができる。   That is, by superimposing the converted object regions obtained by the above-described similarity conversion on the corresponding images held in the summary video storage device 4, the deviation of the center of gravity position is suppressed in each image of the summary video Vs. However, the area of the overlapping portion can be minimized.

すなわち、図12に示したような算出部14および相似変換処理部17を含む本件開示の映像編集装置10によれば、2つの物体の移動経路が交差する場合にも、各物体の移動経路を再現しながら、各物体の像についての重複を低減した要約映像Vsを生成できる。   That is, according to the video editing apparatus 10 of the present disclosure including the calculation unit 14 and the similarity conversion processing unit 17 as illustrated in FIG. 12, even when the movement paths of two objects intersect, While reproducing, it is possible to generate the summary video Vs in which the overlap of the images of each object is reduced.

更に、図12に示したように、算出部14に条件生成部143を設けることにより、決定部144によって求められる相似変換のパラメータに、各物体領域に適用する縮小率について所望の制約条件を設定することができる。   Furthermore, as shown in FIG. 12, by providing a condition generation unit 143 in the calculation unit 14, a desired constraint condition for the reduction ratio to be applied to each object region is set in the similarity transformation parameters obtained by the determination unit 144. can do.

例えば、条件生成部143により、所望の制約条件として、各物体領域に適用する縮小率を最小値αmin以上とする旨を示す条件を含む制約条件を設定することにより、要約映像Vsの各画像に重畳される各物体の像の大きさを一定値以上に維持することができる。これにより、要約映像Vsに基づいて、各物体の移動過程の全体を通じて、それぞれの物体の属性を把握可能とすることができる。   For example, the condition generation unit 143 sets a constraint condition including a condition indicating that the reduction ratio applied to each object region is equal to or greater than the minimum value αmin as a desired constraint condition, so that each image of the summary video Vs is set. The size of the image of each object to be superimposed can be maintained above a certain value. Thereby, based on the summary video Vs, the attribute of each object can be grasped through the whole movement process of each object.

また、条件生成部143により、式(10)に示したように、前の画像において適用された縮小率からの変動を抑制する条件を含む制約条件を設定することにより、要約映像Vsに含まれる各画像における各物体の像の大きさに関する変動を抑制することができる。これにより、各物体の像が時系列的に連続している印象を利用者に与える要約映像Vsを提供することができる。   In addition, as shown in Expression (10), the condition generation unit 143 sets the constraint condition including the condition for suppressing the variation from the reduction ratio applied in the previous image, so that it is included in the summary video Vs. Variations in the size of the image of each object in each image can be suppressed. Accordingly, it is possible to provide a summary video Vs that gives the user an impression that images of each object are continuous in time series.

以上に説明した本件開示の映像編集装置10は、例えば、パーソナルコンピュータなどのコンピュータ装置を用いて実現することができる。   The video editing apparatus 10 disclosed above can be realized by using a computer device such as a personal computer, for example.

図15は、映像編集装置10のハードウェア構成の一例を示している。なお、図15に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 15 shows an example of the hardware configuration of the video editing apparatus 10. 15 that are the same as those shown in FIG. 1 are denoted by the same reference numerals and description thereof is omitted.

コンピュータ装置20は、プロセッサ21と、メモリ22と、ハードディスク装置23と、汎用インタフェース24と、表示制御部25と、光学ドライブ装置26とを含んでいる。図15に例示したプロセッサ21と、メモリ22と、ハードディスク装置23と、汎用インタフェース24と、表示制御部25と、光学ドライブ装置26は、バスを介して互いに接続されている。また、プロセッサ21と、メモリ22と、ハードディスク装置23と、汎用インタフェース24とは、映像編集装置10に含まれている。   The computer device 20 includes a processor 21, a memory 22, a hard disk device 23, a general-purpose interface 24, a display control unit 25, and an optical drive device 26. The processor 21, the memory 22, the hard disk device 23, the general-purpose interface 24, the display control unit 25, and the optical drive device 26 illustrated in FIG. 15 are connected to one another via a bus. The video editing device 10 includes a processor 21, a memory 22, a hard disk device 23, and a general-purpose interface 24.

上述した光学ドライブ装置26は、光ディスクなどのリムーバブルディスク27を装着可能であり、装着したリムーバブルディスク27に記録された情報の読出および記録を行う。また、表示制御部25は、表示装置5に接続されており、プロセッサ21は、例えば、表示制御部25を介して表示装置5に映像編集装置10によって生成された要約映像Vsを渡すことにより、要約映像Vsを利用者に提示することができる。   The optical drive device 26 described above can be mounted with a removable disk 27 such as an optical disk, and reads and records information recorded on the mounted removable disk 27. In addition, the display control unit 25 is connected to the display device 5, and the processor 21 passes the summary video Vs generated by the video editing device 10 to the display device 5 via the display control unit 25, for example. The summary video Vs can be presented to the user.

コンピュータ装置20は、上述した映像編集処理に先立って、汎用インタフェース24を介して部分映像抽出装置3から複数の部分映像Vpを受け取り、受け取った部分映像Vpをハードディスク装置23に設けた部分映像蓄積部231に蓄積しておいてもよい。また、コンピュータ装置20は、図示しない映像蓄積装置に蓄積された映像から、各物体が所定の撮影範囲を背景として移動する過程を撮影した箇所を各物体に対応する部分映像として抽出し、抽出した部分映像を部分映像蓄積部231に蓄積してもよい。   Prior to the above-described video editing process, the computer device 20 receives a plurality of partial videos Vp from the partial video extraction device 3 via the general-purpose interface 24, and a partial video storage unit provided in the hard disk device 23 with the received partial videos Vp. It may be stored in H.231. Further, the computer device 20 extracts, from the video stored in a video storage device (not shown), a portion where the process of moving each object with a predetermined shooting range as a background is extracted as a partial video corresponding to each object. The partial video may be stored in the partial video storage unit 231.

また、図15に示したハードディスク装置23において、要約映像保持部232は、図1に示した要約映像記憶装置4に相当する要素であり、映像編集処理の開始に先立って、上述した各部分映像Vpに含まれる画像の枚数分の背景となる画像を保持している。   In the hard disk device 23 shown in FIG. 15, the summary video holding unit 232 is an element corresponding to the summary video storage device 4 shown in FIG. 1, and each partial video described above prior to the start of the video editing process. As many background images as the number of images included in Vp are held.

また、ハードディスク装置23の容量の一部を物体情報保持部12に割り当てることもできる。なお、ハードディスク装置23に設けられた物体情報保持部12は、各物体領域に対応する物体情報の一部として、後述する処理で求められる縮小率を示す情報を保持することが望ましい。また、物体情報保持部12は、上述した各部分映像Vpの各画像から抽出された物体領域の画像を、例えば、各物体情報の一部として保持していてもよい。   A part of the capacity of the hard disk device 23 can also be allocated to the object information holding unit 12. Note that the object information holding unit 12 provided in the hard disk device 23 preferably holds information indicating a reduction rate obtained by processing to be described later as part of object information corresponding to each object region. Moreover, the object information holding | maintenance part 12 may hold | maintain the image of the object area | region extracted from each image of each partial image | video Vp mentioned above as a part of each object information, for example.

図15に例示したメモリ22は、コンピュータ装置20のオペレーティングシステムとともに、プロセッサ21が上述した映像編集処理を実行するためのアプリケーションプログラムを格納している。なお、上述した映像編集処理を実行するためのアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスク27に記録して頒布することができる。そして、このリムーバブルディスク27を光学ドライブ装置26に装着して読み込み処理を行うことにより、映像編集処理を実行するためのアプリケーションプログラムを、メモリ22およびハードディスク装置23に格納させてもよい。また、インターネットなどのネットワークに接続する通信装置(図示せず)を介して、映像編集処理を実行するためのアプリケーションプログラムをメモリ22およびハードディスク装置23に読み込ませることもできる。   The memory 22 illustrated in FIG. 15 stores an application program for the processor 21 to execute the above-described video editing process together with the operating system of the computer device 20. Note that an application program for executing the above-described video editing process can be recorded and distributed on a removable disk 27 such as an optical disk, for example. Then, an application program for executing video editing processing may be stored in the memory 22 and the hard disk device 23 by loading the removable disk 27 in the optical drive device 26 and performing read processing. In addition, an application program for executing video editing processing can be read into the memory 22 and the hard disk device 23 via a communication device (not shown) connected to a network such as the Internet.

図16は、映像編集処理のフローチャートの別例を示している。なお、図16に示したステップのうち、図10に示したステップと同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 16 shows another example of a flowchart of the video editing process. Of the steps shown in FIG. 16, the same steps as those shown in FIG.

図16に示したフローチャートは、図10に示したステップ305からステップ308の処理に代えて、ステップ311〜ステップ315の処理を行うことにより、図12に示した算出部14および相似変換処理部17の機能を実現している。つまり、図16に示したステップ311〜ステップ315を含む各処理は、映像編集処理のためのアプリケーションプログラムに含まれる処理の一例であり、本件開示の映像編集方法および映像編集プログラムの実施形態の一例である。また、上述したステップ311〜ステップ315を含む各処理は、プロセッサ21によって実行される。   The flowchart shown in FIG. 16 performs the processing of Step 311 to Step 315 instead of the processing of Step 305 to Step 308 shown in FIG. The function is realized. That is, each process including step 311 to step 315 illustrated in FIG. 16 is an example of a process included in the application program for the video editing process, and is an example of the video editing method and the video editing program according to the present disclosure. It is. Each process including the above-described steps 311 to 315 is executed by the processor 21.

プロセッサ21は、ステップ303の肯定判定ルート(YES)において、処理対象の物体領域と当該物体領域との間で重複する部分を持つ別の物体領域とのペアについて、ステップ311〜ステップ315の処理を実行する。なお、ステップ303の処理の際に、処理対象の物体領域について、上述した式(1)を満たす2つ以上の物体領域を検出した場合に、プロセッサ21は、重複する部分の面積が最も小さい物体領域のペアから順にステップ311〜ステップ315の処理を実行してもよい。また、以下の説明において、重複する部分を持つ物体領域のペアのうち、図13に示した座標系において、左上の頂点のy座標が小さいほうの物体領域を物体領域Raと称し、他方を物体領域Rbと称する。   The processor 21 performs the processing of step 311 to step 315 for a pair of the object region to be processed and another object region having an overlapping portion in the affirmative determination route (YES) of step 303. Run. When two or more object regions satisfying the above-described expression (1) are detected for the object region to be processed during the process of step 303, the processor 21 determines that the object with the smallest overlapping area is the object. You may perform the process of step 311-step 315 sequentially from the pair of area | regions. In the following description, the object region having the smaller y coordinate of the upper left vertex in the coordinate system shown in FIG. 13 among the pair of object regions having overlapping portions is referred to as the object region Ra, and the other is the object. This is referred to as region Rb.

ステップ311において、プロセッサ21は、2つの物体領域Ra,Rbそれぞれについて、図17に示すステップ321〜ステップ327の処理を実行することにより、各物体領域に適用する縮小率に関する制約条件を生成する。   In step 311, the processor 21 generates a constraint condition related to the reduction ratio applied to each object region by executing the processing of steps 321 to 327 shown in FIG. 17 for each of the two object regions Ra and Rb.

図17は、制約条件を生成する処理のフローチャートの例を示している。図17に示したステップ321〜ステップ327の処理は、図16に示したステップ311の処理の一例であり、これらの各ステップの処理は、図15に示したプロセッサ21によって実行される。   FIG. 17 shows an example of a flowchart of processing for generating a constraint condition. The processing of step 321 to step 327 shown in FIG. 17 is an example of the processing of step 311 shown in FIG. 16, and the processing of each of these steps is executed by the processor 21 shown in FIG.

プロセッサ21は、まず、物体領域Ra,Rbに対応する物体IDに基づいて、図15に示したハードディスク装置23に設けられた物体情報保持部12を参照することで、一つ前の画像において対応する物体領域に適用された縮小率を取得する(ステップ321)。例えば、画像番号jの画像が処理対象の画像である場合に、プロセッサ21は、画像番号j−1に対応して保持された物体情報のうち、処理対象の2つの物体領域Ra,Rbを示す物体IDに対応する物体情報を参照する。ここで、画像番号jの画像についての処理に先立って、画像番号j−1の画像についての処理が完了していれば、後述するようにして、各物体IDに対応する物体情報には、対応する物体領域に対してそれぞれ適用された縮小率を示す情報が追加されている。したがって、プロセッサ21は、画像番号j−1と上述した物体IDとに対応して物体情報保持部12に保持された物体情報を参照することで、処理対象の物体領域Ra,Rbに対応する2つの物体領域について前の画像の処理で適用された縮小率を取得できる。以下の説明では、処理対象の物体領域Ra,Rbに対応する2つの物体領域について前の画像の処理で適用された縮小率を、それぞれ縮小率βa,βbと称する。なお、画像番号1の画像が処理対象である場合に、プロセッサ21は、ステップ321の処理を省略し、縮小率βa,βbに数値「1」を設定してもよい。   First, the processor 21 refers to the object information holding unit 12 provided in the hard disk device 23 shown in FIG. 15 on the basis of the object IDs corresponding to the object regions Ra and Rb, so that the previous image can be handled. The reduction ratio applied to the object area to be acquired is acquired (step 321). For example, when the image with the image number j is an image to be processed, the processor 21 indicates two object regions Ra and Rb to be processed among the object information held corresponding to the image number j-1. Reference is made to object information corresponding to the object ID. Here, prior to the process for the image with the image number j, if the process for the image with the image number j-1 is completed, the object information corresponding to each object ID is handled as described later. Information indicating the reduction ratio applied to each object region is added. Therefore, the processor 21 refers to the object information held in the object information holding unit 12 corresponding to the image number j-1 and the above-described object ID, thereby corresponding to the object areas Ra and Rb to be processed. The reduction ratio applied in the processing of the previous image for one object region can be acquired. In the following description, the reduction ratios applied in the previous image processing for the two object areas corresponding to the object areas Ra and Rb to be processed are referred to as reduction ratios βa and βb, respectively. If the image with the image number 1 is the processing target, the processor 21 may omit the process of step 321 and set the numerical values “1” for the reduction ratios βa and βb.

次いで、プロセッサ21は、ステップ321の処理において取得した縮小率βa,βbに基づいて、縮小率の変動についての許容範囲を示す上限値および下限値を算出する(ステップ322)。プロセッサ21は、例えば、上述した縮小率βa,βbに対して、上述した所定の係数κを用いて表される係数(κ+1)、(κ―1)を乗じることで、縮小率の変動についての許容範囲の上限値および下限値をそれぞれ求めてもよい。   Next, the processor 21 calculates an upper limit value and a lower limit value indicating an allowable range for fluctuations in the reduction ratio, based on the reduction ratios βa and βb acquired in the process of step 321 (step 322). For example, the processor 21 multiplies the above-described reduction rates βa and βb by the coefficients (κ + 1) and (κ−1) expressed by using the above-described predetermined coefficient κ, so that the change in the reduction rate is changed. The upper limit value and the lower limit value of the allowable range may be obtained respectively.

次に、プロセッサ21は、ステップ322の処理で得られた許容範囲の下限値のそれぞれが、予め設定された縮小率の最小値αmin以上であるか否かを判定する(ステップ323)。   Next, the processor 21 determines whether or not each lower limit value of the allowable range obtained in the process of step 322 is equal to or larger than a preset minimum value αmin of the reduction rate (step 323).

上述した許容範囲の下限値の少なくとも一方が最小値αmin未満である場合に(ステップ323の否定判定)、プロセッサ21は、最小値αmin未満とされた下限値を最小値αminに置き換える(ステップ324)。プロセッサ21がステップ324の処理を実行することにより、各物体領域Ra,Rbに適用する縮小率の範囲の下限を、所定の最小値αminによって制限することができる。   When at least one of the lower limit values of the allowable range described above is less than the minimum value αmin (No determination in step 323), the processor 21 replaces the lower limit value that is less than the minimum value αmin with the minimum value αmin (step 324). . When the processor 21 executes the process of step 324, the lower limit of the range of the reduction ratio applied to each object region Ra, Rb can be limited by a predetermined minimum value αmin.

一方、上述したステップ323の肯定判定ルート(YES)では、プロセッサ21は、ステップ324の処理を省略する。ステップ323の肯定判定ルートと否定判定ルートの処理は、ステップ325において合流する。   On the other hand, in the affirmative determination route (YES) of step 323 described above, the processor 21 omits the process of step 324. The processing of the affirmative determination route and the negative determination route in step 323 merges in step 325.

ステップ325において、プロセッサ21は、ステップ322の処理で得られた許容範囲の上限値のそれぞれが、予め設定された縮小率の最大値である数値「1」以下であるか否かを判定する。   In step 325, the processor 21 determines whether or not each upper limit value of the allowable range obtained in the processing in step 322 is equal to or less than a numerical value “1” that is a preset maximum value of the reduction ratio.

上述した許容範囲の上限値の少なくとも一方が最大値「1」以上である場合に(ステップ325の否定判定)、プロセッサ21は、最大値「1」以上とされた上限値を最大値「1」に置き換える(ステップ326)。プロセッサ21がステップ326の処理を実行することにより、各物体領域Ra,Rbに適用する縮小率の範囲の上限を、所定の最大値「1」によって制限することができる。   When at least one of the upper limit values of the allowable range described above is equal to or greater than the maximum value “1” (No at Step 325), the processor 21 sets the upper limit value that is equal to or greater than the maximum value “1” to the maximum value “1”. (Step 326). By executing the processing of step 326 by the processor 21, the upper limit of the range of the reduction ratio applied to each object region Ra, Rb can be limited by a predetermined maximum value “1”.

一方、上述したステップ325の肯定判定ルート(YES)では、プロセッサ21は、ステップ326の処理を省略する。ステップ325の肯定判定ルートと否定判定ルートの処理は、ステップ327において合流する。   On the other hand, in the affirmative determination route (YES) of step 325 described above, the processor 21 omits the process of step 326. The processing of the affirmative determination route and the negative determination route in step 325 merges in step 327.

ステップ327において、プロセッサ21は、上述したようにして各物体領域Ra,Rbについて決定された縮小率の上限および下限を示す制約条件を出力し、制約条件を生成する処理を終了する。なお、プロセッサ21は、上述したステップ323およびステップ324の処理と、ステップ325およびステップ326の処理とを、図17に示した順序とは逆の順序で実行してもよい。   In step 327, the processor 21 outputs the constraint condition indicating the upper limit and the lower limit of the reduction rate determined for each of the object regions Ra and Rb as described above, and ends the process of generating the constraint condition. Note that the processor 21 may execute the processes in steps 323 and 324 and the processes in steps 325 and 326 in the order opposite to the order shown in FIG.

ステップ321〜ステップ327の処理をプロセッサ21が実行することにより、上述した式(10)に示すような制約条件を生成し、図16においてステップ313に示すパラメータの算出処理で得られる縮小率の値を制限することができる。   The processor 21 executes the processing from step 321 to step 327, thereby generating a constraint condition as shown in the above equation (10), and the reduction ratio value obtained by the parameter calculation processing shown in step 313 in FIG. Can be limited.

なお、プロセッサ21は、図16のステップ311において、上述したステップ321〜ステップ327の処理の代わりに、縮小率について、上述した最小値αminと最大値「1」で示される許容範囲を設定する制約条件を設定してもよい。また、プロセッサ21は、次に述べるステップ312の処理の後、あるいはステップ312の処理と並行して、上述した縮小率についての制約条件を生成する処理を実行してもよい。   In step 311 of FIG. 16, the processor 21 sets the allowable range indicated by the above-described minimum value αmin and the maximum value “1” for the reduction ratio, instead of the above-described processing in steps 321 to 327. Conditions may be set. Further, the processor 21 may execute the process of generating the above-described restriction condition for the reduction ratio after the process of step 312 described below or in parallel with the process of step 312.

図16に示したステップ312において、プロセッサ21は、2つの物体領域Ra,Rbが相似変換後に重複する部分の面積Sdと各物体領域についての重心の移動距離Da,Dbとを最小化する際に用いる評価式を求める。プロセッサ21は、例えば、図18に示すステップ331〜ステップ335の処理を実行することにより、ステップ312の処理を実行してもよい。   In step 312 shown in FIG. 16, the processor 21 minimizes the area Sd of the portion where the two object regions Ra and Rb overlap after similarity transformation and the center-of-gravity movement distances Da and Db for each object region. Find the evaluation formula to use. The processor 21 may execute the process of step 312 by executing the processes of step 331 to step 335 shown in FIG. 18, for example.

図18は、評価式を求める処理のフローチャートの例を示している。図18に示したステップ331〜ステップ335の処理は、図16に示したステップ312の処理の一例であり、これらの各ステップの処理は、図15に示したプロセッサ21によって実行される。   FIG. 18 shows an example of a flowchart of processing for obtaining an evaluation formula. The processing of Step 331 to Step 335 shown in FIG. 18 is an example of the processing of Step 312 shown in FIG. 16, and the processing of each of these steps is executed by the processor 21 shown in FIG.

まず、プロセッサ21は、処理対象の2つの物体領域Ra,Rbで重複している部分がそれぞれの物体領域Ra,Rbにおいて占める割合を算出する(ステップ331)。プロセッサ21は、物体情報保持部12に処理対象の物体領域Ra,Rbに対応して保持された物体情報に基づいて、各物体領域Ra,Rbの面積とともに重複する部分の面積を算出し、これらの面積の比として上述した割合を算出してもよい。また、プロセッサ21は、各物体領域Ra,Rbの幅あるいは高さなどの大きさを示す値と、重複する部分の大きさを示す値との比により、上述した割合を算出してもよい。   First, the processor 21 calculates the ratio of the overlapping portions in the two object areas Ra and Rb to be processed in the object areas Ra and Rb (step 331). The processor 21 calculates the areas of the overlapping portions together with the areas of the object regions Ra and Rb based on the object information held in the object information holding unit 12 corresponding to the object regions Ra and Rb to be processed. The ratio described above may be calculated as the area ratio. Further, the processor 21 may calculate the above-described ratio based on a ratio between a value indicating the size such as the width or height of each of the object regions Ra and Rb and a value indicating the size of the overlapping portion.

次に、プロセッサ21は、ステップ331で各物体領域Ra,Rbについて算出した割合と上述した所定の閾値とを比較し、少なくとも一方の割合が閾値以上であるか否かを判定する(ステップ332)。   Next, the processor 21 compares the ratio calculated for each of the object regions Ra and Rb in step 331 with the above-described predetermined threshold value, and determines whether at least one ratio is equal to or greater than the threshold value (step 332). .

各物体領域Ra,Rbについて算出した割合の少なくとも一方が上述した閾値以上である場合に(ステップ332の肯定判定)、プロセッサ21は、ステップ333の処理に進み、一方、ステップ332の否定判定の場合に、ステップ334の処理に進む。   When at least one of the ratios calculated for each of the object regions Ra and Rb is equal to or greater than the above-described threshold (affirmative determination in step 332), the processor 21 proceeds to the process of step 333, while on the other hand, in the case of a negative determination in step 332 Then, the process proceeds to step 334.

ステップ333において、プロセッサ21は、上述した面積Sdに適用する第1重みω1よりも重心の移動距離Da,Dbに適用する第2重みω2に大きい値を設定する。   In step 333, the processor 21 sets a larger value for the second weight ω2 applied to the movement distances Da and Db of the center of gravity than the first weight ω1 applied to the area Sd.

一方、プロセッサ21は、ステップ334において、逆に、重心の移動距離Da,Dbに適用する第2重みω2に、上述した面積Sdに適用する第1重みω1よりも大きい値を設定する。   On the other hand, in step 334, the processor 21 sets a value larger than the first weight ω1 applied to the above-described area Sd as the second weight ω2 applied to the movement distances Da and Db of the center of gravity.

上述したステップ333あるいはステップ334の処理の終了後に、プロセッサ21は、ステップ335の処理に進む。また、ステップ335において、プロセッサ21は、いずれかの処理によって値が設定された第1重みω1および第2重みω2を用いて、上述した面積Sdと重心の移動距離Da,Dbとの最小化に関する評価式を生成し、生成した評価式を出力する。   After completion of the processing in step 333 or 334 described above, the processor 21 proceeds to processing in step 335. In step 335, the processor 21 uses the first weight ω <b> 1 and the second weight ω <b> 2 whose values are set by any one of the processes to minimize the area Sd and the movement distances Da and Db of the center of gravity. An evaluation expression is generated and the generated evaluation expression is output.

次に、プロセッサ21は、上述したステップ312の処理で生成された評価式に基づき、また、ステップ311の処理で得られた制約条件の範囲で、各物体領域Ra,Rbについて、最適な相似変換のパラメータを算出する(ステップ313)。プロセッサ21は、例えば、図19に示すステップ341〜ステップ344の処理を実行することにより、最適な相似変換のパラメータを算出する処理を実行してもよい。   Next, the processor 21 performs optimal similarity transformation for each of the object regions Ra and Rb based on the evaluation formula generated in the process of step 312 described above and within the range of the constraint condition obtained in the process of step 311. Are calculated (step 313). For example, the processor 21 may execute the process of calculating the optimal similarity transformation parameter by executing the processes of Steps 341 to 344 shown in FIG. 19.

図19は、相似変換のパラメータを算出する処理のフローチャートの例を示している。図19に示したステップ341〜ステップ344の処理は、図16に示したステップ313の処理の一例であり、これらの各ステップの処理は、図15に示したプロセッサ21によって実行される。   FIG. 19 shows an example of a flowchart of processing for calculating parameters for similarity transformation. The process of Step 341 to Step 344 shown in FIG. 19 is an example of the process of Step 313 shown in FIG. 16, and the process of each of these steps is executed by the processor 21 shown in FIG.

まず、プロセッサ21は、上述したステップ311の処理で生成した縮小率αa,αbについての制約条件および基準点Ua,Ubの移動量dxa,dya,dab,dybについての制約条件の下で、パレート解の集合を求める(ステップ341)。ここで、基準点Ua,Ubの移動量dxa,dya,dxb,dybについての制約条件は、例えば、元の物体領域Ra,Rbの範囲を示すように設定してもよい。プロセッサ21は、例えば、上述した制約条件で示される範囲内で、各物体領域Ra,Rbの縮小率αa,αbおよび基準点Ua,Ubの移動量dxa,dya,dxb,dybを変化させながら、上述した面積Sdおよび重心の移動距離Da,Dbを算出する。プロセッサ21は、例えば、面積Sdを増大させない限り移動距離Daを短縮できない限界となる縮小率αaと基準点Uaの移動量dxa,dyaの組み合わせとして、物体領域Raに関する相似変換のパラメータについてのパレート解を求めればよい。同様にして、プロセッサ21は、物体領域Rbについての相似変換のパラメータについてのパレート解を求めることができる。   First, the processor 21 performs the Pareto solution under the constraint conditions for the reduction ratios αa and αb and the movement amounts dxa, dya, dab, and dyb of the reference points Ua and Ub generated in the process of step 311 described above. Is obtained (step 341). Here, the constraint conditions for the movement amounts dxa, dya, dxb, dyb of the reference points Ua, Ub may be set so as to indicate the ranges of the original object regions Ra, Rb, for example. For example, the processor 21 changes the reduction rates αa and αb of the object regions Ra and Rb and the movement amounts dxa, dya, dxb, and dyb of the reference points Ua and Ub within the range indicated by the above-described constraints. The area Sd and the movement distances Da and Db of the center of gravity are calculated. The processor 21, for example, uses the Pareto solution for the similarity transformation parameter for the object region Ra as a combination of the reduction rate αa and the movement amounts dxa and dya of the reference point Ua, which is the limit that the movement distance Da cannot be shortened unless the area Sd is increased. You can ask for. Similarly, the processor 21 can obtain a Pareto solution for the similarity transformation parameter for the object region Rb.

次に、プロセッサ21は、図14に示したようなパレート解の集合を示すグラフVと、上述したステップ312の処理で求めた評価式との接点を求める(ステップ342)。プロセッサ21は、上述したステップ341の処理で例えば物体領域Raに対応して求めた各パレート解で与えられる面積Sdおよび重心の移動距離Daを、図14に示したような座標空間にプロットすることで、パレート解の集合を表すグラフVを得ることができる。プロセッサ21は、このようにして得られた物体領域Raについてのパレート解を示すグラフVと、ステップ312の処理で求めた評価式を示す直線のグラフとの接点を求めればよい。同様にして、プロセッサ21は、物体領域Rbについてのパレート解を示すグラフVと、ステップ312の処理で求めた評価式を示す直線のグラフとの接点を求めることができる。   Next, the processor 21 obtains a contact point between the graph V indicating the set of Pareto solutions as shown in FIG. 14 and the evaluation formula obtained in the processing of step 312 described above (step 342). The processor 21 plots the area Sd and the center-of-gravity movement distance Da given by each Pareto solution obtained, for example, corresponding to the object region Ra in the processing of step 341 described above in the coordinate space as shown in FIG. Thus, a graph V representing a set of Pareto solutions can be obtained. The processor 21 may obtain a contact point between the graph V indicating the Pareto solution for the object region Ra thus obtained and the straight line graph indicating the evaluation formula obtained in the process of step 312. Similarly, the processor 21 can obtain a contact point between the graph V indicating the Pareto solution for the object region Rb and the straight line graph indicating the evaluation formula obtained in the process of step 312.

次いで、プロセッサ21は、ステップ342の処理で各物体領域Ra,Rbについて得られた接点のパレート解で示されるパラメータを、2つの物体領域Ra,Rbそれぞれに適用する最適な相似変換を示すパラメータとして出力する(ステップ343)。プロセッサ21は、例えば、物体領域Raについて得られたパレート解の集合を示すグラフVと評価式を示すグラフとの接点で示される面積Sdおよび重心の移動距離Daを与える縮小率αaと移動量dxa,dyaとを最適なパラメータとして出力する。同様にして、プロセッサ21は、物体領域Rbについて得られたパレート解の集合を示すグラフVと評価式を示すグラフとの接点で示される縮小率αbと移動量dxb,dybとを最適なパラメータとして出力する。   Next, the processor 21 uses the parameters indicated by the Pareto solution of the contact points obtained for the object regions Ra and Rb in the process of step 342 as parameters indicating the optimum similarity transformation applied to the two object regions Ra and Rb, respectively. Output (step 343). For example, the processor 21 reduces the reduction rate αa and the movement amount dxa that gives the area Sd and the movement distance Da of the center of gravity indicated by the contact point between the graph V indicating the set of Pareto solutions obtained for the object region Ra and the graph indicating the evaluation formula. , Dya are output as optimum parameters. Similarly, the processor 21 uses the reduction rate αb and the movement amounts dxb and dyb indicated by the contact points between the graph V indicating the set of Pareto solutions obtained for the object region Rb and the graph indicating the evaluation formula as optimum parameters. Output.

また、プロセッサ21は、上述したステップ342の処理で特定された最適なパラメータに含まれる縮小率αa,αbを、各物体領域Ra,Rbに対応する物体情報に追加する(ステップ344)。例えば、プロセッサ21は、最適なパラメータの一部として特定された縮小率αa,αbを上述した物体情報保持部12に渡し、処理対象の画像を示す画像番号と物体領域Ra,Rbを示す物体IDとで示される物体情報にそれぞれ追加すればよい。   In addition, the processor 21 adds the reduction ratios αa and αb included in the optimum parameters identified in the processing of step 342 described above to the object information corresponding to the object regions Ra and Rb (step 344). For example, the processor 21 passes the reduction ratios αa and αb specified as part of the optimum parameters to the object information holding unit 12 described above, and the image number indicating the image to be processed and the object ID indicating the object regions Ra and Rb. It is only necessary to add to the object information indicated by.

このように、プロセッサ21は、要約映像Vsの処理対象の画像に、各部分映像Vpの同一の画像番号で示される画像からそれぞれ抽出された各物体領域に対応して最適なパラメータを特定するごとに、各パラメータに含まれる縮小率を対応する物体情報に追加する。これにより、プロセッサ21は、以降の処理において、図16のステップ311の処理を実行する際に、物体情報保持部12に保持された物体情報から、処理対象の画像よりも前の画像に各物体領域を重ね合わせる際に適用された縮小率を取得することができる。   As described above, every time the processor 21 specifies an optimum parameter corresponding to each object region extracted from the image indicated by the same image number of each partial video Vp as the processing target image of the summary video Vs. In addition, the reduction ratio included in each parameter is added to the corresponding object information. Thereby, in the subsequent processing, when executing the processing of step 311 in FIG. 16, the processor 21 converts each object from the object information held in the object information holding unit 12 to an image before the processing target image. It is possible to acquire the reduction ratio applied when the areas are overlapped.

その後、プロセッサ21は、図16に示したステップ314において、上述したようにして得られた最適なパラメータを適用した相似変換を各物体領域Ra,Rbについて実行する。プロセッサ21は、ステップ314の処理で、物体情報保持部12に保持された各物体領域Ra,Rbの画像に対して上述した相似変換を行うことで、対応する2つの物体の像を縮小するとともに、これらの物体の像が画像において占める位置を移動させる。これにより、物体領域Ra,Rbに対応する2つの物体の画像における位置を保存しながら、各物体の像の重なりを最小化することができる。   Thereafter, in step 314 shown in FIG. 16, the processor 21 executes similarity transformation to each of the object regions Ra and Rb by applying the optimum parameter obtained as described above. The processor 21 reduces the corresponding two object images by performing the above-described similarity transformation on the images of the object regions Ra and Rb held in the object information holding unit 12 in the processing of step 314. The position occupied by the images of these objects in the image is moved. Accordingly, it is possible to minimize the overlap of the images of the respective objects while preserving the positions in the images of the two objects corresponding to the object regions Ra and Rb.

このようにして各物体領域Ra,Rbについての相似変換の結果として得られた画像を、プロセッサ21は、図15に示した要約映像保持部232に保持された処理対象の画像にそれぞれ重畳する(ステップ315)。プロセッサ21は、処理対象の画像を示す画像番号に対応して要約映像保持部232に保持された画像に、ステップ314の処理で得られた相似変換後の物体領域の画像を重ね合わせればよい。   In this way, the processor 21 superimposes the images obtained as a result of the similarity transformation for the object regions Ra and Rb on the processing target images held in the summary video holding unit 232 shown in FIG. Step 315). The processor 21 may superimpose the image of the object region after the similarity transformation obtained in the process of step 314 on the image held in the summary video holding unit 232 corresponding to the image number indicating the image to be processed.

また、プロセッサ21は、上述したようにして物体領域Ra,Rbについて得られた相似変換結果を、物体情報保持部12に保持された対応する物体情報に反映させ、処理対象の画像に含まれる他の物体領域についてステップ303の処理の際に利用してもよい。   In addition, the processor 21 reflects the similarity conversion result obtained for the object regions Ra and Rb as described above in the corresponding object information held in the object information holding unit 12, and is included in the image to be processed. May be used in the process of step 303.

以上に説明した本件開示の映像編集プログラムをプロセッサ21が実行することにより、各物体の移動過程を撮影した部分映像Vpから、これらの物体の属性とともに忠実な移動経路を一括して再現する要約映像Vsを生成することができる。しかも、上述した処理で得られた要約映像Vsにおいては、時系列的に連続する各画像における各物体の像の大きさの変化が抑制されており、また、各物体の像の大きさがそれぞれの物体の属性を把握できる程度に維持されている。また、図18に示したように、処理対象の物体領域の位置関係に応じて、評価式の重みを制御することにより、複数の物体の動線が同じタイミングで同一の箇所を通る場合にも、元の部分映像における各物体の位置を要約映像Vsの画像における位置に反映できる。   By executing the video editing program of the present disclosure described above by the processor 21, a summary video that reproduces a faithful movement route together with the attributes of these objects from the partial video Vp obtained by photographing the movement process of each object. Vs can be generated. In addition, in the summary video Vs obtained by the above-described processing, the change in the size of each object in each time-sequential image is suppressed, and the size of each object image is the same. It is maintained to the extent that the attributes of the object can be grasped. Also, as shown in FIG. 18, by controlling the weight of the evaluation formula according to the positional relationship of the object areas to be processed, even when the flow lines of a plurality of objects pass through the same part at the same timing The position of each object in the original partial video can be reflected in the position of the summary video Vs image.

以上の詳細な説明により、実施形態の特徴点及び利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で、前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、上述の説明に基づいて、様々な改良および変更を容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。   From the above detailed description, features and advantages of the embodiment will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Moreover, those who have ordinary knowledge in the technical field should be able to easily conceive various improvements and changes based on the above description. Therefore, there is no intention to limit the scope of the inventive embodiments to those described above, and appropriate modifications and equivalents included in the scope disclosed in the embodiments can be used.

以上の説明に関して、更に、以下の各項を開示する。
(付記1)
所定の箇所を背景とした各物体の移動過程を表す複数の映像を受け、前記各映像に含まれる各画像において、前記各物体の像を含む物体領域を特定する特定部と、
前記各映像の先頭からの相対時間が同じ画像を重ね合わせることで生成される要約映像中の各画像において、前記物体にそれぞれ対応する前記物体領域が互いに重複している部分を検出する検出部と、
前記各物体領域において、前記重複している部分から離れている頂点を基準として縮小することで、前記重複している部分を小さくするための縮小率を求める算出部と、
前記算出部で得られた縮小率で縮小した前記各物体領域の重心位置が、前記各物体領域の前記縮小前の重心位置に近くなるように、前記物体領域の位置を調整する調整部と
を備えたことを特徴とする映像編集装置。
(付記2)
付記1に記載の映像編集装置において、
前記算出部は、
前記2つの物体領域の重複する部分が前記2つの物体領域それぞれにおいて占める割合が所定の閾値よりも小さい場合に、前記2つの物体領域それぞれの縮小前後での重心位置の移動距離の短縮よりも、前記重複する部分の面積の縮小を優先して実現するための前記縮小率と前記各物体領域の位置の調整量とを求め、
前記割合の少なくとも一方が前記所定の閾値以上である場合に、前記重複する部分の面積の縮小よりも、前記重心位置の移動距離の短縮を優先して実現するための前記縮小率と前記各物体領域の位置の調整量とを求める
ことを特徴とする映像編集装置。
(付記3)
付記2に記載の映像編集装置において、
前記算出部は、
前記重複する部分の面積と所定の第1重みとの積と、前記重心位置の移動距離と所定の第2重みとの積との和を最小化するように、前記縮小率と前記各物体領域の位置についての調整量とを決定する決定部と、
前記2つの物体領域の重複する部分が前記2つの物体領域それぞれにおいて占める割合が所定の閾値よりも小さい場合に、前記第1重みに前記第2重みよりも大きい値を設定し、前記割合の少なくとも一方が前記所定の閾値以上である場合に、前記第2重みに前記第1重みよりも大きい値を設定する設定部とを有する
ことを特徴とする映像編集装置。
(付記4)
付記1乃至付記3のいずれか1に記載の映像編集装置において、
前記算出部は、
前記各物体領域に適用する縮小率を、所定の最大値と所定の最小値とで示される範囲内の値となるようにそれぞれ求める
ことを特徴とする映像編集装置。
(付記5)
付記1乃至付記4のいずれか1に記載の映像編集装置において、
算出部は、
前記要約映像において時系列的に連続する前記画像に含まれる同じ物体の像の大きさの変動を抑制するように、前記各物体領域に適用する縮小率を求める
ことを特徴とする映像編集装置。
(付記6)
所定の箇所を背景とした各物体の移動過程を表す複数の映像を受け、前記各映像に含まれる各画像において、前記各物体の像を含む物体領域を特定し、
前記各映像の先頭からの相対時間が同じ画像を重ね合わせることで生成される要約映像中の各画像において、前記物体にそれぞれ対応する前記物体領域が互いに重複している部分を検出し、
前記各物体領域において、前記重複している部分から離れている頂点を基準として縮小することで、前記重複している部分を小さくするための縮小率を求め、
前記算出部で得られた縮小率で縮小した前記各物体領域の重心位置が、前記各物体領域の前記縮小前の重心位置に近くなるように、前記物体領域の位置を調整する
ことを特徴とする映像編集方法。
(付記7)
所定の箇所を背景とした各物体の移動過程を表す複数の映像を受け、前記各映像に含まれる各画像において、前記各物体の像を含む物体領域を特定し、
前記各映像の先頭からの相対時間が同じ画像を重ね合わせることで生成される要約映像中の各画像において、前記物体にそれぞれ対応する前記物体領域が互いに重複している部分を検出し、
前記各物体領域において、前記重複している部分から離れている頂点を基準として縮小することで、前記重複している部分を小さくするための縮小率を求め、
前記算出部で得られた縮小率で縮小した前記各物体領域の重心位置が、前記各物体領域の前記縮小前の重心位置に近くなるように、前記物体領域の位置を調整する
処理をコンピュータに実行させることを特徴とする映像編集プログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
Receiving a plurality of videos representing a movement process of each object with a predetermined background as a background, and in each image included in each video, a specifying unit for specifying an object region including the image of each object;
A detecting unit for detecting a portion in which each of the object regions corresponding to the object overlaps each other in each of the images in the summary video generated by superimposing images having the same relative time from the beginning of each video; ,
In each of the object regions, a calculation unit that obtains a reduction ratio for reducing the overlapping part by reducing the vertex from the overlapping part as a reference; and
An adjustment unit that adjusts the position of the object region so that the gravity center position of each object region reduced by the reduction ratio obtained by the calculation unit is close to the gravity center position of each object region before the reduction. A video editing apparatus characterized by comprising.
(Appendix 2)
In the video editing apparatus according to attachment 1,
The calculation unit includes:
When the ratio of the overlapping parts of the two object areas in each of the two object areas is smaller than a predetermined threshold, rather than shortening the moving distance of the center of gravity position before and after the reduction of each of the two object areas, Obtaining the reduction ratio and the amount of adjustment of the position of each object region in order to realize the reduction of the area of the overlapping portion with priority,
When at least one of the ratios is equal to or greater than the predetermined threshold, the reduction ratio and each object for realizing the reduction of the movement distance of the center of gravity position with priority over the reduction of the area of the overlapping portion A video editing apparatus characterized by obtaining an adjustment amount of a position of an area.
(Appendix 3)
In the video editing apparatus described in appendix 2,
The calculation unit includes:
The reduction ratio and each object region are minimized so as to minimize the sum of the product of the area of the overlapping portion and a predetermined first weight, and the product of the movement distance of the barycentric position and the predetermined second weight. A determination unit for determining an adjustment amount for the position of
When the ratio of the overlapping part of the two object areas in each of the two object areas is smaller than a predetermined threshold, the first weight is set to a value larger than the second weight, and at least the ratio A video editing apparatus comprising: a setting unit that sets a value greater than the first weight for the second weight when one of the predetermined threshold values is greater than or equal to the predetermined threshold.
(Appendix 4)
In the video editing apparatus according to any one of supplementary notes 1 to 3,
The calculation unit includes:
An image editing apparatus, wherein a reduction ratio to be applied to each object region is determined to be a value within a range indicated by a predetermined maximum value and a predetermined minimum value.
(Appendix 5)
In the video editing apparatus according to any one of appendix 1 to appendix 4,
The calculation unit
A video editing apparatus that obtains a reduction ratio to be applied to each object region so as to suppress variation in the size of an image of the same object included in the images that are continuous in time series in the summary video.
(Appendix 6)
Receiving a plurality of videos representing the movement process of each object with a predetermined background as a background, in each image included in each video, specify the object region including the image of each object,
In each image in the summary video generated by superimposing images having the same relative time from the beginning of each video, a portion where the object regions corresponding to the objects overlap each other is detected,
In each object region, by reducing with respect to the vertex that is away from the overlapping portion as a reference, to obtain a reduction rate to reduce the overlapping portion,
Adjusting the position of the object region so that the gravity center position of each object region reduced by the reduction ratio obtained by the calculation unit is close to the gravity center position of each object region before the reduction. How to edit video.
(Appendix 7)
Receiving a plurality of videos representing the movement process of each object with a predetermined background as a background, in each image included in each video, specify the object region including the image of each object,
In each image in the summary video generated by superimposing images having the same relative time from the beginning of each video, a portion where the object regions corresponding to the objects overlap each other is detected,
In each object region, by reducing with respect to the vertex that is away from the overlapping portion as a reference, to obtain a reduction rate to reduce the overlapping portion,
The computer adjusts the position of the object region so that the gravity center position of each object region reduced by the reduction ratio obtained by the calculation unit is close to the gravity center position of each object region before the reduction. A video editing program characterized by being executed.

1…撮影装置;2…映像蓄積装置;3…動き映像抽出装置;4…要約映像記憶装置;5…表示装置;10…映像編集装置;11…特定部;12…物体情報保持部;13…検出部;14…算出部;15…縮小部;16…調整部;17…相似変換処理部;141…割合算出部;142…設定部;143…条件生成部;144…決定部;20…コンピュータ装置;21…プロセッサ;22…メモリ;23…ハードディスク装置;24…汎用インタフェース;25…表示制御部;26…光学ドライブ装置;27…リムーバブルディスク

DESCRIPTION OF SYMBOLS 1 ... Shooting device; 2 ... Video storage device; 3 ... Motion video extraction device; 4 ... Summary video storage device; 5 ... Display device; 10 ... Video editing device; 11 ... Specific part; Detection unit; 14 ... calculation unit; 15 ... reduction unit; 16 ... adjustment unit; 17 ... similarity conversion processing unit; 141 ... ratio calculation unit; 142 ... setting unit; 143 ... condition generation unit; 21; Processor; 22 ... Memory; 23 ... Hard disk device; 24 ... General-purpose interface; 25 ... Display control unit; 26 ... Optical drive device; 27 ... Removable disk

Claims (5)

所定の箇所を背景とした各物体の移動過程を表す複数の映像を受け、前記各映像に含まれる各画像において、前記各物体の像を含む物体領域を特定する特定部と、
前記各映像の先頭からの相対時間が同じ画像を重ね合わせることで生成される要約映像中の各画像において、前記物体にそれぞれ対応する前記物体領域が互いに重複している部分を検出する検出部と、
前記各物体領域において、前記重複している部分から離れている頂点を基準として縮小することで、前記重複している部分を小さくするための縮小率を求める算出部と、
前記算出部で得られた縮小率で縮小した前記各物体領域の重心位置が、前記各物体領域の前記縮小前の重心位置に近くなるように、前記物体領域の位置を調整する調整部と
を備えたことを特徴とする映像編集装置。
Receiving a plurality of videos representing a movement process of each object with a predetermined background as a background, and in each image included in each video, a specifying unit for specifying an object region including the image of each object;
A detecting unit for detecting a portion in which each of the object regions corresponding to the object overlaps each other in each of the images in the summary video generated by superimposing images having the same relative time from the beginning of each video; ,
In each of the object regions, a calculation unit that obtains a reduction ratio for reducing the overlapping part by reducing the vertex from the overlapping part as a reference; and
An adjustment unit that adjusts the position of the object region so that the gravity center position of each object region reduced by the reduction ratio obtained by the calculation unit is close to the gravity center position of each object region before the reduction. A video editing apparatus characterized by comprising.
請求項1に記載の映像編集装置において、
前記算出部は、
前記2つの物体領域の重複する部分が前記2つの物体領域それぞれにおいて占める割合が所定の閾値よりも小さい場合に、前記2つの物体領域それぞれの縮小前後での重心位置の移動距離の短縮よりも、前記重複する部分の面積の縮小を優先して実現するための前記縮小率と前記各物体領域の位置の調整量とを求め、
前記割合の少なくとも一方が前記所定の閾値以上である場合に、前記重複する部分の面積の縮小よりも、前記重心位置の移動距離の短縮を優先して実現するための前記縮小率と前記各物体領域の位置の調整量とを求める
ことを特徴とする映像編集装置。
The video editing apparatus according to claim 1,
The calculation unit includes:
When the ratio of the overlapping parts of the two object areas in each of the two object areas is smaller than a predetermined threshold, rather than shortening the moving distance of the center of gravity position before and after the reduction of each of the two object areas, Obtaining the reduction ratio and the amount of adjustment of the position of each object region in order to realize the reduction of the area of the overlapping portion with priority,
When at least one of the ratios is equal to or greater than the predetermined threshold, the reduction ratio and each object for realizing the reduction of the movement distance of the center of gravity position with priority over the reduction of the area of the overlapping portion A video editing apparatus characterized by obtaining an adjustment amount of a position of an area.
請求項2に記載の映像編集装置において、
前記算出部は、
前記重複する部分の面積と所定の第1重みとの積と、前記重心位置の移動距離と所定の第2重みとの積との和を最小化するように、前記縮小率と前記各物体領域の位置についての調整量とを決定する決定部と、
前記2つの物体領域の重複する部分が前記2つの物体領域それぞれにおいて占める割合が前記所定の閾値よりも小さい場合に、前記第1重みに前記第2重みよりも大きい値を設定し、前記割合の少なくとも一方が前記所定の閾値以上である場合に、前記第2重みに前記第1重みよりも大きい値を設定する設定部とを有する
ことを特徴とする映像編集装置。
The video editing apparatus according to claim 2, wherein
The calculation unit includes:
The reduction ratio and each object region are minimized so as to minimize the sum of the product of the area of the overlapping portion and a predetermined first weight, and the product of the movement distance of the barycentric position and the predetermined second weight. A determination unit for determining an adjustment amount for the position of
Wherein when the ratio of overlapping portions of the two object region occupied in each of the two object region is smaller than the predetermined threshold, a value greater than the second weight to the first weight, the ratio A video editing apparatus, comprising: a setting unit configured to set a value greater than the first weight for the second weight when at least one is equal to or greater than the predetermined threshold.
所定の箇所を背景とした各物体の移動過程を表す複数の映像を受け、前記各映像に含まれる各画像において、前記各物体の像を含む物体領域を特定し、
前記各映像の先頭からの相対時間が同じ画像を重ね合わせることで生成される要約映像中の各画像において、前記物体にそれぞれ対応する前記物体領域が互いに重複している部分を検出し、
前記各物体領域において、前記重複している部分から離れている頂点を基準として縮小することで、前記重複している部分を小さくするための縮小率を求め、
求められた縮小率で縮小した前記各物体領域の重心位置が、前記各物体領域の前記縮小前の重心位置に近くなるように、前記物体領域の位置を調整する
ことを特徴とする映像編集方法。
Receiving a plurality of videos representing the movement process of each object with a predetermined background as a background, in each image included in each video, specify the object region including the image of each object,
In each image in the summary video generated by superimposing images having the same relative time from the beginning of each video, a portion where the object regions corresponding to the objects overlap each other is detected,
In each object region, by reducing with respect to the vertex that is away from the overlapping portion as a reference, to obtain a reduction rate to reduce the overlapping portion,
Adjusting the position of the object region so that the gravity center position of each object region reduced at the obtained reduction ratio is close to the gravity center position of each object region before the reduction. .
所定の箇所を背景とした各物体の移動過程を表す複数の映像を受け、前記各映像に含まれる各画像において、前記各物体の像を含む物体領域を特定し、
前記各映像の先頭からの相対時間が同じ画像を重ね合わせることで生成される要約映像中の各画像において、前記物体にそれぞれ対応する前記物体領域が互いに重複している部分を検出し、
前記各物体領域において、前記重複している部分から離れている頂点を基準として縮小することで、前記重複している部分を小さくするための縮小率を求め、
求められた縮小率で縮小した前記各物体領域の重心位置が、前記各物体領域の前記縮小前の重心位置に近くなるように、前記物体領域の位置を調整する
処理をコンピュータに実行させることを特徴とする映像編集プログラム。
Receiving a plurality of videos representing the movement process of each object with a predetermined background as a background, in each image included in each video, specify the object region including the image of each object,
In each image in the summary video generated by superimposing images having the same relative time from the beginning of each video, a portion where the object regions corresponding to the objects overlap each other is detected,
In each object region, by reducing with respect to the vertex that is away from the overlapping portion as a reference, to obtain a reduction rate to reduce the overlapping portion,
Causing the computer to execute a process of adjusting the position of the object region so that the gravity center position of each object region reduced at the obtained reduction ratio is close to the gravity center position of each object region before the reduction. Feature video editing program.
JP2012264986A 2012-12-04 2012-12-04 Video editing apparatus, video editing method, and video editing program Active JP5994612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012264986A JP5994612B2 (en) 2012-12-04 2012-12-04 Video editing apparatus, video editing method, and video editing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012264986A JP5994612B2 (en) 2012-12-04 2012-12-04 Video editing apparatus, video editing method, and video editing program

Publications (2)

Publication Number Publication Date
JP2014110582A JP2014110582A (en) 2014-06-12
JP5994612B2 true JP5994612B2 (en) 2016-09-21

Family

ID=51030957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012264986A Active JP5994612B2 (en) 2012-12-04 2012-12-04 Video editing apparatus, video editing method, and video editing program

Country Status (1)

Country Link
JP (1) JP5994612B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018083793A1 (en) * 2016-11-07 2018-05-11 日本電気株式会社 Information processing device, control method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0620497B1 (en) * 2005-11-15 2018-09-25 Yissum Research Development Company Of The Hebrew Univ Of Jerusalem method for creating a video synopsis, and system for transforming a source sequence of video frames from a first dynamic scene into a synopsis sequence of at least two video frames illustrating a second dynamic scene.
JP5213123B2 (en) * 2009-01-15 2013-06-19 株式会社日立製作所 Video output method and video output device
JP5385059B2 (en) * 2009-09-07 2014-01-08 株式会社ニコンシステム Image display method, program, image display apparatus, and imaging apparatus

Also Published As

Publication number Publication date
JP2014110582A (en) 2014-06-12

Similar Documents

Publication Publication Date Title
US10445694B2 (en) Realtime inventory tracking using deep learning
US10474991B2 (en) Deep learning-based store realograms
US11023850B2 (en) Realtime inventory location management using deep learning
US20220147913A1 (en) Inventory tracking system and method that identifies gestures of subjects holding inventory items
US20220188760A1 (en) Identifying inventory items using multiple confidence levels
WO2019032306A9 (en) Predicting inventory events using semantic diffing
WO2020023795A1 (en) Realtime inventory tracking using deep learning
WO2020023796A2 (en) Realtime inventory location management using deep learning
EP3827391A1 (en) Deep learning-based store realograms
WO2020023799A1 (en) Product correlation analysis using deep learning
JP5893166B2 (en) Method and apparatus for 3D model morphing
US11282543B2 (en) Real-time face and object manipulation
KR20180078115A (en) Method and apparatus for processing image
US10791321B2 (en) Constructing a user&#39;s face model using particle filters
US10467822B2 (en) Reducing collision-based defects in motion-stylization of video content depicting closely spaced features
JP5994612B2 (en) Video editing apparatus, video editing method, and video editing program
US20230177883A1 (en) Computer-aided identification of ergonomic risk
CN112085223A (en) Guidance system and method for mechanical maintenance
CN116820251B (en) Gesture track interaction method, intelligent glasses and storage medium
KR20230173716A (en) How to process data representing three-dimensional volumetric scenes
CN117218231A (en) Training method, system, equipment and medium for block type generation of human face IR graph model
CN115494958A (en) Hand-object interaction image generation method, system, equipment and storage medium
JP2016024720A (en) Image division device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160808

R150 Certificate of patent or registration of utility model

Ref document number: 5994612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150