JP2010232814A - Video editing program, and video editing device - Google Patents

Video editing program, and video editing device Download PDF

Info

Publication number
JP2010232814A
JP2010232814A JP2009076109A JP2009076109A JP2010232814A JP 2010232814 A JP2010232814 A JP 2010232814A JP 2009076109 A JP2009076109 A JP 2009076109A JP 2009076109 A JP2009076109 A JP 2009076109A JP 2010232814 A JP2010232814 A JP 2010232814A
Authority
JP
Japan
Prior art keywords
video
editing
person
image
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009076109A
Other languages
Japanese (ja)
Inventor
Keiichi Nitta
啓一 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009076109A priority Critical patent/JP2010232814A/en
Publication of JP2010232814A publication Critical patent/JP2010232814A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To determine whether video is appropriate as an object to be edited before editing the video. <P>SOLUTION: Image data of a predesignated person or object is compared with a frame image constituting video to find the person or object in the video (S4). A state with the person or object reflected in the video is detected based on the search result (S7). Based on the state with the person or object reflected in the video, propriety of editing the video with the person or object centered is determined (S7). <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、映像編集プログラムおよび映像編集装置に関する。   The present invention relates to a video editing program and a video editing apparatus.

各種テーマやイベントに相応しい映像を撮影するために、テーマやイベントの種類に応じた一連の撮影指示命令群を撮影装置に与え、撮影者にその撮影命令群にしたがって撮影を行わせるようにした動画シーケンス合成用ディジタルビデオシステムが知られている。   In order to shoot video suitable for various themes and events, a series of shooting instruction commands according to the theme and event type is given to the camera, and the photographer is allowed to perform shooting according to the shooting commands. Digital video systems for sequence synthesis are known.

特表2007−529951号公報Special table 2007-529951 gazette

上述したシステムによれば、あたかもイベントごとの脚本に沿ってプロのカメラマンが撮影したような見栄えのよい映像を撮影することができるが、一連の撮影指示命令群にしたがって撮影を行わなければならず、非常に煩雑で煩わしい上に、場合によってはイベント自体の流れを一連の撮影指示命令群に合わせなければならない可能性もあり、イベントの盛り上がりを妨げるおそれもある。
そこで、撮像された映像からイベントを識別し、そのイベントに応じたシナリオにしたがって自動的に映像を編集することが考えられるが、編集した映像が必ずしも視聴者に喜ばれるとは限らない。視聴者に身近な人物が長く登場する映像、例えば運動会で視聴者の子供が主人公として活躍する映像であれば視聴者は興味を持つが、知らない子供が多く登場する映像にはすぐに飽きてしまう。したがって、視聴者に興味のある人あるいは物が頻繁に登場するような映像を編集対象とする必要がある。
According to the above-described system, it is possible to shoot a good-looking image as if a professional photographer shoots along the script for each event, but it must shoot according to a series of shooting instruction commands. In addition, it is very cumbersome and troublesome, and in some cases, the flow of the event itself may have to be matched with a series of shooting instruction commands, which may hinder the excitement of the event.
Therefore, it is conceivable to identify an event from the captured video and automatically edit the video according to a scenario corresponding to the event. However, the edited video is not always enjoyed by the viewer. Viewers are interested in videos where people close to viewers appear for a long time, such as videos where the children of the viewers are active as protagonists in athletic events, but quickly get bored with videos where many unknown children appear. End up. Therefore, it is necessary to edit an image in which people or objects interested in the viewer frequently appear.

(1) 請求項1の発明は、予め指定された人または物の像データと映像を構成するフレーム画像とを照合し、映像の中から人または物を検索する人物検索手順と、人物検索手順の検索結果に基づいて、映像の中に人または物が映り込んでいる状態を検出する状態検出手順と、状態検出手順で検出された状態に基づいて、人または物を中心にして映像を編集することの適否を判定する編集適否判定手順とをコンピューターに実行させる映像編集プログラムである。
(2) 請求項2の発明は、請求項1に記載の映像編集プログラムにおいて、状態検出手順では、映像の中に人または物が映り込んでいる時間を状態として検出し、編集適否判定手順では、映像の全再生時間に対する時間の割合が所定の割合未満の場合には、映像は人または物を中心にして編集するのに適していないと判定する。
(3) 請求項3の発明は、請求項1または請求項2に記載の映像編集プログラムにおいて、状態検出手順では、人物検索手順で検索された人または物のフレーム画像に占める大きさを状態として検出し、編集適否判定手順では、人または物のフレーム画像に占める大きさが所定の大きさ未満の場合には、映像は人または物を中心にして編集するのに適していないと判定する。
(4) 請求項4の発明は、請求項1〜3のいずれか一項に記載の映像編集プログラムにおいて、状態検出手順では、人物検索手順で検索されたフレーム画像の中の人または物のぼけ具合を状態として検出し、編集適否判定手順では、フレーム画像の中の人または物のぼけ具合が許容値より大きい場合には、映像は人または物を中心にして編集するのに適していないと判定する。
(5) 請求項5の発明は、請求項1〜4のいずれか一項に記載の映像編集プログラムにおいて、映像の内容を解析し、映像に映されているイベントを識別するイベント識別手順と、複数のシナリオの中からイベント識別手順で識別されたイベントに対応するシナリオを選択するシナリオ選択手順とをさらにコンピューターに実行させ、状態検出手順では、映像の中のシナリオに規定される特定のシーンに人または物が映り込んでいるか否かを状態として検出し、編集適否判定手順では、状態検出手順で特定のシーンに人または物が映り込んでいる状態が検出されない場合には、映像は人または物を中心にして編集するのに適していないと判定する。
(6) 請求項6の発明は、請求項5に記載の映像編集プログラムにおいて、状態検出手順では、映像の中のシナリオに規定されるシーンごとの再生時間を状態として検出し、編集適否判定手順では、状態検出手順で映像の中のシーンごとの再生時間がシナリオに規定されるシーンごとの再生時間に満たない場合には、映像は人または物を中心にして編集するのに適していないと判定する。
(7) 請求項7の発明は、映像を記憶する記憶装置と、請求項1〜6のいずれか一項に記載の映像編集プログラムを実行するコンピューターと、映像を表示する表示表示装置とを備える映像編集装置である。
(1) According to the first aspect of the present invention, a person search procedure for searching for a person or an object from the image by comparing image data of a person or an object specified in advance with a frame image constituting the image, and a person search procedure Based on the search result of, the state detection procedure that detects the state in which a person or an object is reflected in the video, and editing the video centering on the person or the object based on the state detected by the state detection procedure This is a video editing program that causes a computer to execute an editing suitability determination procedure for determining whether or not to perform the editing.
(2) In the video editing program according to claim 1, in the video editing program according to claim 1, in the status detection procedure, a time during which a person or an object is reflected in the video is detected as a status, and in the editing suitability determination procedure, When the ratio of the time to the total playback time of the video is less than the predetermined ratio, it is determined that the video is not suitable for editing mainly on a person or an object.
(3) According to a third aspect of the present invention, in the video editing program according to the first or second aspect, in the state detection procedure, the size of the frame image of the person or thing searched in the person search procedure is set as the state. In the detection and editing suitability determination procedure, if the size of the person or the object in the frame image is less than a predetermined size, it is determined that the video is not suitable for editing centering on the person or the object.
(4) According to a fourth aspect of the present invention, in the video editing program according to any one of the first to third aspects, in the state detection procedure, blurring of a person or an object in the frame image searched in the person search procedure is performed. The condition is detected as a state, and in the editing suitability determination procedure, if the blur condition of the person or object in the frame image is larger than the allowable value, the video is not suitable for editing centering on the person or object. judge.
(5) In the video editing program according to any one of claims 1 to 4, the invention of claim 5 analyzes the content of the video and identifies an event reflected in the video; The computer further executes a scenario selection procedure for selecting a scenario corresponding to the event identified by the event identification procedure from among a plurality of scenarios, and in the state detection procedure, a specific scene defined in the scenario in the video is processed. Whether or not a person or an object is reflected is detected as a state, and in the editing suitability determination procedure, if the state detection procedure does not detect a state where a person or an object is reflected in a specific scene, It is determined that it is not suitable for editing centering on an object.
(6) In the video editing program according to claim 5, in the video editing program according to claim 5, in the status detection procedure, the playback time for each scene defined in the scenario in the video is detected as the status, and the editing suitability determination procedure In the state detection procedure, if the playback time for each scene in the video is less than the playback time for each scene specified in the scenario, the video is not suitable for editing with a focus on people or objects. judge.
(7) The invention of claim 7 includes a storage device for storing video, a computer for executing the video editing program according to any one of claims 1 to 6, and a display device for displaying video. It is a video editing device.

本発明によれば、映像を編集する前に、その映像が予め指定された人や物を中心とした新規映像を生成するのに適しているか否かを知ることができ、無駄となる編集処理を事前に防止することができる。   According to the present invention, before editing a video, it is possible to know whether or not the video is suitable for generating a new video centered on a predetermined person or object, and a wasteful editing process. Can be prevented in advance.

一実施の形態の映像編集装置の構成を示すブロック図The block diagram which shows the structure of the video editing apparatus of one embodiment 一実施の形態の映像編集装置の編集動作を示すフローチャートThe flowchart which shows the edit operation | movement of the video editing apparatus of one embodiment 図2に続く、一実施の形態の映像編集装置の編集動作を示すフローチャートFIG. 2 is a flowchart illustrating the editing operation of the video editing apparatus according to the embodiment, following FIG. 主人公の設定方法を示す図Diagram showing how to set the hero 主人公の設定方法を示す図Diagram showing how to set the hero 主編集対象の映像の解析結果を示すタイミングチャートTiming chart showing the analysis result of the main editing target video 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 映像の編集過程を示す1フレームの画像1 frame image showing video editing process 一実施の形態の編集により生成された映像中のフレーム画像を示す図The figure which shows the frame image in the image | video produced | generated by the edit of one embodiment タイトル画像の一例を示す図Figure showing an example of a title image 徒競争の後で撮像した運動会の映像ファイルの中から抽出した静止画または動画の一例を示す図The figure which shows an example of the still picture extracted from the video file of the athletic meet taken after the competition

図1は一実施の形態の映像編集装置1の構成を示すブロック図である。記憶装置2は各種の記録媒体2aを挿入可能なスロットを備えており、記録媒体2aから読み出された映像(動画像)データと音声データを含む映像ファイルを記憶する一方、編集により生成された映像ファイルを記録媒体2aに書き込む。なお、この映像編集装置1による編集対象の映像は、ビデオカメラやデジタルスチルカメラにより撮像された動画像はもちろんのこと、デジタルカメラにより撮像された一連の静止画像も含まれる。また、一実施の形態の映像編集装置1では、映像のみならず、映像と一緒に録音された音声も映像の編集に合わせて編集される。さらには、映像ファイルは、不図示のネットワークを介して本映像編集装置1に読み込む構成としてもよく、この場合には、本映像編集装置1は必ずしも記録装置2を含まなくてもよい。   FIG. 1 is a block diagram showing a configuration of a video editing apparatus 1 according to an embodiment. The storage device 2 has a slot into which various recording media 2a can be inserted, and stores video files including video (moving image) data and audio data read from the recording media 2a, and is generated by editing. Write the video file to the recording medium 2a. Note that the video to be edited by the video editing apparatus 1 includes a series of still images captured by a digital camera as well as a moving image captured by a video camera or a digital still camera. In the video editing apparatus 1 according to the embodiment, not only video but also audio recorded together with video is edited in accordance with video editing. Furthermore, the video file may be read into the video editing apparatus 1 via a network (not shown). In this case, the video editing apparatus 1 does not necessarily include the recording device 2.

マイクロコンピューター3はソフトウエア形態による制御部3a、画像解析部3bおよび画像処理部3cを備えており、映像と音声の編集処理を行う。制御部3aは一連の編集処理を制御する。画像解析部3bは、編集対象の映像ファイルに含まれる映像データと音声データを解析し、例えばどのような“イベント”を撮影したものか、あるいはどのような被写体が写っているかなど、映像の内容を識別する。画像処理部3cは、画像解析部3bによる解析結果の映像内容に応じた“シナリオ”を選択し、シナリオにしたがって映像ファイルの中の映像データと音声データを編集し、新しい映像ファイルを生成する。   The microcomputer 3 includes a control unit 3a, an image analysis unit 3b, and an image processing unit 3c in software form, and performs video and audio editing processing. The control unit 3a controls a series of editing processes. The image analysis unit 3b analyzes the video data and audio data included in the video file to be edited, and the content of the video such as what kind of “event” is taken or what subject is shown. Identify. The image processing unit 3c selects a “scenario” corresponding to the video content of the analysis result by the image analysis unit 3b, edits the video data and audio data in the video file according to the scenario, and generates a new video file.

ここで“イベント”とは、この明細書ではビデオカメラやデジタルスチルカメラで撮像する各種の催しや行事のことを言う。この一実施の形態では、イベントの例として運動会、徒競争、誕生会などを例に挙げて説明する。イベントによっては階層的に展開されるものがあり、例えば運動会のイベントの中に徒競争や玉入れなどの各種イベントが存在する。イベントの映像の中にはいろいろなシーン(場面)があり、例えば運動会の徒競争イベントにはスタートシーン、走っているシーン、ゴールシーンなどがある。   In this specification, “event” refers to various events and events that are captured by a video camera or a digital still camera. In this embodiment, an athletic meet, competition, a birthday party, etc. will be described as examples of events. Some events are developed hierarchically, and for example, there are various events such as competition and ball placement in athletic meet events. There are various scenes in the video of the event. For example, there are a start scene, a running scene, a goal scene, etc. in an athletic meet competition event.

また、“シナリオ”とは、この明細書では映像と音声を編集するための手法や手順を規定した脚本や絵コンテなどを言う。上述したようにイベント映像の中にはいろいろなシーンが含まれており、シナリオにはこれらのシーンに対するシーンごとの選別(カット)、シーンごとの優先順位、シーンごとの再生時間、シーンの切り換え、シーンごとの再生順序などが規定されており、イベントに対応するシナリオにしたがって編集を行うことによって、プロカメラマンが撮像して編集したイベント映像のような映像が得られる。   Further, in this specification, “scenario” means a script or a storyboard that defines a method and procedure for editing video and audio. As described above, various scenes are included in the event video, and in the scenario, selection (cut) for each scene with respect to these scenes, priority for each scene, playback time for each scene, scene switching, The playback order for each scene is defined, and by editing according to the scenario corresponding to the event, a video like an event video captured and edited by a professional cameraman can be obtained.

操作部4は各種操作部材を有し、記録媒体2aから読み込まれた複数の映像ファイルの中から編集対象の映像ファイルを選択したり、編集する映像の中で主人公を選択したりするなど、映像と音声の編集のためのユーザーの操作指示を入力する。表示装置5は、編集前後の映像や主人公の選択画面などを表示する。スピーカー6は、編集前後の映像とともに録音された音声を再生する。   The operation unit 4 has various operation members, such as selecting a video file to be edited from a plurality of video files read from the recording medium 2a, and selecting a hero in the video to be edited. And input user operation instructions for voice editing. The display device 5 displays images before and after editing, a selection screen for the main character, and the like. The speaker 6 reproduces the sound recorded together with the video before and after editing.

なお、この一実施の形態では、ビデオカメラなどの撮像装置により撮像された映像を入力して編集を行う映像編集装置1を例に挙げて説明するが、撮像装置に一実施の形態の映像編集装置1の全部または一部を内蔵し、撮像装置で撮像から編集までを実行する構成としてもよい。このような一実施の形態の映像編集装置1の全部または一部を内蔵した撮像装置では、別の撮像装置で撮像した映像を取り込んで編集することもできる。   In this embodiment, the video editing apparatus 1 that performs editing by inputting video captured by an imaging apparatus such as a video camera will be described as an example. A configuration may be adopted in which all or part of the apparatus 1 is built in and imaging to editing are executed by the imaging apparatus. In such an imaging apparatus incorporating the whole or a part of the video editing apparatus 1 according to the embodiment, it is also possible to capture and edit video captured by another imaging apparatus.

ところで、通常、ビデオカメラなどの撮像装置により各種イベントの映像を撮像する場合には、主人公の顔を大きく撮像するためにズームイン(クローズアップ)したり、主人公を追いかけて撮像装置をパンニングしたり、あるいは不要と思われるシーン(場面)をカットしたりする、すなわち撮像しないようにするなど、カメラワークを駆使して主人公を中心とした見栄えのよい映像を撮像しようとする。しかし、一般のユーザーではプロのカメラマンが撮像したような見栄えのよい映像を撮像するのは難しく、カメラワークを駆使して撮像した映像を編集しても、ズームインして撮像した拡大映像からズームアウトした縮小映像を取得したり、撮像装置のパンニングを行った後でパンニング前の撮像範囲の映像を取得したり、あるいはカット期間の映像を取得することはできないため、ユーザーの意図する映像を生成することは難しい。   By the way, usually, when capturing images of various events with an imaging device such as a video camera, zoom in (close-up) to capture a large image of the hero's face, pan the imaging device chasing the hero, Alternatively, the user tries to capture a good-looking image centered on the main character by using camera work, such as cutting an unnecessary scene (scene), that is, not capturing the image. However, it is difficult for ordinary users to capture images that look good like those photographed by professional photographers, and even if you edit images captured using camera work, you can zoom in and zoom out from the expanded image captured. A video that is intended by the user is generated because it is not possible to acquire a reduced video that has been acquired, or to acquire a video of the imaging range before panning after panning the imaging device, or to acquire a video of the cut period It ’s difficult.

そこで、この一実施の形態では、撮像装置により映像を撮像するときに、広い範囲で発生している事象をくまなく取得できるように広角で撮像し、広角で撮像された映像を編集対象とする。そして、広角で撮像された映像を構成するフレーム画像の中の一部の領域をトリミングにより切り出してあたかも撮像時にズームインまたはズームアウトしたかのように編集したり、トリミング範囲を変更してあたかも撮像時に撮像装置をパンニングしたかのように編集したり、あるいは同一シーンの一部を削除してあたかも撮像時にカットを行ったかのように編集する。このような編集を行うことによって、あたかも撮像時にカメラワークを駆使して撮像したかのような擬似的なカメラワークを実現でき、撮像時に実際にカメラワークを行った場合と同様な映像効果を得ることができる。   Therefore, in this embodiment, when an image is picked up by the image pickup device, the image is picked up at a wide angle so that all the events occurring in a wide range can be acquired, and the image picked up at the wide angle is set as an editing target. . Then, a part of the frame image composing the image captured at the wide angle is cut out by trimming and edited as if it was zoomed in or zoomed out at the time of imaging, or the trimming range was changed as if at the time of imaging. Edit as if the imaging device was panned, or delete as part of the same scene and edit as if a cut was made during imaging. By performing such editing, it is possible to realize a pseudo camera work as if it were captured using the camera work at the time of imaging, and obtain the same video effect as when the camera work was actually performed at the time of imaging. be able to.

なお、ユーザーが撮像時にズーミング、パンニング、カットなどのカメラワークを駆使して撮像した映像を編集対象としても構わないし、第1の撮像装置により広角で撮像した映像と、第2の撮像装置によりカメラワークを駆使して撮像した映像とを組み合わせて編集してもよい。   Note that an image captured by the user using camera work such as zooming, panning, and cutting during imaging may be an object to be edited. An image captured at a wide angle by the first imaging device and a camera captured by the second imaging device. Editing may be performed in combination with images captured using the work.

一方、原画像の中の一部の領域をトリミングにより切り出して編集した画像からなる映像を生成する場合に、切り出し領域が変化するたびに表示装置5の表示画面の画素数が変わると見づらい映像になってしまうため、原画像からトリミングにより切り出して生成した画像の画素数が常に一定になるように、例えば表示装置5の有効表示画素数に合わせて、画像処理部3cで画素数変換処理を行う。なお、画素数変換による拡大倍率が大きいほど、すなわちトリミング領域の画素数が少ないほど、画質の劣化が大きくなるため、トリミング領域の大きさを所定の画質基準を満たす大きさ以下にならないように制限を設ける。なお、広角で撮像したフレーム画像の一部の領域をトリミングにより切り出して新しいフレーム画像を生成し、それらを繋げて新しい映像を作成するので、撮像時に手ぶれがあって映像にブレが生じている場合には、トリミング時に手ぶれ補正を行う。   On the other hand, when generating a video composed of an image obtained by trimming and editing a part of the original image by trimming, it is difficult to see if the number of pixels on the display screen of the display device 5 changes every time the cropping region changes. Therefore, the pixel number conversion process is performed by the image processing unit 3c in accordance with, for example, the effective display pixel number of the display device 5 so that the pixel number of the image generated by trimming from the original image is always constant. . Note that the larger the enlargement magnification by pixel number conversion, that is, the smaller the number of pixels in the trimming area, the greater the degradation of image quality, so the size of the trimming area is limited so that it does not fall below the size that satisfies the predetermined image quality standard. Is provided. In addition, when a part of the frame image captured at a wide angle is cut out by trimming to generate a new frame image, and a new video is created by connecting them, there is camera shake during imaging and the video is blurred The camera shake correction is performed during trimming.

また、この一実施の形態では、1台の撮像装置により撮像された映像を編集対象とすることはもちろん、複数台の撮像装置により撮像された複数の映像も編集対象とする。詳細を後述するが、この一実施の形態では2台の撮像装置Xと撮像装置Yで運動会の徒競争を撮像する例を示す。   Moreover, in this embodiment, not only the video imaged by one imaging device is set as an editing target, but also a plurality of videos imaged by a plurality of imaging devices are set as editing targets. Although details will be described later, in this embodiment, an example is shown in which an image of an athletic meet is captured by two imaging devices X and Y.

図2および図3は、一実施の形態の映像編集装置1の編集動作を示すフローチャートである。また、図4および図5は主人公の設定方法を示す図、図6は主編集対象の映像の解析結果を示すタイミングチャート、図7〜図18は映像の編集過程を示す1フレームの画像である。これらの図により、一実施の形態の映像編集動作を説明する。ここでは架空の幼稚園児“Naoちゃん”が参加した運動会の徒競争を撮像した映像を、Naoちゃんを主人公とした映像に編集する例を説明する。なお、主人公は特に上述の例に限定されず、誰(例えば犬)でもよく、移動する車などのような物体であってもよい。ステップ1において、ユーザーが操作部4により指定した映像ファイルを主編集対象ファイルとして設定する。なお、主編集対象ファイルの設定に先立ち、記録媒体2aから複数の映像ファイルが記憶装置2に読み込まれて記憶されているものとする。   2 and 3 are flowcharts showing an editing operation of the video editing apparatus 1 according to the embodiment. FIGS. 4 and 5 are diagrams showing the setting method of the main character, FIG. 6 is a timing chart showing the analysis result of the main editing target video, and FIGS. 7 to 18 are images of one frame showing the video editing process. . The video editing operation of the embodiment will be described with reference to these drawings. Here, an example will be described in which an image obtained by capturing a competition image of an athletic meet in which a fictional kindergarten child “Nao-chan” participated is edited into a video having Nao-chan as the main character. The main character is not particularly limited to the above example, and may be anyone (for example, a dog) or an object such as a moving car. In step 1, a video file designated by the user through the operation unit 4 is set as a main editing target file. It is assumed that a plurality of video files are read from the recording medium 2a and stored in the storage device 2 prior to setting the main editing target file.

ステップ2では主編集対象ファイルの映像において主人公を設定し、主人公の登場時間を算出する。この一実施の形態では二通りの主人公設定方法の内のいずれか、または両方で主人公を設定する。第1の設定方法は、上述した主編集対象ファイルの映像を表示装置5に表示し、映像の中の主人公が写っている1フレームをフリーズさせた状態で操作部4のマウスを用いてユーザーにより主人公とする被写体をポイントさせ、フレーム画像上の主人公の領域を抽出して設定する方法である。第2の設定方法は、予め記憶装置2に登録され記憶されている主人公候補リストを表示装置5に表示させ、操作部4のマウスを用いてユーザーにより主人公を選択させて設定する方法である。   In step 2, the main character is set in the video of the main editing target file, and the appearance time of the main character is calculated. In this embodiment, a hero is set by either or both of two main character setting methods. In the first setting method, the video of the above-described main editing target file is displayed on the display device 5, and the user uses the mouse of the operation unit 4 in a state where one frame in which the main character is reflected is frozen. In this method, the subject as the main character is pointed and the main character area on the frame image is extracted and set. The second setting method is a method in which a main character candidate list registered and stored in the storage device 2 in advance is displayed on the display device 5 and the main character is selected and set by the user using the mouse of the operation unit 4.

第1の主人公設定方法では、図4に示すように、設定された主人公の領域の画像データ(例えば、図中の破線で囲む領域内の画像データ)をテンプレート画像として記憶装置2に記憶し、映像中の各フレーム画像とテンプレートマッチングを行いながら主人公を追尾する。このテンプレートマッチングにより主人公の追尾によれば、途中で主人公を見失った場合でも主人公の位置を推定することが可能である。一方、第2の主人公設定方法では、図5に示すように、主人公候補リストから選択された主人公の詳細なデータに基づいて映像中の各フレーム画像において個人認証をおこない、主人公を追尾する。第2の主人公設定方法によれば、主人公の名前、住所などの個人情報を自動的に取得することができ、新規映像のタイトル字幕やナレーションに個人情報を用いることができる。   In the first main character setting method, as shown in FIG. 4, image data of a set main character region (for example, image data in a region surrounded by a broken line in the figure) is stored in the storage device 2 as a template image, The main character is tracked while performing template matching with each frame image in the video. According to the tracking of the main character by this template matching, the position of the main character can be estimated even if the main character is lost on the way. On the other hand, in the second hero setting method, as shown in FIG. 5, personal authentication is performed on each frame image in the video based on the detailed data of the hero selected from the hero candidate list to track the hero. According to the second main character setting method, personal information such as the name and address of the main character can be automatically acquired, and the personal information can be used for title subtitles and narration of a new video.

主人公を設定することによって、映像中のフレームごとに主人公の存在、位置、大きさなどを検出することができ、それにより全映像再生時間に対する主人公が写っている時間、すなわち主人公の登場時間を算出することができる。なお、主人公候補リストの中に主人公とする人物が記憶されておらず、第1の主人公設定方法でしか主人公を設定できない場合には、主人公の名前などの個人情報が得られないので、表示装置5とスピーカー6により主人公の個人情報を操作部4により入力するように促す。   By setting the main character, it is possible to detect the existence, position, size, etc. of the main character for each frame in the video, thereby calculating the time the main character is reflected in the total video playback time, that is, the appearance time of the main character can do. If the main character candidate list does not store the character as the main character and the main character can be set only by the first main character setting method, personal information such as the name of the main character cannot be obtained. 5 and the speaker 6 prompt the user to input personal information of the hero through the operation unit 4.

ステップ3において、記憶装置2に記憶されている映像ファイルの中から、ユーザーが指定した主編集対象ファイルの撮像時刻に近い(所定時間以内)の映像ファイルを抽出する。なお、GPS受信機内蔵の撮像装置により撮像された映像ファイルには撮像位置が記録されているので、主編集対象ファイルの撮像位置に近い(所定距離以内)の映像ファイルを抽出するようにしてもよいし、主編集対象ファイルの撮像時刻に近く(所定時間以内)、かつ主編集対象ファイルの撮像位置に近い(所定距離以内)の映像ファイルを抽出してもよい。このようにして抽出された映像ファイルは、主編集対象ファイルと同一のイベントを撮像したと考えられる。   In step 3, a video file close to the imaging time of the main editing target file designated by the user (within a predetermined time) is extracted from the video files stored in the storage device 2. In addition, since the imaging position is recorded in the video file captured by the imaging device with a built-in GPS receiver, a video file close to the imaging position of the main editing target file (within a predetermined distance) may be extracted. Alternatively, a video file close to the imaging time of the main editing target file (within a predetermined time) and close to the imaging position of the main editing target file (within a predetermined distance) may be extracted. The video file extracted in this way is considered to have captured the same event as the main editing target file.

ステップ4では、主編集対象ファイルと、主編集対象ファイルの撮像時刻(または位置)に近いとして抽出した各映像ファイルの中から、主人公を検索して主人公の登場時間を算出する。続くステップ5において、各映像ファイルに記録されている映像データを解析し、各映像ファイルに写っている映像のイベントを判別する。イベントの判別は、映像に映っている主人公などの主要被写体の動作の認識処理や、主人公などの服装の特徴抽出、あるいは認識処理などを行うことによって実現される。動作の認識処理は、例えば特開平5−46583号公報に開示されるように、画像をメッシュ状に分割し、各メッシュの内部で算出した特徴量(オプティカルフロー等)をベクトルとし、この特徴量ベクトルの時系列変化を確率的状態遷移モデルで認識する方法や、特開2005−215927号公報に開示されるように、行動を認識する場合における認識処理を第1ステップと第2ステップとの2段階構成とし、第1ステップの動作要素抽出部では、画像データを処理して検出される動きの情報の時系列変化に基づき短時間に行われる一定の動作パターンを認識するとともに、第2ステップの行動認識部では、認識対象とする期間に含まれる一定の動作パターンの割合に基づき、長期間に亘る動作を認識する方法、さらには特開2008−140267号公報に開示されるような高次局所自己相関特徴を用いて動作を認識する方法などを用いることができる。また、服装などの特徴抽出は、例えば、認識された顔の位置の下部領域の色情報、エッジ情報、テクスチャ情報を抽出することによって実現することができる。さらに、これらの抽出された情報をもとに、体操服やウェディングドレスなど、イベント特有の服装を認識することができる。なお、イベント判別に際して映像ファイルに記録されている音声データを参照し、より正確なイベント判別を行ってもよい。また、イベント特有の被写体(例えば「運動会」のイベントであれば、万国旗)を認識してイベントを判別する構成としてもよい。このようなイベント特有の被写体の種類は、その認識手法と共に制御部3aに、各イベントに対応付けられて予め記録されている。   In step 4, the main character is searched from the main editing target file and each video file extracted as being close to the imaging time (or position) of the main editing target file, and the appearance time of the main character is calculated. In the subsequent step 5, the video data recorded in each video file is analyzed, and the event of the video shown in each video file is determined. The discrimination of the event is realized by performing recognition processing of the movement of the main subject such as the main character shown in the video, extraction of clothing features such as the main character, or recognition processing. For example, as disclosed in Japanese Patent Application Laid-Open No. 5-46583, the motion recognition process divides an image into meshes, and uses feature quantities (such as an optical flow) calculated inside each mesh as vectors. A method of recognizing a time-series change of a vector by a probabilistic state transition model or a recognition process when recognizing an action as disclosed in Japanese Patent Application Laid-Open No. 2005-215927 is a first step and a second step. The motion element extraction unit in the first step recognizes a certain motion pattern performed in a short time based on the time-series change of the motion information detected by processing the image data, and the second step. In the action recognition unit, a method for recognizing a motion over a long period of time based on a ratio of a certain motion pattern included in a period to be recognized, The like can be used how to recognize operation using higher order local autocorrelation features as disclosed in 40267 JP. Also, feature extraction such as clothes can be realized by extracting color information, edge information, and texture information of a lower region of the recognized face position, for example. Furthermore, based on the extracted information, it is possible to recognize clothes peculiar to events such as gym clothes and wedding dresses. Note that more accurate event determination may be performed by referring to audio data recorded in a video file when determining an event. Further, the event may be determined by recognizing an event-specific subject (for example, a national flag for an “athletic event” event). Such event-specific subject types are recorded in advance in the control unit 3a in association with each event together with the recognition method.

ここで、イベントの判別方法を説明する。例えば、主編集対象ファイルAは2008年10月10日 11:00〜11:20に撮像されたもので、その映像から(a1)体操服を着た複数の人たち(ここでは、幼稚園児たち)が同じ方向に走っている、(a2)走っている方向にゴールのテープを持った人たちがいる、(a3)ゴールに向かって走った複数の幼稚園児たちが数字の旗の所に移動ししゃがんでいる、(a4)走っている幼稚園児たちを多くの人たちが見ている、(a5)万国旗が風にはためいている、などのシーンが認識された場合には、主編集対象ファイルAの映像は「運動会」の「徒競争」であると識別する。また、主編集対象ファイルAと撮像時刻が近い映像ファイルB(2008年10月10日 14:00〜14:05に撮像)の映像から、主編集対象ファイルAで設定した主人公が「***幼稚園 運動会」の看板の脇でメダルを手にポーズをとっているシーンが認識された場合には、主編集対象ファイルBの映像は「運動会」であると識別する。さらに、主編集対象ファイルAと撮像時刻が近い映像ファイルC(2008年10月10日 09:00〜09:15に撮像)から、主編集対象ファイルAで設定した主人公と同じ体操服を着た幼稚園児たちが体操をしているシーンが認識された場合には、映像ファイルCの映像は「運動会」であると識別する。   Here, an event determination method will be described. For example, the main editing target file A was captured on October 10, 2008 from 11: 00 to 11:20. From the image, (a1) a plurality of people wearing gym clothes (here, kindergarten children ) Running in the same direction, (a2) there are people with the tape of the goal in the running direction, (a3) multiple kindergarteners who ran towards the goal moved to the number flag If a scene such as crouching, (a4) many people watching kindergarten children running, (a5) the national flag fluttering in the wind, etc. The video of the target file A is identified as “Sport competition” of “Athletic meet”. The main character set in the main editing target file A is “***” from the video of the video file B (captured on October 10, 2008, 14: 00 to 14:05) whose imaging time is close to the main editing target file A. If a scene posing with a medal in hand is recognized beside the signboard of “Kindergarten Sports Day”, the video of the main editing target file B is identified as “Sport Day”. Furthermore, wearing the same gym suit as the main character set in the main editing target file A from the video file C (captured at 09:00 to 09:15 on October 10, 2008) whose imaging time is close to the main editing target file A When a scene where kindergarten children are doing gymnastics is recognized, the video of the video file C is identified as a “athletic meet”.

一方、主編集対象ファイルAと撮像時刻が近い映像ファイルD(2008年11月25日 11:00〜11:05に撮像)から、(d1)子供がみんなで歌を歌っている、(d2)屋内である、(d3)ケーキが写っている、(d4)暗い部屋の中にローソクがともっている、(d5)一人の子供がローソクを吹き消している、(d6)その後、部屋が明るくなる、などのシーンが認識された場合には、映像ファイルDの映像は「誕生会」であると識別する。映像ファイルA〜Dの映像シーンの解析結果から、ファイルA〜Cのイベントは運動会であり、ファイルDのイベントは誕生会であると識別する。この一実施の形態では、主編集対象ファイルAと明らかにイベントの種類が異なる映像ファイルDは編集対象から除外される。   On the other hand, from the video file D (captured at 11: 00 to 11:05 on November 25, 2008) whose image capture time is close to the main editing target file A, (d1) Children sing a song together, (d2) Indoor, (d3) Cake is shown, (d4) A candle is in the dark room, (d5) One child blows out the candle, (d6) Then the room becomes bright When the scene such as, is recognized, the video of the video file D is identified as “birthday party”. From the analysis results of the video scenes of the video files A to D, the event of the files A to C is identified as an athletic meet, and the event of the file D is identified as a birthday party. In this embodiment, a video file D whose event type is clearly different from the main editing target file A is excluded from the editing target.

なお、主編集対象ファイルと撮像時刻(または位置)が近いとして抽出された映像ファイルの内、主編集対象ファイルのイベントと異なる種類が記録されている映像ファイルを自動的に削除する例を示すが、操作部4を介してユーザーにより手動で編集対象から除外するか否かを指示させるようにしてもよい。また、異なる種類のイベントが記録された映像ファイルを同時に編集し、それぞれ新しい映像ファイルを生成する構成としてもよい。   An example of automatically deleting a video file in which a type different from the event of the main editing target file is recorded among the video files extracted as having a shooting time (or position) close to that of the main editing target file is shown. Further, it may be instructed by the user via the operation unit 4 whether to manually exclude from the editing target. In addition, a configuration may be adopted in which video files in which different types of events are recorded are simultaneously edited, and new video files are generated respectively.

ステップ6において、各映像ファイルのイベント判別結果に基づいて編集イベントを設定する。映像ファイルA〜Cはどれも「運動会」のイベント映像であるが、上述した映像シーンの解析結果から映像ファイルAは「運動会」の中の「徒競争」、映像ファイルBは「メダル獲得」、映像ファイルCは「準備体操」のそれぞれイベント映像である。この一実施の形態では、ユーザーが最初に指定した主編集対象ファイルのイベントを編集イベントに設定し、表示装置5にその旨のメッセージを表示する。ユーザーが主編集対象ファイル以外のイベントを編集イベントにする場合には、操作部4により映像ファイルの中から希望する編集イベントの映像ファイルを主編集対象ファイルに指定させる。ここでは、主編集対象ファイルAの「徒競争」が編集イベントに設定された場合を例に挙げて説明する。なお、「徒競争」を編集イベントに設定した場合でも、映像ファイルBの「メダル獲得」と映像ファイルCの「準備体操」の映像も編集対象とし、徒競争の新しい映像ファイルを生成する際に映像ファイルBとCに記録されている映像の一部を用いることができるようにしておく。   In step 6, an editing event is set based on the event determination result of each video file. All of the video files A to C are event videos of “athletic meet”, but from the above-described analysis result of the video scene, video file A is “competition” in “sports meet”, video file B is “medal acquisition”, Video file C is an event video for each “preparation exercise”. In this embodiment, the event of the main editing target file first designated by the user is set as an editing event, and a message to that effect is displayed on the display device 5. When the user selects an event other than the main editing target file as an editing event, the operation unit 4 causes the video file of the desired editing event to be designated as the main editing target file from the video file. Here, a case where “competition” of the main editing target file A is set as an editing event will be described as an example. Note that even when “Adult Competition” is set as an editing event, the “Medal Acquisition” video file B and the “Preparatory Gymnastics” video file C are also subject to editing, and a new video file for the competition is generated. Part of the video recorded in the video files B and C can be used.

編集イベント設定後のステップ7において、主人公の登場時間に基づいて編集対象映像に対する編集の適否を判定する。この一実施の形態では、「徒競争」に関係のある映像ファイルA〜Cにおける主人公の登場時間を合算し、映像ファイルA〜Cの全再生時間に占める主人公登場時間の割合が所定の割合未満である場合にはステップ8へ進み、主人公を記録する新しい映像を作成してもユーザーが満足する内容にならないとして表示装置5およびスピーカー6により警告を行い、処理を終了する。この場合、ユーザーは操作部4により主人公を設定し直して編集を最初からやり直すことができる。   In step 7 after the editing event is set, the suitability of editing for the editing target video is determined based on the appearance time of the main character. In this embodiment, the appearance times of the main characters in the video files A to C related to the “competition” are added together, and the ratio of the main character appearance time in the total reproduction time of the video files A to C is less than a predetermined ratio. If it is, the process proceeds to step 8 where a warning is given by the display device 5 and the speaker 6 that the user does not satisfy the content even if a new video recording the main character is created, and the process is terminated. In this case, the user can reset the hero through the operation unit 4 and start editing again from the beginning.

なお、主人公の登場時間を算出する際には次の点を考慮する必要がある。上述したように、この一実施の形態では広角で撮像された画像をトリミングし、トリミング領域を拡大して新しい画像を生成する場合があり、この場合には撮像画像中の主人公の大きさが小さいと拡大倍率が大きくなって画質が低下する。そこで、フレーム画像の中に映り込んでいる主人公の大きさが所定の大きさより小さい場合には、主人公が検出されていてもそのシーンを主人公の登場時間に算入しない。あるいは、フレーム画像の中に映り込んでいる主人公の大きさが所定の大きさより小さい場合には、編集対象の映像は主人公を中心にして編集するのに適していないと判定するようにしてもよい。   In addition, when calculating the appearance time of the hero, it is necessary to consider the following points. As described above, in this embodiment, an image captured at a wide angle may be trimmed, and a trimming area may be enlarged to generate a new image. In this case, the size of the main character in the captured image is small. And the enlargement magnification increases and the image quality decreases. Therefore, when the size of the main character reflected in the frame image is smaller than a predetermined size, even if the main character is detected, the scene is not included in the appearance time of the main character. Alternatively, if the size of the main character reflected in the frame image is smaller than a predetermined size, it may be determined that the video to be edited is not suitable for editing centering on the main character. .

また、主人公の登場時間の算出に際して撮像画像中の主人公のぼけ具合を考慮する。映像中の各フレーム画像における主人公の位置は、上述した第1の主人公設定方法による被写体追尾処理または第2の主人公設定方法による個人認証処理によって特定することができる。したがって、主人公を含む所定の大きさの領域内における画像の周波数成分を分析することによって、主人公領域のぼけ具合を判別することができる。主人公領域における高周波数成分の比率が所定値より低い場合には主人公のぼけ具合が大きいと判定し、フレーム画像の中に主人公が検出されていてもそのシーンを主人公の登場時間に算入しない。あるいは、フレーム画像の中に映り込んでいる主人公のぼけ具合が予め定めた許容値より大きい(ぼけがひどい)場合には、編集対象の映像は主人公を中心にして編集するのに適していないと判定するようにしてもよい。   Further, when calculating the appearance time of the main character, the degree of blur of the main character in the captured image is taken into consideration. The position of the main character in each frame image in the video can be specified by subject tracking processing by the first main character setting method or personal authentication processing by the second main character setting method. Therefore, it is possible to determine the degree of blur in the main character area by analyzing the frequency component of the image in a predetermined size area including the main character. When the ratio of the high frequency component in the main character area is lower than a predetermined value, it is determined that the main character has a large degree of blur, and even if the main character is detected in the frame image, the scene is not included in the appearance time of the main character. Or, if the blur of the main character reflected in the frame image is larger than a predetermined tolerance (the blur is severe), the video to be edited is not suitable for editing with the main character at the center. You may make it determine.

なお、撮像用画素の二次元配列中に焦点検出用画素を配列し、撮影画面の複数の位置において撮影光学系の焦点調節状態、すなわちデフォーカス量を検出する構成を備えた撮像装置では、各フレーム画像の画像データとともに撮影画面の複数の位置のデフォーカス量データが記録されているので、主人公の領域のデフォーカス量が所定値以上の場合には主人公にピントが合っていないと判断し、主人公が検出されていてもそのシーンを主人公の登場時間に算入しない構成とすることができる。あるいは、主人公の領域のデフォーカス量が所定値以上の場合には、編集対象の映像は主人公を中心にして編集するのに適していないと判定するようにしてもよい。   In an imaging apparatus having a configuration in which focus detection pixels are arranged in a two-dimensional array of imaging pixels and a focus adjustment state of the imaging optical system, that is, a defocus amount is detected at a plurality of positions on the imaging screen, Since the defocus amount data at a plurality of positions on the shooting screen is recorded together with the image data of the frame image, it is determined that the main character is not in focus when the defocus amount of the main character area is a predetermined value or more, Even if the hero is detected, the scene can be excluded from the appearance time of the hero. Alternatively, when the defocus amount of the main character area is equal to or greater than a predetermined value, it may be determined that the video to be edited is not suitable for editing with the main character at the center.

さらに、複数の撮像装置により同一のイベントを撮像した複数の映像から新しい映像を生成する場合には、同じ時刻に複数の撮像装置で主人公が登場する映像がそれぞれ撮像されていても、これらの主人公の登場時間を合算しないようにしてもよい。なお、ここでは予めユーザーにより指定された主人公を中心として映像を編集する例を示すが、予めユーザーにより指定された物、例えばカーレースを撮像した映像の中のユーザーが指定したお気に入りの車などを中心に映像を編集することができる。   Furthermore, when a new video is generated from a plurality of videos obtained by capturing the same event by a plurality of imaging devices, even if videos of the main characters appearing on the plurality of imaging devices at the same time, these main characters are captured. You may not add up the appearance time. In addition, although the example which edits an image | video centering on the main character previously designated by the user here is shown, the thing designated beforehand by the user, for example, the favorite car designated by the user in the image which captured the car race, etc. The video can be edited at the center.

編集対象の撮像映像の全再生時間に占める主人公の登場時間の割合の他に、イベントごとに予め定めたクライマックスシーンが編集対象の撮像映像の中に存在するか否かに基づいて、設定された主人公による新しい編集映像の生成の適否を判定する構成としてもよい。編集対象の撮像映像の中にクライマックスシーンがない場合には、設定された主人公による新しい編集映像を作成してもユーザーが満足する内容にならないとして表示装置5およびスピーカー6により警告を行い、処理を終了する。また、編集対象の撮像映像の中に予め定めたクライマックスシーンが存在しても、そのクライマックスシーンに主人公が映っていない場合には、主人公を記録する新しい映像を作成してもユーザーが満足する内容にならないとして表示装置5およびスピーカー6により警告を行い、処理を終了する。   In addition to the ratio of the hero's appearance time to the total playback time of the captured video to be edited, it was set based on whether or not a climax scene predetermined for each event exists in the edited video. It may be configured to determine whether or not the main character generates a new edited video. If there is no climax scene in the captured video to be edited, a warning is given by the display device 5 and the speaker 6 that the user will not be satisfied even if a new edited video by the set main character is created, and the processing is performed. finish. Also, even if there is a predetermined climax scene in the captured video to be edited, but the main character is not reflected in that climax scene, content that satisfies the user even if a new video that records the main character is created If not, a warning is given by the display device 5 and the speaker 6 and the process is terminated.

さらに、編集イベントの中の予め定められたシーン、例えば徒競争の場合にはスタート、走っている最中、ゴールなどのシーンの撮像映像の時間が、各シーンごとに設定される再生時間よりも短い場合には、主人公を記録する新しい映像を作成してもユーザーが満足する内容にならないとして表示装置5およびスピーカー6により警告を行い、処理を終了するようにしてもよい。   Furthermore, the time of the captured image of a predetermined scene in the editing event, for example, in the case of competition, start, running, goal, etc., is longer than the playback time set for each scene. If it is short, a warning may be given by the display device 5 and the speaker 6 to end the process, if a new video that records the hero does not satisfy the user's content.

このように、編集に先立ち、主人公を設定して新規映像の生成の適否を判定することによって、プロがカメラワークを駆使した映像のような見栄えのよい映像が生成可能か否かを事前に知ることができ、無駄になる可能性が高い編集作業を中止させることができる。なお、新規映像の生成に適していないと判定された場合には、主人公の指定画面を表示装置5に表示し、主人公を囲む赤色の枠を点滅させて警告するようにしてもよい。なお、主人公に代えて予め指定された物体、例えばカーレースにおけるお気に入りのスポーツカーなどを中心とした編集の適否を判定してもよい。   In this way, prior to editing, a protagonist is set to determine whether or not to generate a new video, so that a professional knows in advance whether or not a good-looking video like a video using camerawork can be generated. Editing operations that are likely to be wasted can be stopped. If it is determined that it is not suitable for generating a new video, a hero designation screen may be displayed on the display device 5 and a red frame surrounding the hero may blink to warn. In addition, instead of the main character, it may be determined whether or not editing is centered on an object designated in advance, for example, a favorite sports car in a car race.

編集イベントの撮像映像が主人公を中心とした新しい映像を生成するのに適していると判定された場合にはステップ9へ進み、記憶装置2に予め記憶されている複数のシナリオ(脚本)の中から編集イベントに適合するシナリオ(脚本)を選択し読み出す。シナリオは、インターネット上のサーバーに予め記憶されている複数のシナリオの中から編集イベントに適合するものを選択し、ダウンロードするようにしてもよい。   If it is determined that the imaged video of the editing event is suitable for generating a new video centered on the main character, the process proceeds to step 9 where a plurality of scenarios (screenplays) stored in advance in the storage device 2 are stored. To select a scenario (screenplay) that matches the editing event. A scenario may be selected and downloaded from among a plurality of scenarios stored in advance on a server on the Internet that matches the editing event.

以下に、「徒競争」の編集イベントに適合するシナリオの一例を示す。ここでは、(1)タイトル画像の挿入、(2)運動会を特徴付けるシーン、例えば青空を背景にした運動会の旗が風になびいているシーンからトリミング領域の大きさを変えずに、徒競争のスタート地点にカット変更の後、スタート地点にズームインするシーン、(3)スタートラインに整列した幼稚園児とピストルを持つスターターを写したシーン、(4)ピストルをうつシーンへ切り換えて競争する幼稚園児全員が写る範囲にズーミングしてスタートシーン、(5)競争する園児がゴールに近づくにつれて主人公にズームイン、(6)主人公が着順位の旗の所へ移動して座るまでを追うシーン、(7)園児が退場門から退場するシーン、(8)フェードアウト後、エンド画面にフェードイン、の一連のシーンから構成される。   The following is an example of a scenario that matches the editing event for “Self Competition”. Here, (1) Insert the title image, (2) Start the competition without changing the size of the cropping area from the scene characterizing the athletic meet, for example, the scene of the athletic meet flag against the blue sky After changing the cut to the starting point, a scene to zoom in to the starting point, (3) a scene showing a starter with a pistol and a kindergarten aligned on the starting line, and (4) all kindergarten children competing by switching the pistol to a depression scene Zooming to the start of the scene, (5) Zooming in to the main character as the competing kindergarten approaches the goal, (6) Scene following the main character moving to the place of the flag of the landing position, and sitting (7) The kindergarten It consists of a series of scenes that exit from the exit gate and (8) fade-in after the fade-out.

また、参考までに「誕生会」のイベントに応じたシナリオの一例を示す。このシナリオは、(1)タイトル画像の挿入、(2)主人公のアップ(ハッピーバースディの歌を歌い始める)、(3)歌い終えるまでの間に、主人公を中心として全員が写るようにパンニングしてズームアウト(喜んでいるシーン)、(4)照明が消えてろうそくがともされたケーキをアップ、(5)主人公とケーキが写るようにパンニングしてズームアウト、(6)主人公がろうそくを消す、(7)明かりがともされる、(8)全員が拍手している様子が写るようにズームアウト、の一連のシーンから構成される。   For reference, an example of a scenario corresponding to a “birthday party” event is shown. In this scenario, (1) Insert the title image, (2) The main character is up (starting to sing Happy Birthday song), (3) The panning is carried out so that everyone can be seen around the main character until the end of the song. Zoom out (scenes you are happy with), (4) lit up the cake with the candles off, (5) pan out to show the main character and cake, zoom out, and (6) the main character erase the candle, It consists of a series of scenes of (7) lighted and (8) zoomed out so that everyone is applauding.

ステップ10において、編集後の映像再生時間(映像放映時間)を設定し、再生時間に応じてシナリオの各シーンに優先順位を付けるとともに各シーンの時間を設定する。再生時間はユーザーが操作部4により任意の長さに指定することもできるが、ここでは予め設定されている3種類の再生時間、1分、3分および5分の映像を同時に生成する例を示す。1分の映像はいわゆるダイジェストバージョンであり、イベントの中の最も重要なシーンに高い優先順位を設定して短い再生時間でイベントのあらましを見せるようにしたものである。3分の映像はショートバージョンであり、イベントの中の重要なシーンに高い優先順位を設定して適当な再生時間でイベントの全体像を見せるようにしたものである。最長の5分の映像はロングバージョンであり、イベントの中のシナリオを構成するのに必要なシーンに高い優先順位を設定してイベントの詳しい内容を見せるようにしたものである。このような3種類のバージョンの映像を同時に生成しておけば、再生目的に応じたバージョンの映像を選んで見ることができる。なお、シナリオの中の各シーンの時間は、再生時間すなわち再生バージョンと優先順位とに応じて適切な長さが自動的に設定される。   In step 10, the edited video playback time (video broadcast time) is set, priorities are assigned to the scenes of the scenario according to the playback time, and the time of each scene is set. The playback time can be specified by the user to an arbitrary length by the operation unit 4, but here, an example in which three types of preset playback time, one minute, three minutes, and five minutes of video are generated simultaneously. Show. The one-minute video is a so-called digest version, in which a high priority is set for the most important scene in the event so that an overview of the event can be shown in a short playback time. The three-minute video is a short version in which high priority is set for important scenes in the event so that the entire event can be seen in an appropriate playback time. The longest video of 5 minutes is a long version, and shows the detailed contents of the event by setting a high priority to the scenes necessary for composing the scenario in the event. If these three types of versions of video are generated at the same time, it is possible to select and view versions of video according to the playback purpose. The time of each scene in the scenario is automatically set to an appropriate length according to the playback time, that is, the playback version and the priority order.

上述した徒競争のシナリオの各シーンの優先順位と時間を設定した例を示す。例えば再生時間3分のショートバージョンでは、(1)タイトル画像の挿入(〜3秒、優先順位4)、(2)運動会を特徴付けるシーン、例えば青空を背景にした運動会の旗が風になびいているシーンからトリミング領域の大きさを変えずに、徒競争のスタート地点にカット変更の後、スタート地点にズームインするシーン(〜10秒、優先順位5)、(3)スタートラインに整列した幼稚園児とピストルを持つスターターを写したシーン(〜15秒、優先順位6)、(4)ピストルをうつシーンへ切り換えて競争する幼稚園児全員が写る範囲にズーミングしてスタートシーン(〜19秒、優先順位1)、(5)競争する園児がゴールに近づくにつれて主人公にズームイン(〜35秒、優先順位2)、(6)主人公が着順位の旗の所へ移動して座るまでを追うシーン(〜40秒、優先順位3)、(7)園児が退場門から退場するシーン(〜50秒、優先順位7)、(8)フェードアウト後、エンド画面にフェードイン(〜5秒、優先順位8)、のように設定する。   An example in which the priority and time of each scene of the above-described scenario of competition is set will be shown. For example, in the short version with a playback time of 3 minutes, (1) title image insertion (~ 3 seconds, priority 4), (2) a scene characterizing an athletic meet, for example, an athletic meet flag against a blue sky flutters in the wind After changing the cut to the starting point of the competition without changing the size of the trimming area from the scene, the scene zooming in to the starting point (-10 seconds, priority 5), (3) Kindergarten children aligned with the starting line A scene showing a starter with a pistol (~ 15 seconds, priority 6), (4) A start scene (~ 19 seconds, priority 1) with all the kindergarten children competing by switching the pistol to a depression scene ), (5) Zoom in to the hero as the competing children approach the goal (~ 35 seconds, priority 2), (6) Follow the hero moves to the flag of the landing order and sits down (~ 40 seconds, priority 3), (7) Scene where the child leaves the exit gate (~ 50 seconds, priority 7), (8) After fade out, fade-in to the end screen (~ 5 seconds, priority) Order 8) is set.

ステップ11では、編集イベント、撮像日時、主人公などの情報から生成する映像のタイトル画像を作成する。この一実施の形態では、10月10日に撮像された幼稚園の運動会で主人公Naoちゃんが徒競争で1着になった映像を生成することから、「Naoちゃんの運動会−かけっこ編− 2008年10月10日」というタイトル字幕を決定する。また、タイトル字幕の背景シーンとしては、主人公を含む主要な被写体が写っていないイベントの特徴的なシーン、例えば運動会の場合には青空を背景に万国旗が風になびいているシーンを選択する。   In step 11, a title image of a video generated from information such as an editing event, an imaging date / time, and a hero is created. In this embodiment, since the protagonist Nao-chan created a video of the first in a competition at a kindergarten athletic meet imaged on October 10, “Nao-chan athletic meet-Ketkko edition-2008 10 The title caption “Month 10th” is determined. Also, as a background scene of the title caption, a scene characteristic of an event in which a main subject including the main character is not captured, for example, a scene in which a national flag flutters in the wind against a blue sky in the case of an athletic meet is selected.

続くステップ12において、主編集対象映像を解析し、各シーンの無編集時の再生時間を算出する。主編集対象ファイルの映像データを解析すると、図6に示すような一連のシーンに分割される。時刻t0において図7に示すように4人の選手がスタートラインに整列し、時刻t1で図9に示すように4人の選手がピストルを合図にスタートする。なお、主人公のNaoちゃんは手前から2番目のコースを走る選手である。時刻t2では図10に示すように4人の選手がそれぞれのコースを走っているが、時刻t3で図11に示すように一人の選手がコースを外れ、時刻t4で図12に示すように再びコースに戻って走り続けている。   In the subsequent step 12, the main editing target video is analyzed, and the playback time of each scene when no editing is performed is calculated. When the video data of the main editing target file is analyzed, it is divided into a series of scenes as shown in FIG. At time t0, four players line up on the start line as shown in FIG. 7, and at time t1, four players start with a pistol as a signal as shown in FIG. The main character, Nao-chan, is a player who runs the second course from the front. At time t2, four players are running the courses as shown in FIG. 10, but at time t3, one player is off the course as shown in FIG. 11, and again at time t4 as shown in FIG. I'm running back to the course.

選手が走っている最中の時刻t5で2台の撮像装置の内の撮像装置Xの前に人が入り、図13に示すように撮像装置Xによる映像では走っている選手が見えなくなったが、図14に示すように別の撮像装置Yの映像では走っている選手を捉えている。そして、時刻t6において図15に示すように主人公のNaoちゃんが1着でゴールインし、時刻t7で図16〜図17に示すように選手たちがそれぞれの着順位の旗の所へ移動している。時刻t8では図18に示すように主人公のNaoちゃんが1着の旗の所で待っている。これらの各シーンの無編集時の再生時間を算出する。なお、図7〜図18に示されるフレーム画像の内、図14のみが撮像装置Y(図7の右端に“Y”で示す)により撮像されたフレーム画像であり、そのほかはすべて撮像装置Xによるフレーム画像である。   While a player is running, a person enters in front of the imaging device X of the two imaging devices at time t5, and the running player can no longer be seen in the image by the imaging device X as shown in FIG. As shown in FIG. 14, the video of another imaging device Y captures a running player. At time t6, as shown in FIG. 15, the main character Nao-chan finishes in the first place, and at time t7, the players move to the flags of the respective rankings as shown in FIGS. . At time t8, as shown in FIG. 18, the main character Nao-chan is waiting at the first flag. The playback time when no editing is performed for each of these scenes is calculated. Of the frame images shown in FIGS. 7 to 18, only FIG. 14 is a frame image taken by the imaging device Y (indicated by “Y” at the right end of FIG. 7), and all other frames are taken by the imaging device X. It is a frame image.

次に、ステップ13では各シーンの無編集時の再生時間と新しい映像の再生時間とに基づいて、制御部3aが、疑似カメラワーク、すなわちカット、パンニング、ズームイン、ズームアウトなどの擬似的なカメラワークを決定する。例えば図7に示す運動会の徒競争を広角で撮像した映像のフレーム画像において、図8に示すように、(a)部をトリミングにより切り出してタイトル画像の背景に映し出した後、(c)部を切り出して入場門から選手が入場するシーンを映す、つまり擬似的なカットを行う。その後、トリミング領域を(c)部から(d)部へ徐々に縮小させながら移動し、スタートラインに整列する選手とピストルを持ったスターターをクローズアップする、つまり疑似的なパンニングとズームインを行う。このようにして編集された映像は、あたかも撮像時にカット、パンニング、ズームインなどのカメラワークが行われた映像であるかのように視聴させることができる。   Next, in step 13, the control unit 3a performs pseudo camera work, that is, a pseudo camera such as cut, pan, zoom in, and zoom out, based on the playback time of each scene when not edited and the playback time of a new video. Determine the workpiece. For example, in the frame image of the video obtained by capturing the athletic meet competition shown in FIG. 7 at a wide angle, as shown in FIG. 8, after the portion (a) is cut out by trimming and displayed in the background of the title image, the portion (c) is Cut out and show the scene where players enter from the entrance gate, that is, make a pseudo cut. After that, the trimming area is moved while being gradually reduced from the (c) part to the (d) part, and the starter with the player and the pistol aligned on the start line is closed up, that is, pseudo panning and zoom-in are performed. The video edited in this way can be viewed as if it had been subjected to camera work such as cutting, panning, zooming in at the time of imaging.

ステップ14において、イベントのシナリオ、シナリオの中の各シーンの優先順位と時間、主人公、タイトル文字、疑似カメラワークなどに基づいて編集対象ファイルの映像と音声の自動編集を行う。この自動編集については詳細を後述する。ステップ15では編集後の新しい映像ファイルを記憶装置2に記憶するとともに、操作部4によるユーザーの指示にしたがって記録媒体2aに記録する。   In step 14, the video and audio of the editing target file are automatically edited based on the event scenario, the priority and time of each scene in the scenario, the main character, the title character, the pseudo camera work, and the like. Details of this automatic editing will be described later. In step 15, the edited new video file is stored in the storage device 2 and recorded on the recording medium 2 a in accordance with a user instruction from the operation unit 4.

《映像と音声の自動編集処理》
図19は、一実施の形態の編集により生成された映像中のフレーム画像を示す。図7〜図18に示す編集前の映像の一連のフレーム画像と対比しながら、コンピューター3の制御部3a、画像解析部3bおよび画像処理部3c(図1参照)で実行される一実施の形態の映像と音声の自動編集処理を説明する。なお、ここでは映像編集により3分間のショートバージョンの新規映像を生成する場合を例に挙げて、ショートバージョンのシナリオに定められた各シーンの優先順位とその再生時間にしたがって自動的に編集が行われる例を示すが、1分間のダイジェストバージョンおよび5分間のロングバージョンでは、それらのバージョンに応じたシナリオに定められたシーンの優先順位とその再生時間にしたがって自動編集が行われる。
《Video and audio automatic editing processing》
FIG. 19 shows a frame image in a video generated by editing according to an embodiment. An embodiment executed by the control unit 3a, the image analysis unit 3b, and the image processing unit 3c (see FIG. 1) of the computer 3 while comparing with a series of frame images of the video before editing shown in FIGS. The automatic video and audio editing process will be described. In this example, a new version of a short version of 3 minutes is generated by video editing, and editing is automatically performed according to the priority of each scene and its playback time specified in the short version scenario. For example, in the 1-minute digest version and the 5-minute long version, automatic editing is performed in accordance with the priority order of scenes defined in a scenario corresponding to those versions and the playback time thereof.

ここで、以下の映像編集処理では、図7〜図18に示すフレーム画像をトリミングして新しい画像を生成するとして説明を行うが、図7〜図18に示すフレーム画像のトリミング処理は便宜的な説明であり、実際には編集するシーンのすべてのフレーム画像、あるいは編集するシーンの中の必要な範囲のフレーム画像に対して同様なトリミング処理を施し、これらの一連のフレーム画像をトリミングした一連の画像群から新規映像が生成される。   Here, the following video editing process will be described on the assumption that a new image is generated by trimming the frame image shown in FIGS. 7 to 18, but the frame image trimming process shown in FIGS. 7 to 18 is convenient. It is an explanation, and in practice, all the frame images of the scene to be edited or a frame image of the necessary range in the scene to be edited are subjected to the same trimming process, and the series of frame images are trimmed. A new video is generated from the image group.

まず、徒競走の編集イベントに対するタイトル画像を作成する。図20にタイトル画像の一例を示す。上述したように、タイトル文字「Naoちゃんの運動会−かけっこ編− 2008年10月10日」は編集イベント、撮像日時、主人公などの情報に基づいて決定される。言語は操作部4により予めユーザーが選択した言語が適用される。なお、映像編集装置1にGPS受信機を内蔵する場合には、検出した現在位置の国の言語を適用する。また、日付は主編集対象ファイルの撮像データに記録されている日付データに基づいて生成される。字幕の背景シーンとしては、主人公を含む主要な被写体が写っていない、編集イベントに特有な特徴的なシーン、例えば運動会の場合には青空を背景に万国旗が風になびいているシーンなどが選択される。この一実施の形態では、図8に示すフレーム画像の一部(図8の(a)部)がトリミングされ、字幕の背景シーンとして用いられた例を示す。図19(a)に示すように、このタイトル画像のシーンは所定時間、例えば3秒間継続される。   First, create a title image for the edit event of the competition. FIG. 20 shows an example of the title image. As described above, the title characters “Nao-chan athletic meet-Kakekko edition-October 10, 2008” are determined based on information such as an editing event, an imaging date and time, and a hero. The language selected by the user in advance using the operation unit 4 is applied. When the video editing device 1 has a built-in GPS receiver, the language of the detected current country is applied. The date is generated based on the date data recorded in the imaging data of the main editing target file. For the background scene of the subtitles, select a scene that does not show the main subject including the main character and is unique to the editing event.For example, in the case of an athletic meet, a scene where the national flag flutters in the wind against the blue sky. Is done. In this embodiment, a part of the frame image shown in FIG. 8 (part (a) in FIG. 8) is trimmed and used as a background scene for subtitles. As shown in FIG. 19A, the scene of this title image is continued for a predetermined time, for example, 3 seconds.

次に、タイトル画像の中の字幕が徐々にフェードアウトされ、図19(b)に示すように青空バックの万国旗のシーンが所定時間、例えば3秒間継続される。なお、図19(a)と(b)に示す6秒間のタイトルシーンを生成する際に、これらの画像が元の映像に6秒間分ない場合には、図7〜図18に示す他の一連の画像から取得してもよい。   Next, the subtitles in the title image are gradually faded out, and as shown in FIG. 19B, the scene of the national flag of the blue sky background is continued for a predetermined time, for example, 3 seconds. In addition, when the 6-second title scene shown in FIGS. 19A and 19B is generated, if these images are not included in the original video for 6 seconds, another series shown in FIGS. You may acquire from the image of.

青空を背景に万国旗が風になびいているタイトルシーン(図19(b)参照)から、徒競争の選手たちが入場門から入場しスタートラインに整列するシーン(図19(c)参照)を生成するために、図8に示す画像から(c)部をトリミング領域の大きさを変えずに切り出す。つまり、トリミングによる疑似的なカットを行ってシーンチェンジする。このシーンが所定時間例えば2秒間継続するように編集を行う。その後、スタートラインに整列する4人の選手を中央にしてピストルを持ったスターターも画面に入るシーン(図19(d)参照)を生成するために、図8に示す画像の中の(c)部から(d)部へトリミング領域の位置を変えながら徐々にトリミング領域を小さくする。つまり、擬似的なパンニングとズームインを行ってスタートラインの選手とスターターにクローズアップする。   From the title scene (see Fig. 19 (b)) where the national flag is fluttering in the wind against the blue sky, the scene where the competitors enter from the entrance gate and line up on the start line (see Fig. 19 (c)) In order to generate, the part (c) is cut out from the image shown in FIG. 8 without changing the size of the trimming area. That is, the scene is changed by performing a pseudo cut by trimming. Editing is performed so that this scene continues for a predetermined time, for example, 2 seconds. Thereafter, in order to generate a scene (see FIG. 19D) in which a starter having a pistol with the four players lined up on the start line enters the screen (see FIG. 19D), (c) in the image shown in FIG. The trimming area is gradually made smaller while changing the position of the trimming area from part (d) to part (d). In other words, pseudo-panning and zoom-in are performed to close up the players and starters on the start line.

なお、編集結果の再生時間が各バージョンの再生時間に対して余裕のある場合には、青空背景の万国旗のシーンからイベントを紹介するシーン、例えば徒競争のコース全体が画面に入るようなシーンへ疑似的なシーンチェンジを行い、所定時間継続した後に、スタートラインに整列する選手とスターターが画面に入るシーンに擬似的なパンニングとズームインを行うように編集してもよい。イベント映像の最初に、これから始まるイベントの周囲状況を説明する広角画像のシーンを挿入することによって、視聴者が容易にイベントの状況を理解することができる。なお、徒競争のコース全体が画面に入る画像は、撮像映像中の主人公の移動範囲を解析することによって、徒競争というイベントを紹介するのに適した画像として採用される。   In addition, when the playback time of the edited result is sufficient for the playback time of each version, a scene that introduces an event from a scene of a national flag with a blue sky background, for example, a scene where the whole course of competition is on the screen After performing a pseudo-scene change and continuing for a predetermined time, editing may be performed so as to perform pseudo-panning and zoom-in on a scene where players and starters aligned on the start line enter the screen. By inserting a scene of a wide-angle image explaining the surrounding situation of the event starting from the beginning of the event video, the viewer can easily understand the event situation. In addition, the image in which the entire course of competing competition enters the screen is adopted as an image suitable for introducing an event of competing competition by analyzing the moving range of the main character in the captured video.

次に、徒競争のスタートのシーン(図19(e)参照)を生成するために、図9に示す画像から(e)部を切り出す。その後、4人の選手が走っているシーン(図19(f)参照)を生成するために、図10に示す画像から(f)部を切り出す。つまり、走っている選手達が画面に収まるように撮像装置をパンニングさせて撮像したかのように、擬似的なパンニングを行う。このとき、主人公が画面のほぼ中央に写し出されるように、徐々に擬似的なズームインを合わせて行ってもよい。   Next, in order to generate a scene for starting the competition (see FIG. 19E), the part (e) is cut out from the image shown in FIG. Thereafter, in order to generate a scene in which four players are running (see FIG. 19F), the part (f) is cut out from the image shown in FIG. In other words, pseudo panning is performed as if the running players panned the imaging device so that they fit on the screen. At this time, pseudo zoom-in may be performed gradually so that the main character is projected in the approximate center of the screen.

上述したように、各イベントのシナリオにはシーンごとに優先順位が割り当てられている。例えば徒競争のイベントでは、競技に不可欠なスタートとゴールのシーンを第1優先順位、走っているシーンを第2優先順位、1〜3等の旗の所に並んでいるシーンを第3優先順位、メダルを掛けてもらったシーンを第4優先順位、ゴールから旗の所へ移動するシーンを第5優先順位とする。ここで、例えば第2優先順位の走っているシーンは重要なシーンであるが、200m走のように走っている時間が長い場合には、途中の一部の映像をカットしてもよい。これにより、同じ構図が長く続くために視聴者が飽きてしまうのを避けることができる。しかしながら、主人公が他の選手を追い抜くシーンは、優先的に新規映像に組み入れる。このようなシーンは個人認証と被写体追尾の手法により検出することができる。   As described above, each event scenario is assigned a priority for each scene. For example, in a competition event, the start and goal scenes that are indispensable to the competition are given the first priority, the running scene is the second priority, and the scenes that are lined up with the 1st to 3rd flags are the third priority. The scene that received the medal is set as the fourth priority, and the scene moving from the goal to the flag is set as the fifth priority. Here, for example, the running scene of the second priority order is an important scene, but if the running time is long like 200 m running, a part of the video may be cut off. This prevents the viewer from getting bored because the same composition continues for a long time. However, scenes in which the hero overtakes other players are preferentially incorporated into new videos. Such a scene can be detected by a method of personal authentication and subject tracking.

徒競走の途中で選手の一人がコースから外れた後、コースに戻るハプニングシーン(図19(g)、(h)参照)を新規映像に組み入れるために、図11に示す画像から(g)部を、図12に示す画像から(h)部をそれぞれ切り出し、擬似的なパンニングとズームアウト、ズームインを行う。このようなハプニング(徒競走では選手のコースアウトや転倒)は主編集対象の映像を解析(個人認証と被写体追尾の手法による被写体移動軌跡の解析)した時点で認識されており、図10の(f)部から図11の(g)部を経て図12の(h)部へ至る一連のトリミング領域の変化を、急激で不自然な映像の変化とならないように徐々に拡大、縮小または移動させる。なお、選手が走っているシーンでは、選手の前(選手の走っていく方向)の部分が選手の後(選手の走ってきた方向)の部分よりも大きく写し出されるように、トリミング領域を設定する。   In order to incorporate a happening scene (see FIGS. 19 (g) and (h)) that returns to the course after one of the athletes has left the course in the middle of a race, the (g) part is taken from the image shown in FIG. The (h) portion is cut out from the image shown in FIG. 12, and pseudo panning, zooming out, and zooming in are performed. Such a happening (a player's course out or a fall in a competitive race) is recognized at the time of analyzing the main editing target video (analysis of the subject movement trajectory by the method of personal authentication and subject tracking), and (f) in FIG. A series of changes in the trimming area from the part to the part (h) in FIG. 12 through the part (g) in FIG. 11 are gradually enlarged, reduced or moved so as not to cause a sudden and unnatural change in the image. In the scene where the player is running, the trimming area is set so that the portion in front of the player (the direction in which the player runs) is projected larger than the portion in the rear of the player (the direction in which the player ran). .

この一実施の形態では、トリミング領域の大きさに関わらず、切り出した画像の画素数が常に一定になるように画素数変換(解像度変換)を行う。そのため、トリミング領域の大きさを徐々に小さくすることによって、新しく生成される映像上ではズームインを行った場合と同様な効果が得られ、逆にトリミング領域の大きさを徐々に大きくすることによって、新しく生成される映像上ではズームアウトを行った場合と同様な効果が得られる。   In this embodiment, the pixel number conversion (resolution conversion) is performed so that the number of pixels of the cut-out image is always constant regardless of the size of the trimming region. Therefore, by gradually reducing the size of the trimming area, it is possible to obtain the same effect as when zooming in on the newly generated video, and conversely, by gradually increasing the size of the trimming area, The same effect as when zooming out is obtained on a newly generated image.

次に、徒競走の途中で撮像中の撮像装置の前に人が入り込んだため、図13に示すように走っている選手が人の影になって見えなくなっている。このような映像障害は、編集の前に行われる編集対象映像の解析により検出することができる。例えば、画像上で追尾していた主人公を含む選手達を突然見失い、しばらくして再び出現するような場合には、何らかの映像障害が発生したものと認識できる。このような映像障害がある場合には、当該障害のある映像を撮像した撮像装置以外の撮像装置で障害発生時刻に撮像された映像を検索する。映像障害の発生時刻には、別の撮像装置Y(図13の左端に示す)によって図14に示す徒競争を広角で撮像した映像が撮像されている。この映像も編集に先立って解析されており、主人公のNaoちゃんが走っていることがすでに検出されている。   Next, since a person enters in front of the imaging device that is imaging in the middle of a running race, as shown in FIG. Such a video failure can be detected by analyzing the video to be edited that is performed before editing. For example, in the case where players including the main character tracking on the image are suddenly lost and appear again after a while, it can be recognized that some kind of video failure has occurred. When there is such a video failure, the video captured at the failure occurrence time is searched by an imaging device other than the imaging device that captured the video with the failure. At the time of occurrence of the video failure, a video obtained by imaging the competition shown in FIG. 14 at a wide angle is captured by another imaging device Y (shown at the left end of FIG. 13). This video has also been analyzed prior to editing, and it has already been detected that the main character Nao is running.

ところが、撮像装置Xはコース左側から徒競争を撮像したのに対し、撮像装置Yはコース右側から徒競争を撮像したので、選手の走っている方向が撮像装置XとYでは逆になる。このような異なる撮像装置XとYにより撮像された2つの映像において、同一被写体の移動方向の違いはそれらの映像を解析することによって容易に認識される。このような画像を単純につないで新しい映像にすると、視聴者に不自然さを感じさせてしまう。そこで、この一実施の形態では、映像障害が発生した撮像装置Xの映像から別の撮像装置Yへ切り換える際に、まったく別のシーンのカット映像を挿入し、視聴者の違和感を軽減する。   However, since the imaging device X images the competition from the left side of the course, the imaging device Y images the competition from the right side of the course, so that the direction in which the player is running is reversed between the imaging devices X and Y. In two images captured by such different imaging devices X and Y, the difference in the moving direction of the same subject can be easily recognized by analyzing the images. If these images are simply connected to form a new video, the viewer will feel unnatural. Therefore, in this embodiment, when switching from the video of the imaging device X in which the video failure has occurred to another imaging device Y, a cut video of a completely different scene is inserted to reduce the viewer's uncomfortable feeling.

一実施の形態では、図13に示す撮像装置Xの映像から図14に示す撮像装置Yの映像に切り換える際に、図13の(i)部をトリミングにより切り出して挿入する。これにより、撮像装置Xによる図19(h)に示す画像と、撮像装置Yによる図19(j)に示す画像との間に、図19(i)に示すような撮像装置Yで徒競争を映している人と回りの徒競争を応援している人の画像が挿入される。なお、このようなカット映像の挿入時間は、所定時間(例えば3秒)とすることが望ましい。撮像装置Xによる映像に障害が発生している時間が上記所定時間を超えて継続している場合であっても、特に上記のような緊迫したシーンの間に挿入される場合には、視聴者の感じる緊迫感をとぎれさせないようにするために、カット映像の挿入時間は、上記の所定時間(例えば3秒)とすることが望ましい。また、予めシナリオに定められている、イベントに応じた複数のカット映像の中から、予め定められている順にカット映像を検索し、最初に検索されたカット映像を用いる。カット映像としては特に上記のような周辺環境を撮像した映像に限定されるものではなく、異なる視点から主人公を撮像した映像、例えばゴール方向から選手を映した映像などを用いる。さらに、挿入されるカット映像は必ずしも映像障害の発生時刻に撮像された映像に限定されず、編集対象のすべての映像の中から予め定めたカット映像を検索する。   In one embodiment, when switching from the image of the image pickup apparatus X shown in FIG. 13 to the image of the image pickup apparatus Y shown in FIG. 14, the part (i) in FIG. 13 is cut out and inserted by trimming. Thereby, competition between the image shown in FIG. 19H by the image pickup device X and the image shown in FIG. 19J by the image pickup device Y occurs in the image pickup device Y as shown in FIG. The image of the person who is showing and the person who is supporting the competition of the people around is inserted. Note that the insertion time of such a cut video is preferably a predetermined time (for example, 3 seconds). Even when the time when the image generated by the imaging device X has been in trouble exceeds the predetermined time, the viewer is particularly required to insert the video into an urgent scene as described above. It is desirable that the insertion time of the cut video is set to the predetermined time (for example, 3 seconds) in order not to interrupt the feeling of tension. Further, a cut video is searched in a predetermined order from among a plurality of cut videos corresponding to an event determined in advance in a scenario, and the cut video searched first is used. The cut image is not particularly limited to the image obtained by imaging the surrounding environment as described above, and an image obtained by imaging the main character from different viewpoints, for example, an image showing the player from the goal direction is used. Furthermore, the cut video to be inserted is not necessarily limited to the video captured at the time of the video failure occurrence, and a predetermined cut video is searched from all the videos to be edited.

撮像装置Xの映像から撮像装置Yの映像に切り換える際に、カットシーンを挿入する代わりに次のようにしてもよい。すなわち、撮像装置Xの映像で主人公などの主要被写体が画面右からフレームアウトするようにトリミングを行い、続いて撮像装置Yの映像で主要被写体が画面右からフレームインするようにトリミングを行って、撮像装置Yの映像に切り換える。あるいは、撮像装置Yの映像で主要被写体が画面左からフレームアウトするようにトリミングを行い、続いて撮像装置Xの映像で主要被写体が画面左からフレームインするようにトリミングを行い、撮像装置Xの映像から撮像装置Yの映像、あるいは撮像装置Yの映像から撮像装置Xの映像に切り換えてもよい。   When switching from the video of the imaging device X to the video of the imaging device Y, the following may be performed instead of inserting a cut scene. That is, trimming is performed so that the main subject such as the main character is framed out from the right side of the screen in the image of the imaging device X, and then trimming is performed so that the main subject is framed in from the right side of the screen in the image of the imaging device Y. Switch to the image of the imaging device Y. Alternatively, the image of the imaging device Y is trimmed so that the main subject is framed out from the left of the screen, and then the image of the imaging device X is trimmed so that the main subject is framed in from the left of the screen. The video may be switched from the video of the imaging device Y to the video of the imaging device Y, or from the video of the imaging device Y to the video of the imaging device X.

映像障害の発生により切り換えられた撮像装置Yによる映像(図19(j)参照)は、図14に示す撮像装置Yの画像から、映像障害発生前の撮像装置Xの画像のトリミング領域の大きさと同じ大きさの(j)部を切り出して生成するのが望ましい。撮像装置Yの映像からふたたび撮像装置Xの映像に戻す際にも、映像の不連続による視聴者の違和感を軽減するためにカット映像を挿入する。すなわち、図19(j)に示す撮像装置Yの映像から図19(l)に示す撮像装置Xの映像に戻す際に、図19(k)に示すようなカット映像を挿入する。このカット映像は、図19(i)に示すカット映像と同様な方法で生成すればよい。ここでは、徒競争の映像の中から選手を応援する人たちを撮像した映像をカット映像に採用した例を示す。   The image (see FIG. 19 (j)) by the imaging device Y switched due to the occurrence of the video failure is obtained from the image of the imaging device Y shown in FIG. 14 with the size of the trimming area of the image of the imaging device X before the video failure occurrence. It is desirable to generate by cutting out the (j) part having the same size. When returning from the video of the imaging device Y to the video of the imaging device X again, a cut video is inserted in order to reduce the viewer's discomfort due to the discontinuity of the video. That is, when returning from the image of the imaging device Y shown in FIG. 19 (j) to the image of the imaging device X shown in FIG. 19 (l), a cut image as shown in FIG. 19 (k) is inserted. This cut video may be generated by the same method as the cut video shown in FIG. Here, an example is shown in which an image obtained by capturing images of people who support a player from images of competition is adopted as a cut image.

一方、一実施の形態の編集装置1では、映像の編集と合わせて音声の編集も行う。音声の編集において、映像のトリミング領域の位置と大きさに応じて、再生状態における音声の指向性と大きさが最適なものとなるように変更される。例えば、徒競争を応援する観客にズームインした映像を新規映像とする場合には、再生音量を大きくする。つまり、トリミング領域を小さくするほど再生音量が大きくなるように音声を編集する。また、撮像画像の右端に近い領域をトリミング領域とする場合には、左右チャンネルの音声信号の内の右チャンネルの音声信号の増幅度を大きくする。つまり、左右の音量バランスを変更し、右側の音量を左側より大きくする。編集された音声は、音声データとして映像データとともに映像ファイルに書き込まれてもよいし、再生装置の音声出力回路の制御データ、すなわちアンプの増幅度と複数のマイクロフォンの混合比(指向性)として映像ファイルに書き込まれてもよい。   On the other hand, the editing apparatus 1 according to the embodiment also performs audio editing together with video editing. In audio editing, the directivity and size of the audio in the playback state are changed to be optimal according to the position and size of the video trimming area. For example, when the video zoomed in on the audience supporting the competition is a new video, the playback volume is increased. That is, the sound is edited so that the playback volume increases as the trimming area decreases. Further, when a region close to the right end of the captured image is set as a trimming region, the amplification degree of the right channel audio signal among the left and right channel audio signals is increased. That is, the left and right volume balance is changed, and the right volume is increased from the left. The edited audio may be written into the video file together with the video data as audio data, or the video as the control data of the audio output circuit of the playback device, that is, the amplification ratio of the amplifier and the mixing ratio (directivity) of the plurality of microphones. It may be written to a file.

図19(l)に示す選手達がゴールするシーンは、図15に示す撮像装置Xによる画像の(l)部を切り出してトリミングする。その後、1着になった主人公をクローズアップした図19(m)に示すシーンを生成するために、図15の(m)部を切り出してトリミングする。つまり、擬似的なパンニングとズームインを行う。引き続き主人公が1着の旗の所まで移動する姿を追いかけたクローズアップシーン図19(n)、(o)、(p)を生成するために、テンプレートマッチングによる主人公の追尾処理を行い、図16の(n)部、図17の(o)部、図18の(p)の順に切り出してトリミングを行う。つまり、擬似的なパンニングとズームインを行う。   For the scene shown by the players shown in FIG. 19 (l), the (l) portion of the image obtained by the imaging apparatus X shown in FIG. 15 is cut out and trimmed. After that, in order to generate the scene shown in FIG. 19 (m) in which the main character who is wearing first place is close-up, the part (m) in FIG. 15 is cut out and trimmed. That is, pseudo panning and zoom-in are performed. In order to generate the close-up scenes 19 (n), (o), and (p) in which the main character has continued to move to the first flag, tracking processing of the main character by template matching is performed. (N) part, (o) part of FIG. 17, and (p) of FIG. 18 are cut out in this order for trimming. That is, pseudo panning and zoom-in are performed.

主人公がゴールしてから1着の旗の所へ移動するまでの時間が長い場合には、移動途中の一部の映像をカットし、前後の映像をオーバーラップさせる。オーバーラップは、カット部分より前の映像と後の映像との混合比を徐々に変化させて実現する。このオーバーラップにより、時間軸上でのスキップが違和感なく視聴者に受け入れられる。   If it takes a long time for the hero to move to the first flag after finishing the goal, a part of the video in the middle of the movement is cut and the previous and next videos are overlapped. The overlap is realized by gradually changing the mixing ratio of the image before and after the cut portion. Due to this overlap, skipping on the time axis is accepted by the viewer without a sense of incongruity.

1着の旗の所にいる主人公をクローズアップしたシーン図19(p)を所定時間、例えば4秒間継続させた後、図21に示す主人公が1着のメダルを掛けてもらって喜んでいるシーン(図19(g)参照)を所定時間、例えば5秒間継続する。なお、図21に示すシーンは、徒競争の後で撮像した運動会の映像ファイルの中から抽出した静止画または動画である。その後、フェードアウトして「END」シーン図19(r)を挿入し、自動編集処理が終了する。   A scene in which the main character at the flag of the first place is shown in close-up FIG. 19 (p) is continued for a predetermined time, for example, 4 seconds, and then the main character shown in FIG. 19G) is continued for a predetermined time, for example, 5 seconds. Note that the scene shown in FIG. 21 is a still image or a moving image extracted from the video file of the athletic meet taken after the competition. Thereafter, fade-out is performed and the “END” scene FIG. 19 (r) is inserted, and the automatic editing process ends.

上述した一実施の形態において、映像の中で同じ構図が長く続くと視聴者が飽きてしまう。この度合いは編集された映像の視聴者と主人公との関係により異なる。つまり、主人公と視聴者が近い関係にある場合はある程度長い構図のシーンを許容できるが、遠い関係になるほど長い構図のシーンに飽きてしまう。テレビ放送のニュース番組などからも明らかなように1つの構図シーンは、15〜30秒程度までが適当である。ダイジェスト(1分)、ショート(3分)、ロング(5分)の再生時間バージョンの内、ロングバージョンは主人公に近い関係のある視聴者が見ることを前提に、1つの構図シーンをある程度長くするとともに、ゴールシーンやメダルシーンなどの優先順位を高くする。一方、ダイジェストバージョンとショートバージョンは主人公と比較的遠い関係にある視聴者が見ることを前提に、1つの構図シーンの長さが長くならないように、またゴールシーンやメダルシーンを際立たせないようにする。   In the embodiment described above, the viewer gets bored when the same composition continues in the video for a long time. This degree differs depending on the relationship between the viewer of the edited video and the main character. In other words, when the main character and viewer are in a close relationship, a scene with a long composition can be tolerated, but the longer the scene, the more tired the scene with a long composition. As is clear from news programs on television broadcasting, it is appropriate that one composition scene is about 15 to 30 seconds. Among the digest (1 minute), short (3 minutes), and long (5 minutes) playback time versions, the long version makes a composition scene longer to some extent on the assumption that viewers who are close to the main character watch it. At the same time, priorities such as goal scenes and medal scenes are increased. On the other hand, the digest version and the short version are intended to be viewed by viewers who are relatively distant from the main character, so that the length of one composition scene does not increase, and the goal scene and medal scene do not stand out. To do.

同じシーンの再生時間が所定時間、例えば20秒間以上となる場合、例えば徒競走の走っているシーンでは、視聴者を飽きさせないようにするために、ズームイン、ズームアウトなどの疑似カメラワークにより構図を変化させる。あるいは、走っている映像の一部を周辺環境の映像、例えば応援風景などに代え、走っているシーンを短縮してもよい。例えば、走っているシーンが20秒あった場合、走っているシーンの途中に観客の応援するシーンを3秒間挿入し、スタートとゴールのシーンを残したままで走っているシーンを10秒間カットすると、再生時間を7秒間短縮できる。走っているシーンの途中を10秒間カットして前後の映像を単純につなぎ合わせると、視聴者に不自然さを感じさせるが、途中に応援風景を挿入することによって不自然さを感じさせずに再生時間を短縮できる。なお、逆に再生時間を延長する場合にも、途中に周辺環境の映像を挿入する手法が有効である。   When the playback time of the same scene is a predetermined time, for example, 20 seconds or more, the composition is changed by pseudo-camera work such as zooming in and zooming out so that the viewer does not get bored, for example, in a scene where a student race is running Let Alternatively, a part of the running image may be replaced with an image of the surrounding environment, such as a support scene, and the running scene may be shortened. For example, if there is a running scene for 20 seconds, insert a scene that the audience supports in the middle of the running scene for 3 seconds and cut the running scene with the start and goal scenes left for 10 seconds. Playback time can be reduced by 7 seconds. If you cut the middle of the running scene for 10 seconds and simply join the images before and after, the viewer will feel unnatural, but by inserting a cheering landscape in the middle, without feeling unnatural Playback time can be shortened. Conversely, when extending the playback time, it is effective to insert a video of the surrounding environment in the middle.

上述した一実施の形態では、複数の撮像装置で運動会の徒競走を撮像し、一方の撮像装置に映像障害が生じた場合に他方の撮像装置の映像を用いる例を示した。複数の撮像装置で同一の被写体を広角で撮像した場合に、二つの映像の内のトリミング領域内の被写体までの撮影距離の短い映像を用いるようにしてもよい。例えば、上述した主人公が1着の旗の所で喜んでいるシーンでは、二つの映像の内、トリミング領域内の主人公と旗までの撮影距離が短い方の映像を採用した方が、主人公が大きく写っている新規映像を高画質で生成できる。あるいは、トリミング領域内の主要被写体の大きさが所定値以上の映像を採用してもよい。これにより、上述した画素数変換による画質劣化を低減させることができる。なお、いずれにしても主人公の顔が正面を向いている映像が望ましいのはもちろんである。   In the above-described embodiment, an example is shown in which a plurality of imaging devices capture an athletic competition and use the image of the other imaging device when a video failure occurs in one imaging device. When the same subject is imaged at a wide angle by a plurality of imaging devices, an image with a short shooting distance to the subject in the trimming area of the two images may be used. For example, in the scene where the main character is pleased with the flag of the first place, the main character is larger when the shooting distance between the main character in the trimming area and the shooting distance to the flag is shorter. New images can be generated with high image quality. Alternatively, an image in which the size of the main subject in the trimming area is a predetermined value or more may be employed. As a result, the image quality deterioration due to the pixel number conversion described above can be reduced. In any case, it is a matter of course that an image in which the face of the main character faces the front is desirable.

イベントごとにクライマックスシーンが定められている場合には、クライマックスシーンがスローモーションとなるように編集してもよい。例えば、徒競争イベントではゴールシーンが一つのクライマックスシーンであり、主人公の動作認識により検出したゴールシーンをスローモーションシーンに編集し直す。なお、クライマックスシーンをスローモーションに編集する場合には、スローモーションシーンの再生時間が定められた再生時間内に収まるようにする。   When a climax scene is defined for each event, the climax scene may be edited so as to be in slow motion. For example, in a competition event, the goal scene is one climax scene, and the goal scene detected by the recognition of the main character's motion is re-edited into a slow motion scene. When the climax scene is edited in slow motion, the playback time of the slow motion scene is set to fall within the determined playback time.

上述した一実施の形態では、動きが連続するシーン(徒競争の走っているシーン)の途中映像をカットして前後の映像をつなぎ込む際に、間に周辺環境の映像を挿入するか、あるいは前後の映像をオーバーラップさせてつなぎ込む例を示したが、他の映像を挿入することなく、かつオーバーラップさせずにつなぎ込む場合には、前後の映像のトリミング領域の大きさを異ならせるのが望ましい。同じ大きさのトリミング領域とすると、視聴者に違和感を与えることになる。また、この場合には、主要被写体の状態や動き、例えば主人公の顔の表情や手足の動きなどが連続するようにカットしてつなぐのが望ましい。例えば、前の映像で左足が前に出ている場合には、つなぎ込まれる後の映像では右足が前に出ていないようにカットする。   In the above-described embodiment, when an image in the middle of a scene in which movement continues (a scene in which competition is running) is cut and the previous and subsequent images are connected, an image of the surrounding environment is inserted between them, or In the example shown, the front and back images are overlapped and connected. However, when inserting other images without overlapping, the size of the trimming area of the front and back images can be made different. Is desirable. If the trimming areas have the same size, the viewer will feel uncomfortable. Further, in this case, it is desirable to cut and connect the main subject so that the state and movement of the main subject, for example, the facial expression of the main character and the movement of the limbs are continuous. For example, when the left foot is in front in the previous video, the cut is made so that the right foot does not go out in the video after being connected.

なお、元映像の画像解析結果に基づいて、音声あるいは字幕によるナレーションを自動的に挿入するようにしてもよい。例えば上述した徒競争イベントでは、図19(m)に示すゴールシーンで「Naoちゃん1着でゴールイン」などの音声または字幕によるナレーションを自動挿入する。字幕を挿入する場合には、字幕挿入部分を考慮してトリミング領域が決定される。音声を挿入する場合には、ゴールシーンの映像とともに録音された歓声などの音声は自動的に音量が小さくなるように制御され、音声ナレーションを聞こえやすくする。   Note that voice or caption narration may be automatically inserted based on the image analysis result of the original video. For example, in the above-mentioned competition event, voice or caption narration such as “Going in with Nao first” is automatically inserted in the goal scene shown in FIG. When subtitles are inserted, the trimming area is determined in consideration of the subtitle insertion portion. When voice is inserted, voice such as a cheer recorded along with the video of the goal scene is automatically controlled so that the volume is reduced, so that voice narration can be heard easily.

上述した一実施の形態では、編集イベントに応じたシナリオを選択し、そのシナリオにしたがって自動編集を行う例を示したが、各イベントに対応するシナリオを複数記憶しておくようにしてもよい。あるいはインターネットを介して編集イベントに応じた複数のシナリオを取得するようにしてもよい。このような構成では、それぞれのシナリオに編集対象の映像の適用条件が規定されており、映像編集装置1の制御部3aおよび画像解析部3bにより編集対象の映像が適用条件を満たすか否かが判別され、適用条件を満たすシナリオが選択される。   In the above-described embodiment, an example in which a scenario corresponding to an editing event is selected and automatic editing is performed according to the scenario has been described. However, a plurality of scenarios corresponding to each event may be stored. Or you may make it acquire the some scenario according to an edit event via the internet. In such a configuration, the application condition of the video to be edited is defined for each scenario, and whether or not the video to be edited satisfies the application condition by the control unit 3a and the image analysis unit 3b of the video editing apparatus 1. A scenario that satisfies the application condition is selected.

例えば編集イベントが上述した徒競争の場合には、下記のような複数のシナリオの中から編集対象の映像が適用条件を満たすシナリオが選択される。シナリオAでは、(A1)運動会の旗の映像が連続して10秒間映っている、(A2)スタートライン整列の5秒前から主人公が映っている、(A3)走っている映像が10〜15秒間連続して映っている、(A4)主人公が1着から3着までに入賞している、(A5)ゴール後、旗の所へ移動するまでの映像がある、(A6)旗の所から退場門までの映像がある、という適用条件が設定されている。また、シナリオBでは、(B1)運動会の旗の映像が連続して10秒間映っている、(B2)スタートライン整列の5秒前から主人公が映っている、(B3)走っている映像が10〜15秒間映っている、(B4)主人公が4着以下でゴールしている、という適用条件が設定されている。   For example, when the editing event is the competition described above, a scenario that satisfies the application condition of the video to be edited is selected from the following scenarios. In scenario A, (A1) The image of the athletic meet flag is shown for 10 seconds continuously, (A2) The main character is shown from 5 seconds before the start line alignment, (A3) The running image is 10 to 15 It is shown continuously for 2 seconds, (A4) the main character wins from 1st to 3rd, (A5) there is a video of moving to the flag after the goal, (A6) from the flag The application condition that there is a video up to the exit gate is set. In scenario B, (B1) The image of the athletic meet flag is shown for 10 seconds continuously, (B2) The main character is shown from 5 seconds before the start line alignment, (B3) The image of running is 10 Applicable conditions are set such that it is reflected for ˜15 seconds, and (B4) the hero has scored a goal in 4th or less.

さらに、シナリオCでは、(C1)運動会の旗の映像が連続して10秒間映っている、(C2)スタートライン整列の5秒前から主人公が映っている、(C3)走っている映像が15秒間以上連続して映っている、(C4)主人公が1着から3着までに入賞している、(C5)ゴール後、旗の所へ移動するまでの映像がある、(C6)旗の所から退場門から退場するまでの映像が映っている、という適用条件が設定されている。そして、シナリオDでは、(D1)運動会の旗の映像が10秒間映っている、(D2)スタートライン整列の5秒前から主人公が映っている、(D3)走っている映像が20秒以上連続して映っている、(D4)主人公が4着以下でゴールしている、という適用条件が設定されている。   Furthermore, in scenario C, (C1) The image of the athletic meet flag is shown for 10 seconds continuously, (C2) The main character is shown 5 seconds before the start line alignment, (C3) The image of running is 15 (C4) The main character wins from 1st to 3rd, (C5) There is a video of moving to the flag after the goal, (C6) Flag The application condition is that the video from the exit to the exit gate is shown. And in scenario D, (D1) The image of the athletic meet flag is shown for 10 seconds, (D2) The main character is shown 5 seconds before the start line alignment, (D3) The running image is continuous for 20 seconds or more (D4) Applicable conditions are set that the hero has scored a goal in 4th or less.

シナリオA〜Dの適用条件において、シナリオAとBでは走っている映像が10〜15秒とされているのに対し、シナリオCとDでは走っている映像が20秒以上連続していることとされている。同一のシーンを長く視聴させると視聴者が飽きるので、シナリオCとDでは、上述した手法で走っている映像の途中で周辺環境映像を例えば4秒間挿入する。また、シナリオAとCでは主人公が1〜3着で入賞し、シナリオBとDでは主人公が4着以下でゴールしたことを条件にしている。特にシナリオAとCの場合は、「ゴール後、旗の所へ移動するまでの映像が映っている」こと、および「旗の所から退場門から退場するまでの映像が映っている」ことも条件としている。このような適用条件によれば、徒競争の結果に応じて主人公が喜んだり、あるいはがっかりしたりする様子を的確に編集することが可能になる。   In the application conditions of scenarios A to D, the images running in scenarios A and B are 10 to 15 seconds, while the images running in scenarios C and D are continuous for 20 seconds or more. Has been. When viewing the same scene for a long time, the viewer gets bored. Therefore, in scenarios C and D, a surrounding environment image is inserted for 4 seconds, for example, in the middle of the image running by the above-described method. In Scenarios A and C, the main character wins 1st to 3rd, and in Scenarios B and D, the main character wins 4th or less. Especially in the case of scenarios A and C, “after the goal, the video until moving to the place of the flag is shown” and “the image from the place of the flag until leaving the exit gate” is also shown. As a condition. According to such an application condition, it is possible to accurately edit how the hero is pleased or disappointed depending on the result of the competition.

映像編集装置1の制御部3aは、画像解析部3bによる編集対象映像の解析結果と、上述したシナリオA〜Dの適用条件とを対比し、編集対象映像がどの適用条件を満たしているかを判別する。編集対象映像が適用条件を満たすシナリオを検索した後、そのシナリオにしたがって編集対象映像の自動編集を行う。このように、一つのイベントに対して複数のシナリオを用意しておき、それらの中から編集対象映像に最適なシナリオを選択することによって、編集対象映像に最適な編集を行うことができる。   The control unit 3a of the video editing device 1 compares the analysis result of the video to be edited by the image analysis unit 3b with the application conditions of the above-described scenarios A to D, and determines which application condition the video to be edited satisfies. To do. After searching for a scenario that satisfies the application condition of the editing target video, the editing target video is automatically edited according to the scenario. In this way, by preparing a plurality of scenarios for one event and selecting a scenario that is optimal for the editing target video from among them, it is possible to perform editing that is optimal for the editing target video.

上述した変形例では、走っている映像の継続時間やゴールの着順などの映像の解析内容に応じたシナリオを選択する例を示したが、同じイベント映像であっても報道の映像表現と映画の映像表現とは異なる。例えば「映画監督XY風」や「ドキュメンタリー風」などの適用条件を設定したシナリオを用意し、それらの中から編集対象映像に応じて自動もしくは手動で選択するようにしてもよい。これにより、ユーザー好みの映像を生成することができる。   In the above-described modification, an example is shown in which a scenario according to the analysis content of the video such as the duration of the running video and the order of arrival of the goals is selected. It is different from the video expression. For example, a scenario in which application conditions such as “movie director XY style” and “documentary style” are set may be prepared and automatically or manually selected from them according to the video to be edited. Thereby, a user's favorite picture can be generated.

なお、上述した実施の形態とそれらの変形例において、実施の形態と変形例とのあらゆる組み合わせが可能である。   In the above-described embodiments and their modifications, all combinations of the embodiments and the modifications are possible.

上述した実施の形態とその変形例によれば、映像の内容を解析して映像に映されているイベントを識別するとともに、複数のシナリオの中から識別結果のイベントに対応するシナリオを選択し、選択されたシナリオにしたがって映像を構成する複数のフレーム画像に対して擬似カメラワーク処理を施すことによって、映像から新規映像を生成するようにしたので、一般ユーザーが撮像したイベント映像から、プロフェショナルが撮像し編集した映像と同じようなレベルの映像が容易に得られる。   According to the above-described embodiment and its modification, the content of the video is analyzed to identify the event reflected in the video, and the scenario corresponding to the event of the identification result is selected from a plurality of scenarios. A new video is generated from the video by performing a pseudo camera work process on the multiple frame images that make up the video according to the selected scenario. Therefore, it is possible to easily obtain a video of the same level as the edited video.

また、一実施の形態とその変形例では、広角で撮像された映像のフレーム画像から一部の領域を切り出して新規フレーム画像を生成する疑似カメラワーク処理を行うようにした。一般のユーザーではプロのカメラマンが撮像したような見栄えのよい映像を撮像するのは難しく、カメラワークを駆使して撮像した映像を編集しても、ズームインして撮像した拡大映像からズームアウトした縮小映像を取得したり、撮像装置のパンニングを行った後でパンニング前の撮像範囲の映像を取得したり、あるいはカット期間の映像を取得することはできないため、ユーザーの意図する映像を生成することは難しい。一実施の形態とその変形例によれば、広い範囲で発生している事象をくまなく取得でき、撮像時のカメラワークのミスによる大事なシーンを取り逃がすようなことを防止することができる。   In one embodiment and its modification, pseudo camera work processing is performed in which a part of a region is cut out from a frame image of a video captured at a wide angle to generate a new frame image. It is difficult for ordinary users to capture images that look good like those photographed by professional photographers, and even if you edit images captured using camera work, you can zoom in and zoom out from the expanded image It is not possible to acquire a video, acquire a video of the imaging range before panning after panning the imaging device, or acquire a video of the cut period, so it is not possible to generate a video intended by the user difficult. According to the embodiment and the modification thereof, it is possible to acquire all the events occurring in a wide range, and to prevent an important scene from being missed due to a camera work error at the time of imaging.

一実施の形態とその変形例によれば、映像を構成する連続したフレーム画像のそれぞれから切り出す領域の大きさと位置を変えて新規フレーム画像を生成する疑似カメラワーク処理を行うようにした。つまり、広角で撮像された映像を構成するフレーム画像の中の一部の領域をトリミングにより切り出してあたかも撮像時にズームインまたはズームアウトしたかのように編集したり、トリミング範囲を変更してあたかも撮像時に撮像装置をパンニングしたかのように編集したり、あるいは同一シーンの一部を削除してあたかも撮像時にカットを行ったかのように編集する。このような編集を行うことによって、あたかも撮像時にカメラワークを駆使して撮像したかのような擬似的なカメラワークを実現でき、撮像時に実際にカメラワークを行った場合と同様な映像効果を得ることができる。   According to one embodiment and its modification, pseudo camera work processing is performed in which a new frame image is generated by changing the size and position of a region cut out from each of consecutive frame images constituting a video. In other words, a part of the frame image composing a wide-angle image is cut out by trimming and edited as if zoomed in or out during shooting, or the trimming range was changed as if shooting. Edit as if the imaging device was panned, or delete as part of the same scene and edit as if a cut was made during imaging. By performing such editing, it is possible to realize a pseudo camera work as if it were captured using the camera work at the time of imaging, and obtain the same video effect as when the camera work was actually performed at the time of imaging. be able to.

一実施の形態とその変形例によれば、同一イベントに対する適用条件の異なる複数のシナリオの中から、解析された映像の内容とシナリオごとの適用条件とを照合し、適用条件が合致するシナリオを選択するようにしたので、編集対象映像に最適な編集を行うことができる。   According to one embodiment and the modification thereof, the contents of the analyzed video and the application conditions for each scenario are collated from a plurality of scenarios having different application conditions for the same event, and a scenario in which the application conditions match is determined. Since the selection is made, the optimum editing can be performed on the editing target video.

一実施の形態とその変形例によれば、シナリオには映像の中の予め指定された人または物を中心に編集するための手法と手順が記録されており、映像を構成する複数のフレーム画像から予め指定された人または物を検索しながら、シナリオにしたがって映像を構成する複数のフレーム画像に対して擬似カメラワーク処理を施すようにしたので、主人公あるいは注目した物を中心とした新規映像を生成することができる。   According to one embodiment and its modification, a scenario records a technique and a procedure for editing a person or thing specified in advance in a video, and a plurality of frame images constituting the video. While searching for a person or object specified in advance, the pseudo camera work processing is applied to the multiple frame images that make up the image according to the scenario. Can be generated.

一実施の形態とその変形例によれば、シナリオにはイベント映像に含まれる複数のシーンに対するシーンごとの優先順位、シーンごとの再生時間、シーンの切り換え、シーンごとの再生順序が規定されているので、編集対象映像に最適な編集を行うことができる。   According to one embodiment and its modification, the scenario defines the priority order for each of the scenes included in the event video, the playback time for each scene, the switching of scenes, and the playback order for each scene. Therefore, it is possible to perform optimum editing for the editing target video.

一実施の形態とその変形例によれば、撮像時刻が所定時間以内または撮像場所が所定距離以内の複数の映像の内容を解析して複数の映像に映されているイベントを識別するとともに、識別された複数の映像の中から同一のイベントが映されている映像を選別して当該イベントに対応するシナリオを選択し、選択されたシナリオにしたがって同一イベントが映されている映像を構成する複数のフレーム画像に対して擬似カメラワーク処理を施すようにしたので、同一イベントを撮像した多くの映像から、一般ユーザーが撮像した多くのイベント映像から、プロフェショナルが撮像し編集した映像と同じレベルの映像が容易に得られる。   According to one embodiment and its modification, the contents of a plurality of videos whose imaging time is within a predetermined time or whose imaging location is within a predetermined distance are analyzed to identify an event shown in the plurality of videos, and Selecting a scenario corresponding to the event from a plurality of selected images, selecting a scenario corresponding to the event, and configuring a plurality of images that include the same event according to the selected scenario Since the pseudo-camera work process is applied to the frame image, the same level of video as the image captured and edited by the professional from the many event images captured by the general user from the many images captured from the same event. Easy to obtain.

一実施の形態とその変形例によれば、疑似カメラワーク処理に応じて音声の音量と左右の音量バランスを変更するようにしたので、映像に合った効果的な音声が容易に得られる。   According to the embodiment and the modification thereof, since the sound volume and the left and right sound volume balance are changed according to the pseudo camera work process, an effective sound suitable for the video can be easily obtained.

一実施の形態とその変形例によれば、予め指定された人または物の像データと映像を構成するフレーム画像とを照合し、映像の中から人または物を検索するとともに、その検索結果に基づいて映像の中に人または物が映り込んでいる状態を検出し、検出された状態に基づいて人または物を中心にして映像を編集することの適否を判定するようにしたので、映像を編集する前に、その映像が予め指定された人や物を中心とした新規映像を生成するのに適しているか否かを知ることができ、無駄になる編集動作を未然に防止することができる。   According to one embodiment and its modification, the image data of a person or an object designated in advance is collated with a frame image constituting the image, and the person or the object is searched from the image, and the search result is Based on the detected state of a person or object in the video, and based on the detected state, it is determined whether or not it is appropriate to edit the video around the person or object. Before editing, it is possible to know whether or not the video is suitable for generating a new video centered on a predetermined person or object, and it is possible to prevent unnecessary editing operations. .

一実施の形態とその変形例によれば、映像の中に予め指定された人または物が映り込んでいる時間を検出し、映像の全再生時間に対する人または物が映り込んでいる時間の割合が所定の割合未満の場合には、映像は予め指定された人または物を中心にして編集するのに適していないと判定するようにしたので、映像を編集する前に、その映像が予め指定された人や物を中心とした新規映像を生成するのに適しているか否かを知ることができ、無駄になる編集動作を未然に防止することができる。   According to one embodiment and its modification, the time during which a person or object specified in the video is reflected in the video is detected, and the ratio of the time during which the human or object is reflected in the total playback time of the video. Is less than a predetermined ratio, it is determined that the video is not suitable for editing with a pre-specified person or object, so that the video is specified in advance before editing the video. Therefore, it is possible to know whether or not it is suitable for generating a new video centered on a person or an object, and it is possible to prevent an unnecessary editing operation.

一実施の形態とその変形例によれば、予め指定された人または物のフレーム画像に占める大きさが所定の大きさ未満の場合には、編集対象の映像は予め指定された人または物を中心にして編集するのに適していないと判定するようにしたので、主人公が小さく映っている新規映像が生成されるのを未然に防止することができる。   According to one embodiment and its modification, if the size of the frame image of the person or object specified in advance is less than a predetermined size, the video to be edited is the person or object specified in advance. Since it is determined that the image is not suitable for editing at the center, it is possible to prevent the generation of a new image in which the main character is small.

一実施の形態とその変形例によれば、フレーム画像の中の予め指定された人または物のぼけ具合が許容値より大きい場合には、編集対象の映像は予め指定された人または物を中心にして編集するのに適していないと判定するようにしたので、ピントのぼけた主人公が映っている新規映像が生成されるのを未然に防止することができる。   According to one embodiment and its modification, if the blurring degree of a predesignated person or object in the frame image is larger than the allowable value, the video to be edited is centered on the predesignated person or object. Thus, since it is determined that it is not suitable for editing, it is possible to prevent the generation of a new video in which the focused main character is reflected.

一実施の形態とその変形例によれば、映像の内容を解析して映像に映されているイベントを識別するとともに、複数のシナリオの中から識別結果のイベントに対応するシナリオを選択し、映像の中のシナリオに規定される特定のシーンに予め指定された人または物が映り込んでいない場合には、編集対象の映像は予め指定した人または物を中心にして編集するのに適していないと判定するようにしたので、例えばクライマックスシーンなどの特定のシーンの中に主人公が映っていないような新規映像が生成されるのを未然に防止することができる。   According to one embodiment and its modification, the video content is analyzed to identify an event reflected in the video, and a scenario corresponding to the event of the identification result is selected from a plurality of scenarios, and the video is selected. If the person or object specified in advance is not reflected in the specific scene specified in the scenario, the video to be edited is not suitable for editing around the person or object specified in advance. Therefore, it is possible to prevent the generation of a new video in which the main character is not shown in a specific scene such as a climax scene.

一実施の形態とその変形例によれば、映像の中のシーンごとの再生時間がシナリオに規定されるシーンごとの再生時間に満たない場合には、編集対象の映像は予め指定された人または物を中心にして編集するのに適していないと判定するようにしたので、イベントの各シーンの中に主人公が映っていないような新規映像が生成するのを未然に防止することができる。   According to one embodiment and its modification, when the playback time for each scene in the video is less than the playback time for each scene specified in the scenario, the video to be edited is a person designated in advance or Since it is determined that the object is not suitable for editing, it is possible to prevent the generation of a new video in which the main character is not reflected in each scene of the event.

1;映像編集装置、2;記憶装置、3;コンピューター、4;操作部、5;表示装置、6;スピーカー
1; video editing device, 2; storage device, 3; computer, 4; operation unit, 5; display device, 6;

Claims (7)

予め指定された人または物の像データと映像を構成するフレーム画像とを照合し、前記映像の中から前記人または物を検索する人物検索手順と、
前記人物検索手順の検索結果に基づいて、前記映像の中に前記人または物が映り込んでいる状態を検出する状態検出手順と、
前記状態検出手順で検出された状態に基づいて、前記人または物を中心にして前記映像を編集することの適否を判定する編集適否判定手順とをコンピューターに実行させる映像編集プログラム。
A person search procedure for collating image data of a person or object designated in advance with a frame image constituting the image and searching for the person or object from the image,
A state detection procedure for detecting a state in which the person or object is reflected in the video based on a search result of the person search procedure;
An image editing program for causing a computer to execute an editing suitability determination procedure for determining whether or not to edit the image centered on the person or an object based on the state detected by the state detection procedure.
請求項1に記載の映像編集プログラムにおいて、
前記状態検出手順では、前記映像の中に前記人または物が映り込んでいる時間を前記状態として検出し、
前記編集適否判定手順では、前記映像の全再生時間に対する前記時間の割合が所定の割合未満の場合には、前記映像は前記人または物を中心にして編集するのに適していないと判定することを特徴とする映像編集プログラム。
The video editing program according to claim 1,
In the state detection procedure, the time during which the person or object is reflected in the video is detected as the state,
In the editing suitability determination procedure, if the ratio of the time to the total playback time of the video is less than a predetermined ratio, the video is determined not to be suitable for editing centering on the person or thing. A video editing program featuring:
請求項1または請求項2に記載の映像編集プログラムにおいて、
前記状態検出手順では、前記人物検索手順で検索された前記人または物のフレーム画像に占める大きさを前記状態として検出し、
前記編集適否判定手順では、前記人または物のフレーム画像に占める大きさが所定の大きさ未満の場合には、前記映像は前記人または物を中心にして編集するのに適していないと判定することを特徴とする映像編集プログラム。
In the video editing program according to claim 1 or 2,
In the state detection procedure, the size of the person or the object searched in the person search procedure in the frame image is detected as the state,
In the editing suitability determination procedure, if the size of the person or object in the frame image is less than a predetermined size, it is determined that the video is not suitable for editing centering on the person or object. A video editing program characterized by that.
請求項1〜3のいずれか一項に記載の映像編集プログラムにおいて、
前記状態検出手順では、前記人物検索手順で検索されたフレーム画像の中の前記人または物のぼけ具合を前記状態として検出し、
前記編集適否判定手順では、フレーム画像の中の前記人または物のぼけ具合が許容値より大きい場合には、前記映像は前記人または物を中心にして編集するのに適していないと判定することを特徴とする映像編集プログラム。
In the video editing program according to any one of claims 1 to 3,
In the state detection procedure, the degree of blur of the person or object in the frame image searched in the person search procedure is detected as the state,
In the editing suitability determination procedure, when the blurring degree of the person or object in the frame image is larger than an allowable value, it is determined that the video is not suitable for editing around the person or object. A video editing program featuring:
請求項1〜4のいずれか一項に記載の映像編集プログラムにおいて、
映像の内容を解析し、前記映像に映されているイベントを識別するイベント識別手順と、
複数のシナリオの中から前記イベント識別手順で識別されたイベントに対応するシナリオを選択するシナリオ選択手順とをさらにコンピューターに実行させ、
前記状態検出手順では、前記映像の中の前記シナリオに規定される特定のシーンに前記人または物が映り込んでいるか否かを前記状態として検出し、
前記編集適否判定手順では、前記状態検出手順で前記特定のシーンに前記人または物が映り込んでいる状態が検出されない場合には、前記映像は前記人または物を中心にして編集するのに適していないと判定することを特徴とする映像編集プログラム。
In the video editing program according to any one of claims 1 to 4,
An event identification procedure for analyzing the content of the video and identifying the event shown in the video;
Causing the computer to further execute a scenario selection procedure for selecting a scenario corresponding to the event identified by the event identification procedure from a plurality of scenarios,
In the state detection procedure, it is detected as the state whether or not the person or object is reflected in a specific scene defined in the scenario in the video,
In the editing suitability determination procedure, when the state detection procedure does not detect the state in which the person or object is reflected in the specific scene, the video is suitable for editing centering on the person or object. A video editing program characterized by determining that it is not.
請求項5に記載の映像編集プログラムにおいて、
前記状態検出手順では、前記映像の中の前記シナリオに規定されるシーンごとの再生時間を前記状態として検出し、
前記編集適否判定手順では、前記状態検出手順で前記映像の中のシーンごとの再生時間が前記シナリオに規定されるシーンごとの再生時間に満たない場合には、前記映像は前記人または物を中心にして編集するのに適していないと判定することを特徴とする映像編集プログラム。
The video editing program according to claim 5, wherein
In the state detection procedure, the playback time for each scene defined in the scenario in the video is detected as the state,
In the editing suitability determination procedure, if the playback time for each scene in the video is less than the playback time for each scene specified in the scenario in the state detection procedure, the video is centered on the person or thing. A video editing program characterized in that the video editing program is determined not to be suitable for editing.
映像を記憶する記憶装置と、
請求項1〜6のいずれか一項に記載の映像編集プログラムを実行するコンピューターと、
映像を表示する表示装置とを備えることを特徴とする映像編集装置。
A storage device for storing images;
A computer that executes the video editing program according to any one of claims 1 to 6;
A video editing apparatus comprising a display device for displaying video.
JP2009076109A 2009-03-26 2009-03-26 Video editing program, and video editing device Pending JP2010232814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009076109A JP2010232814A (en) 2009-03-26 2009-03-26 Video editing program, and video editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009076109A JP2010232814A (en) 2009-03-26 2009-03-26 Video editing program, and video editing device

Publications (1)

Publication Number Publication Date
JP2010232814A true JP2010232814A (en) 2010-10-14

Family

ID=43048237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009076109A Pending JP2010232814A (en) 2009-03-26 2009-03-26 Video editing program, and video editing device

Country Status (1)

Country Link
JP (1) JP2010232814A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013175922A (en) * 2012-02-24 2013-09-05 Nikon Corp Video editing device, television receiver, and video editing program
CN103545937A (en) * 2012-07-10 2014-01-29 Spacon株式会社 Apparatus and method for detecting foreign objects in wireless power transmission system
JP2015179978A (en) * 2014-03-19 2015-10-08 カシオ計算機株式会社 image processing apparatus, image processing method and program
JP2016536897A (en) * 2013-08-29 2016-11-24 メディアプロダクション エス.エル.ユーMediaproduccion, S.L.U Method and system for making video productions
JP2017069787A (en) * 2015-09-30 2017-04-06 徹平 江里口 Moving image processing device, moving image processing method, moving image processing program and moving image processing display system
WO2018163340A1 (en) * 2017-03-09 2018-09-13 徹平 江里口 Moving-image processing device, moving-image processing method, moving-image processing program and moving-image processing display system
JP2019186784A (en) * 2018-04-12 2019-10-24 株式会社フレイ・スリー Apparatus, method and program for creating image work
JP2019186969A (en) * 2014-10-10 2019-10-24 ソニー株式会社 Reproduction device and method, and program
WO2021106434A1 (en) * 2019-11-25 2021-06-03 富士フイルム株式会社 Video creation method
CN115699723A (en) * 2021-02-19 2023-02-03 株式会社吉纳维斯 Video editing device, video editing method, and computer program
WO2023231622A1 (en) * 2022-05-30 2023-12-07 荣耀终端有限公司 Video editing method and electronic device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152655A (en) * 2000-08-29 2002-05-24 Matsushita Electric Ind Co Ltd Method and device for generating data related information, image data generating method, method and device for reproducing image data and data storage medium
JP2004363775A (en) * 2003-06-03 2004-12-24 Oki Electric Ind Co Ltd Photographing system and method for supplying image distribution
JP2005167377A (en) * 2003-11-28 2005-06-23 Sony Corp Motion picture editor and motion picture editing method
JP2006166208A (en) * 2004-12-09 2006-06-22 Fuji Photo Film Co Ltd Coma classification information imparting apparatus, and program
JP2008061194A (en) * 2006-09-04 2008-03-13 Nikon Corp Video sharing system
JP2008165636A (en) * 2006-12-28 2008-07-17 Nippon Hoso Kyokai <Nhk> Parameter information preparation device, parameter information preparation program, event detection device, and event detection program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152655A (en) * 2000-08-29 2002-05-24 Matsushita Electric Ind Co Ltd Method and device for generating data related information, image data generating method, method and device for reproducing image data and data storage medium
JP2004363775A (en) * 2003-06-03 2004-12-24 Oki Electric Ind Co Ltd Photographing system and method for supplying image distribution
JP2005167377A (en) * 2003-11-28 2005-06-23 Sony Corp Motion picture editor and motion picture editing method
JP2006166208A (en) * 2004-12-09 2006-06-22 Fuji Photo Film Co Ltd Coma classification information imparting apparatus, and program
JP2008061194A (en) * 2006-09-04 2008-03-13 Nikon Corp Video sharing system
JP2008165636A (en) * 2006-12-28 2008-07-17 Nippon Hoso Kyokai <Nhk> Parameter information preparation device, parameter information preparation program, event detection device, and event detection program

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013175922A (en) * 2012-02-24 2013-09-05 Nikon Corp Video editing device, television receiver, and video editing program
US11139698B2 (en) 2012-07-10 2021-10-05 Ge Hybrid Technologies, Llc Apparatus and method for detecting foreign objects in wireless power transmission system
CN103545937B (en) * 2012-07-10 2020-08-18 通用电气混合动力技术有限责任公司 Apparatus and method for detecting foreign object in wireless power transmission system
US11757309B2 (en) 2012-07-10 2023-09-12 Ge Hybrid Technologies, Llc Apparatus and method for detecting foreign objects in wireless power transmission system
US9762092B2 (en) 2012-07-10 2017-09-12 Hanrim Postech Co., Ltd. Apparatus and method for detecting foreign objects in wireless power transmission system
CN103545937A (en) * 2012-07-10 2014-01-29 Spacon株式会社 Apparatus and method for detecting foreign objects in wireless power transmission system
US10439445B2 (en) 2012-07-10 2019-10-08 Ge Hybrid Technologies, Llc Apparatus and method for detecting foreign objects in wireless power transmission system
JP2016536897A (en) * 2013-08-29 2016-11-24 メディアプロダクション エス.エル.ユーMediaproduccion, S.L.U Method and system for making video productions
JP2015179978A (en) * 2014-03-19 2015-10-08 カシオ計算機株式会社 image processing apparatus, image processing method and program
US11917221B2 (en) 2014-10-10 2024-02-27 Sony Group Corporation Encoding device and method, reproduction device and method, and program
JP2019186969A (en) * 2014-10-10 2019-10-24 ソニー株式会社 Reproduction device and method, and program
CN112511833A (en) * 2014-10-10 2021-03-16 索尼公司 Reproducing apparatus
EP3829185B1 (en) * 2014-10-10 2024-04-10 Sony Group Corporation Encoding device and method, reproduction device and method, and program
CN115209186A (en) * 2014-10-10 2022-10-18 索尼公司 Reproducing apparatus and reproducing method
JP6992789B2 (en) 2014-10-10 2022-01-13 ソニーグループ株式会社 Playback equipment and methods, as well as programs
JP7409362B2 (en) 2014-10-10 2024-01-09 ソニーグループ株式会社 Reproduction device and method, and program
US11330310B2 (en) 2014-10-10 2022-05-10 Sony Corporation Encoding device and method, reproduction device and method, and program
JP2021185720A (en) * 2014-10-10 2021-12-09 ソニーグループ株式会社 Reproduction device and method, and program
JP2017069787A (en) * 2015-09-30 2017-04-06 徹平 江里口 Moving image processing device, moving image processing method, moving image processing program and moving image processing display system
WO2018163340A1 (en) * 2017-03-09 2018-09-13 徹平 江里口 Moving-image processing device, moving-image processing method, moving-image processing program and moving-image processing display system
JP2019186784A (en) * 2018-04-12 2019-10-24 株式会社フレイ・スリー Apparatus, method and program for creating image work
JP7055297B2 (en) 2018-04-12 2022-04-18 株式会社フレイ・スリー Equipment, methods, and programs for creating video works
US11689687B2 (en) 2019-11-25 2023-06-27 Fujifilm Corporation Video creation method
JP7345561B2 (en) 2019-11-25 2023-09-15 富士フイルム株式会社 Video creation method
WO2021106434A1 (en) * 2019-11-25 2021-06-03 富士フイルム株式会社 Video creation method
JPWO2021106434A1 (en) * 2019-11-25 2021-06-03
CN115699723A (en) * 2021-02-19 2023-02-03 株式会社吉纳维斯 Video editing device, video editing method, and computer program
US11942115B2 (en) 2021-02-19 2024-03-26 Genevis Inc. Video editing device, video editing method, and computer program
WO2023231622A1 (en) * 2022-05-30 2023-12-07 荣耀终端有限公司 Video editing method and electronic device

Similar Documents

Publication Publication Date Title
JP2010232814A (en) Video editing program, and video editing device
JP4261644B2 (en) Multimedia editing method and apparatus
JP5028225B2 (en) Image composition apparatus, image composition method, and program
US8121462B2 (en) Video edition device and method
JP5370170B2 (en) Summary video generation apparatus and summary video generation method
JP3708854B2 (en) Media production support device and program
JP4986886B2 (en) Imaging apparatus, image reproducing apparatus, imaging control method, and image reproducing method
JP2010050795A (en) Camera, image composition method, and program
JP5532645B2 (en) Video editing program and video editing apparatus
US20150379748A1 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image by synthesizing a plurality of images
JP2014086787A (en) Reproduction control apparatus, reproduction control method, and program
WO2005015899A1 (en) Photographing system and photographing method
WO2009150827A1 (en) Content editing device
JP2004173083A (en) Method and device for simultaneously storing/reproducing a plurality of pictures
JP2008178090A (en) Video processing apparatus
JP3462420B2 (en) Video trimming method and apparatus, and storage medium storing program describing this method
WO2013187796A1 (en) Method for automatically editing digital video files
JP2008103802A (en) Image compositing device
KR101682794B1 (en) Method for processing video clip for livebroadcast replay
CN111800663B (en) Video synthesis method and device
JP6019612B2 (en) Video editing apparatus, television receiver, and video editing program
JP5602818B2 (en) Camera, image reproduction apparatus, image composition method, and program
JP4673916B2 (en) Information processing apparatus, information processing method, and information processing program
JP4934066B2 (en) Information generating apparatus, information generating method, and information generating program
JP2010045518A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140401