JPWO2015125815A1 - Video editing device - Google Patents
Video editing device Download PDFInfo
- Publication number
- JPWO2015125815A1 JPWO2015125815A1 JP2016504128A JP2016504128A JPWO2015125815A1 JP WO2015125815 A1 JPWO2015125815 A1 JP WO2015125815A1 JP 2016504128 A JP2016504128 A JP 2016504128A JP 2016504128 A JP2016504128 A JP 2016504128A JP WO2015125815 A1 JPWO2015125815 A1 JP WO2015125815A1
- Authority
- JP
- Japan
- Prior art keywords
- scene
- image
- moving image
- digest moving
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000009795 derivation Methods 0.000 claims description 12
- 230000002123 temporal effect Effects 0.000 claims description 8
- 238000000034 method Methods 0.000 description 85
- 238000009499 grossing Methods 0.000 description 38
- 230000008569 process Effects 0.000 description 36
- 238000012545 processing Methods 0.000 description 31
- 230000008859 change Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 238000000605 extraction Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 238000012217 deletion Methods 0.000 description 13
- 230000037430 deletion Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 13
- 230000005236 sound signal Effects 0.000 description 13
- 238000013075 data extraction Methods 0.000 description 12
- 239000000284 extract Substances 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000005520 cutting process Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 241000238370 Sepia Species 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Computer Security & Cryptography (AREA)
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
大量・多数の静止画像や動画像を、手間をかけずに短時間で確認・観賞するために、動画像を含む画像データ群を、1つ以上のシーンに分割すると共に、シーン単位の特徴を示すシーン情報を生成するシーン情報生成部(102)と、シーン情報に基づいて、ダイジェスト動画像を生成するダイジェスト動画像生成部(103)とを備える映像編集装置(100)であって、ダイジェスト動画像生成部(103)は、ダイジェスト動画像を生成する際に各シーンを使用するか否か、複数のシーンを同一フレーム内に配置するか否か、および複数シーンを同一フレーム内に配置する際のシーンの空間的配置パターンを決定する。In order to confirm and appreciate a large number of still images and moving images in a short time without trouble, the image data group including moving images is divided into one or more scenes, and the features of each scene A video editing apparatus (100) comprising a scene information generation unit (102) that generates scene information to be shown, and a digest moving image generation unit (103) that generates a digest moving image based on the scene information. The image generation unit (103) determines whether to use each scene when generating a digest moving image, whether to arrange a plurality of scenes in the same frame, and when to arrange a plurality of scenes in the same frame. The spatial arrangement pattern of the scene is determined.
Description
本発明は、動画像や静止画像などの映像情報を自動的に編集する映像編集装置に関する。 The present invention relates to a video editing apparatus that automatically edits video information such as moving images and still images.
デジタルカメラやスマートフォン等、静止画像や動画像などの撮影機能を有する映像機器の普及と、メモリカード等の記録メディアの大容量化を背景に、気軽に映像情報を撮りためることができるようになっている。このような映像機器のユーザが撮りためた映像情報の活用手段の一つとして、ダイジェスト動画像の生成がある。ダイジェスト動画像は、多数あるいは長時間の動画像を入力とし、その全てを観賞する代わりに要約的にあるいは部分的に観賞できるように再構成した、比較的短時間の動画像である。 With the widespread use of video equipment with shooting functions for still images and moving images, such as digital cameras and smartphones, and the increased capacity of recording media such as memory cards, it is now possible to easily capture video information. ing. As one of means for utilizing video information taken by a user of such video equipment, there is generation of a digest moving image. The digest moving image is a moving image of a relatively short time that is reconstructed so that a large number or a long time moving image can be input, and all or all of the moving images can be viewed in summary or partially.
特許文献1には、ダイジェスト動画像と静止画像を同時にまた連続的に表示する画像表示装置を開示している。特許文献1では、映画フィルムのコマ状に配置された領域に、連続的に配置された静止画像もしくは動画像を割り当て、複数の画像を同時に観賞することを可能にしている。
しかしながら、従来のダイジェスト動画像生成およびその表示装置には以下のような問題点がある。なおこれ以降、当明細書にて「画像」と記述する場合、特に注記がなければそれは静止画像および動画像のいずれかまたは両方を意味する。「画像ファイル」、「画像データ」も同様である。 However, the conventional digest moving image generation and its display device have the following problems. Hereinafter, when “image” is described in this specification, it means either or both of a still image and a moving image unless otherwise noted. The same applies to “image file” and “image data”.
特許文献1において、表示したい静止画像や動画像は、一旦画面上にサムネイル画像を表示し、表示された画像の中から選ぶ必要がある。撮影された画像の数が少なければそれで特に問題はないが、大量・多数の画像が撮りためられて整理されていないような場合は、ユーザは膨大なサムネイル画像の中から一つ一つ画像を選択する必要が生じる。画像の数が多くなればなるほど、その選択作業に必要な手間や労力は増してゆき、ユーザの負担となる。また、静止画像が対象であればサムネイル画像から内容の把握は容易であるが、動画像が対象だとサムネイル画像からは内容の把握がしにくい場合もある。そのような場合には、ユーザが手間をかけて選んだわりに適切な画像を選択できない、といった不満につながる。
In
また、特許文献1では、表示装置上に固定的に配置された表示領域に静止画もしくは動画を分離して表示するため、表示が単調であり、飽きやすいという課題が有る。また、スマートフォンや小型のタブレットPCなど、画面の小さな表示装置では、表示領域が狭いために分離して表示した各画像が見にくい、という課題がある。
Moreover, in
本発明は上記の点に鑑みてなされたものであり、画像の内容を確認または観賞しようとすると長時間かかったり、操作の手間がかかるような大量・多数の静止画像や動画像を、手間をかけずに短時間で確認・観賞することができる、映像編集装置または方法を提供する。 The present invention has been made in view of the above points, and it takes a long time to confirm or appreciate the contents of an image, and it takes a lot of still images and moving images to take a long time or troublesome operation. Provided is a video editing apparatus or method that can be confirmed and viewed in a short time without spending time.
前述の課題を解決するために、本発明による映像編集装置は、動画像を含む画像データ群を、1つ以上のシーンに分割すると共に、シーン単位の特徴を示すシーン情報を生成するシーン情報生成部と、前記シーン情報に基づいて、前記画像データのダイジェスト動画像を生成するダイジェスト動画像生成部とを備える映像編集装置であって、前記ダイジェスト動画像生成部は、前記シーン情報に基づいて、ダイジェスト動画像を生成する際に各シーンを使用するか否か、複数のシーンを同一フレーム内に配置するか否か、および複数シーンを同一フレーム内に配置する際のシーンの空間的配置パターンを決定することを特徴としている。 In order to solve the above-described problem, a video editing apparatus according to the present invention divides an image data group including a moving image into one or more scenes and generates scene information indicating scene-specific features. And a digest moving image generating unit that generates a digest moving image of the image data based on the scene information, wherein the digest moving image generating unit is based on the scene information, Whether to use each scene when generating a digest video, whether to place multiple scenes in the same frame, and the spatial arrangement pattern of scenes when placing multiple scenes in the same frame It is characterized by deciding.
また、前述の課題を解決するために、本発明による映像編集装置は、画像データ群に基づいて、ダイジェスト動画像の再生時間候補を導出する再生時間候補導出部と、前記再生時間候補をユーザに提示し、ユーザイベントに基づいて指定時間を設定する再生時間候補表示部と、動画像を含む画像データ群を、1つ以上のシーンに分割するシーン情報生成部と、前記シーンに基づいて、画像クリップを生成し、前記画像クリップを時間的に結合することでダイジェスト動画像を生成するダイジェスト動画像生成部とを備える映像編集装置であって、前記ダイジェスト動画像生成部は、前記ダイジェスト動画像の再生時間が前記指定時間となるような調整を実施することを特徴としている。 In order to solve the above-described problem, a video editing apparatus according to the present invention includes a playback time candidate derivation unit that derives a playback time candidate for a digest moving image based on an image data group, and the playback time candidate to a user. A playback time candidate display unit that presents and sets a designated time based on a user event, a scene information generation unit that divides an image data group including a moving image into one or more scenes, and an image based on the scene A video editing apparatus comprising: a digest moving image generating unit configured to generate a clip and generate a digest moving image by temporally combining the image clips, wherein the digest moving image generating unit Adjustment is performed such that the reproduction time becomes the specified time.
また、前述の課題を解決するために、本発明による映像編集装置は、動画像を含む画像データ群を、1つ以上のシーンに分割すると共に、シーン単位の特徴を示すシーン情報を生成するシーン情報生成部と、ダイジェスト動画像の生成方針を決定し、決定した生成方針を前記ダイジェスト動画像生成部へ通知する出力制御部と、前記シーン情報および前記生成方針に基づいて、複数シーンを画面内に空間的に配置したシーン(以下、組合せシーンとする)を含む、前記画像データ群のダイジェスト動画像を生成するダイジェスト動画像生成部と、映像および操作用の情報を表示する映像表示部と、前記ダイジェスト動画像を再生して前記映像表示部に出力するダイジェスト動画像編集制御部と、外部からの操作入力を検出する操作部とを備える映像編集装置であって、前記操作部により検出された操作入力により前記ダイジェスト動画像の構成を変更することを特徴としている。 In order to solve the above-described problem, the video editing apparatus according to the present invention divides an image data group including a moving image into one or more scenes and generates scene information indicating scene-specific features. An information generation unit, an output control unit for determining a digest moving image generation policy, and notifying the determined generation policy to the digest moving image generation unit, and a plurality of scenes on the screen based on the scene information and the generation policy A digest moving image generating unit that generates a digest moving image of the image data group, and a video display unit that displays video and operation information; A digest moving image editing control unit that reproduces the digest moving image and outputs the digest moving image to the video display unit; and an operation unit that detects an operation input from the outside. A video editing apparatus is characterized by changing the configuration of the digest moving image by the detected operation input by the operation unit.
本発明によれば、大量・多数の静止画像や動画像を、手間をかけずに短時間で確認・観賞することができる。 According to the present invention, a large number and a large number of still images and moving images can be confirmed and viewed in a short time without trouble.
(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について説明する。(First embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明に係る第1の実施形態である映像編集装置の構成を示す概略図である。映像編集装置100は、画像データ分類部101、シーン情報生成部102、ダイジェスト動画像生成部103、イベント選択部104、および出力制御部105を含んで構成される。映像編集装置100はさらに、図示は省略するが、画像データを格納するデータ記録部や、画像を表示する映像表示部を内部に備えてもよいし、それらと同様の機能を備えるデータ記録装置や映像表示装置を、外部に接続可能な構成であってもよい。
FIG. 1 is a schematic diagram showing the configuration of a video editing apparatus according to the first embodiment of the present invention. The video editing apparatus 100 includes an image
画像データ分類部101は、画像データを分類する。画像データは、動画像を記録したデータであって、動画像の再生時間、撮影もしくは作成された日時を示す日時情報、撮影・作成された際の場所(位置)を示す位置情報、撮影もしくは作成したユーザまたは機器を示す作成者情報などのメタデータを含む電子データである。各画像データは、図示しない記録メディアに格納された電子ファイルであってもよく、あるいは、撮影装置から入力された画像・音声信号を含むデジタルデータであってもよい。また、画像データに静止画像を含んでいても構わない。
The image
画像データ分類部101は、画像データに含まれるメタデータに基づいて、各画像を所定の条件に合致する一つ以上の画像データ群に分類する。例えば、同一の年月日に撮影された画像データを、一つの画像データ群として分類する。さらに、撮影した際の位置情報も参照し、撮影日時が同一の年月日であって、かつ位置情報が所定の範囲内である複数の画像データを、一つの画像データ群として分類してもよいし、撮影日時が異なっても撮影時の位置情報が所定の範囲内である複数の画像データを、一つの画像データ群として分類してもよい。また、例えば、位置情報が所定の範囲内であって作成者情報が同一である複数の画像データを、一つの画像データ群として分類してもよい。
The image
図15に、画像データ分類部101によって分類される画像データ群の例を示す。データ記録部30内に、画像データ11、12、13、…1n、21、22、23、…2n等が格納されているものとする。画像データ群10は、画像データ11、12、13、…1nを含んで構成され、画像データ群20は、画像データ21、22、23、…2nを含んで構成される。画像データ11、12、13、…1nは、各画像データに含まれるメタデータ11a、12a、13a…のうち、日時情報が「2014年01月01日」、位置情報が「自宅周辺」である点が共通である。画像データ群10は、このような、日時情報(撮影日)および位置情報が同一である画像データ11、12、13…を一つの画像データ群として分類した例である。画像データ21、22、23、…2nは、各画像データに含まれるメタデータ21a、22a、23a…のうち、日時情報は2014年01月02日から2014年01月05日の範囲で異なるが、位置情報が「ハワイ島」である点が共通である。画像データ群20は、このような、日時情報(撮影日)は異なるが、位置情報が所定範囲内である画像データ21、22、23…を一つの画像データ群として分類した例である。画像データ分類部101は、このように分類した画像データ群を示す情報として、画像データ群識別情報10A、20Aを生成する。画像データ群識別情報10A、20Aは、画像データ群を識別するために、画像データ群の名称と、その画像データ群に含まれる画像データを示す情報を含んで構成される。図15の例では、画像データ分類部101は、画像データ群10の名称として「2014年01月01日 自宅周辺」という文字列を与える。また、画像データ群20の名称として、「2014年01月02日〜05日 ハワイ島」という文字列を与える。また、図では省略したが、画像データ群識別情報10A、20Aを構成する情報として、画像データ群に含まれる各画像データの名称(図中で、/data/DSC_1001.mov等のファイル名)の他に、撮影日時も含むように画像データ群識別情報を構成してもよい。
FIG. 15 shows an example of an image data group classified by the image
図1に戻って、シーン情報生成部102は、画像データを分析して、画像信号や音声信号で特徴づけられる1つ以上のシーンに分類し、シーン単位の特徴を示す情報であるシーン情報を生成する。シーン情報は、例えば、画像内の時間方向の変化を示す動き情報、画像内に現れる人物の領域の数や大きさを示す人物情報、または音声信号内の発話区間の有無や長さを示す会話情報などを含んで構成される。シーン情報生成部102および生成されるシーン情報の詳細については後述する。
Returning to FIG. 1, the scene
ダイジェスト動画像生成部103は、画像データ分類部101によって分類された画像データ群の単位で、シーン情報生成部102によって生成されたシーン情報を読み込み、画像データの撮影・作成の時系列に沿って、ダイジェスト動画像を生成する。画像データ群が複数ある場合は、後述するイベント選択部104が選択した画像データ群を対象として、ダイジェスト動画像を生成する。また、ダイジェスト動画像生成部103は、ダイジェスト動画像を生成する際に、後述する出力制御部105から通知される生成方針に従って、ダイジェスト動画像を生成する。映像編集装置100は、生成したダイジェスト動画像を、映像編集装置100に内蔵された映像表示部または外部接続された映像表示装置へ出力するか、内蔵されたデータ記録部または外部接続されたデータ記録装置へ出力する。ダイジェスト動画像生成部103の動作の詳細については後述する。
The digest moving
(イベント選択部)
イベント選択部104は、画像データ分類部101で分類された画像データ群の内、どの画像データ群を編集対象とするかを決定する。例えば、ダイジェスト動画像の自動編集を行う編集日を基準にして、前日に撮影された画像データ群、すなわち撮影日時が編集日の前日である画像データ群を編集対象に決定する。また、編集日ではなく、ユーザが指定する指定日時を基準として、撮影日時がその指定日時の前後の画像データ群を編集対象に決定しても良い。イベント選択部104が編集対象と決定する画像データ群は、日時情報だけでなく、位置情報や作成者情報に基づいてもよい。例えば、ユーザが指定する位置情報またはその位置を含む所定範囲内の位置情報を有する画像データを含む画像データ群を、編集対象に決定してもよい。あるいは、所定範囲内の位置情報を有する画像データを含む画像データ群が、異なる作成者別に複数ある中で、特定の作成者情報を有する画像データ群のみを編集対象に決定してもよいし、逆に、特定の作成者情報を有する画像データ群を除外した画像データ群を、編集対象に決定してもよい。イベント選択部104が編集対象として決定する画像データ群は、1つとは限らず、2つ以上でもよい。なお、イベント選択部104が、編集対象とする画像データ群を決定するタイミングとして、一日の切り替わりをトリガにしてもよい。例えば、午前0時を過ぎた時点で、その前日に撮影された画像データ群を編集対象と決定してもよい。また、イベント選択部104が、編集対象とする画像データ群を決定する方法の別の例として、ユーザの選択に従って決定してもよい。例えば、イベント選択部104は、画像データ分類部101によって分類された一つ以上の画像データ群を示す情報を、図示しない表示部に表示する。画像データ群を示す情報は、例えば、画像データ群の撮影日や作成者を表す文字列でもよいし、画像データ群に含まれる撮影位置情報の範囲を示した地図画像上のアイコンやサムネイル画像でもよい。ユーザは表示された情報の中から、ダイジェスト動画像の編集対象としたい画像データ群を指定する。イベント選択部104は、ユーザが指定した画像データ群を、編集対象の画像データ群とするように決定する。イベント選択部104は、決定した画像データ群を示す情報(選択情報)を、ダイジェスト動画像生成部103へ通知する。(Event selection part)
The
図16に、編集対象とする画像データ群をユーザが選択して決定する際の、イベント選択部104による表示画面の一例を示す。イベント選択部104は、図15で示したような、画像データ分類部101によって分類された画像データ群10、20、…を示す画像データ群識別情報10A、20A、…から、画像データ群の名称を抽出し、それら名称41、42、43、…を含む選択用表示画面40を出力する。ユーザは、映像編集装置100に接続または内蔵された操作手段(例えばタッチパネル、マウス、キーボード等)を介して、編集対象としたい画像データ群の名称(41、42、43…等のいずれか)を指定する。イベント選択部104は、ユーザが指定した画像データ群の名称(図16の例では「2014年01月02日〜05日 ハワイ島」)もしくは、その名称に対応する画像データ群識別情報(10A、20A等)を、画像データ群を示す選択情報として、ダイジェスト動画像生成部103へ通知する。
FIG. 16 shows an example of a display screen by the
(出力制御部)
出力制御部105は、ダイジェスト動画像生成部103が生成するダイジェスト動画像の出力先と生成の方針を決定する。出力制御部105は、図示しない映像表示装置の表示画素数や音声出力仕様などを示す能力情報を入力し、能力情報に基づいてダイジェスト動画像の生成方針を決定する。出力先の映像表示装置が複数ある場合、例えば、本実施例の映像編集装置が、ダイジェスト動画像を表示可能な映像表示部を内蔵し、かつ、外部に別の映像表示装置が接続されている場合は、内蔵の映像表示部、外部接続の映像表示装置それぞれに対する、ダイジェスト動画像の生成方針を決定する。また、内蔵か外部出力かに関わらず、生成するダイジェスト動画像を映像として表示するか、データとして符号化して記録メディアに保存するか、あるいは通信メディアを介して外部に出力するか、も決定する。出力制御部105は、決定した生成方針をダイジェスト動画像生成部103へ通知する。(Output control unit)
The
出力制御部105における処理内容の詳細を以下に述べる。出力制御部105は、図示しない入力手段によって与えられるダイジェスト動画像の生成方針を構成する情報に基づいて、ダイジェスト動画像の生成方針を決定する。ダイジェスト動画像の生成方針は、出力先情報、出力画像仕様、出力音声仕様、シーン選択基準、複数シーン同時配置を示す情報を含んで構成される、一種のパラメータセットである。以下、出力制御部105における、ダイジェスト動画像の生成方針を決定する過程を、上記パラメータごとに説明する。
Details of processing contents in the
出力制御部105は、出力先の映像表示デバイスが、映像編集装置100に内蔵された映像表示部であるか、外部に接続された映像表示装置であるかを示す情報を、出力先情報として決定する。出力先が内蔵であるか外部接続であるかは、映像編集装置100の外部に表示装置が接続されているかどうかを電気的に検知して判定するか、図示しない入力手段によってユーザが指定する。出力制御部105は、映像編集装置100に映像表示部が内蔵されていて、かつ外部に映像表示装置が接続されている場合には、両方を出力先とするように出力先情報を決定してもよい。
The
出力制御部105は、出力先の映像表示デバイスすなわち、映像編集装置に内蔵された映像表示部もしくは外部に接続された映像表示装置の表示画素数などの画像表示仕様を示す情報を、映像表示装置の内部もしくは外部から受け取り、出力画像仕様を決定する。出力画像仕様は、少なくとも出力水平画素数および出力垂直画素数を含んで構成され、基本的には、出力先の映像表示デバイスの水平方向・垂直方向それぞれの表示画素数をそのまま出力水平画素数および出力垂直画素数にそれぞれ設定する。ただし、出力先の映像表示デバイスが、画像をウィンドウ表示するなど、表示デバイスの全画面に画像を表示しないことが判明している場合は、出力先の映像表示デバイスの表示画素数よりも小さな値を、出力水平画素数および出力垂直画素数にそれぞれ設定してもよい。
The
出力制御部105は、出力先の音声出力デバイスすなわち、映像編集装置に内蔵された音声出力部もしくは外部に接続された映像表示装置の音声出力部の音声再生能力を示す情報を、映像表示装置の内部もしくは外部から受け取り、出力音声仕様を決定する。出力音声仕様は、少なくとも出力音声チャネル数を含み、音声出力がステレオに対応していれば出力音声チャネル数=2、音声出力がステレオに対応していなければ出力音声チャネル数=1、音声出力機能自体がない場合は出力音声チャネル数=0を、それぞれ設定する。出力音声仕様は、出力音声チャネル以外にも、サンプリング周波数、量子化ビット数などを含んでいてもよく、いずれの情報も、出力先の音声再生デバイスの音声再生能力で示される情報を設定する。例えば、サンプリング周波数は、32kHz、44.1kHz、48kHz、96kHzなどの例があり、量子化ビット数は、8ビット、16ビット、24ビットなどの例がある。
The
出力制御部105は、図示しない入力手段によって、ダイジェスト動画像生成に関するユーザの好みを示す情報を受け取り、「人物主体」、「風景主体」などのシーン選択基準を決定する。ユーザの好みを示す情報は、「人物」、「風景」などの言語情報でもよいし、例えば傾向の異なるサムネイル画像の中から選択して得られるような、画像自体を示す情報でもよい。ユーザの好みを示す情報は、単に「人物主体」や「風景主体」だけではなく、顔認識や形状認識に基づく「特定の人物」や「動物」、「花」など主要な被写体を示す情報や、画素値の分布分析に基づく「海辺」、「森林」などの風景の種類を示す情報など、画像の傾向をより詳細に指定する情報でもよい。なお、ユーザの好みを示す情報が特に指定されない場合、出力制御部105は、標準のシーン選択基準として「人物主体」を設定してもよい。
The
出力制御部105は、出力先の映像表示デバイスに応じて、複数シーンを同一画像フレーム内に同時に配置することを許容するか否かを示す情報を、「複数シーン同時配置」として設定する。例えば、出力先として映像編集装置に内蔵された映像表示部が有効な場合、複数シーン同時配置を「否」に設定し、出力先として外部に接続された映像表示装置が有効な場合、複数シーン同時配置を「可」に設定する。この判断基準は、映像編集装置に内蔵される表示デバイスは小型であるため(例えば、映像編集装置がスマートフォンである場合)、外部接続する場合は大型の表示デバイスに接続する、という前提によるものである。なお、出力先の表示デバイスの大きさがあらかじめ判明している場合や、表示デバイスの大きさを算出できる情報(例えば、画素密度を示す情報:dpi)が得られている場合は、表示デバイスの大きさを算出し、所定の閾値より大きい場合には複数シーン同時配置を「可」に設定し、そうでない場合には複数シーン同時配置を「否」に設定する。
The
(シーン情報生成部)
次に、シーン情報生成部102および生成されるシーン情報の詳細について述べる。図2は、シーン情報生成部が生成するシーン情報の一例である。図2に示したシーン情報200は、シーンに関する情報を行単位で記述したものであり、各行201、202、203、…の記述がそれぞれ一つのシーンに対応するように構成される。各行201、202、203…で記述される情報は、左から順に、画像ファイル名、撮影年月日、撮影時刻、シーン先頭フレーム番号、シーン終端フレーム番号、人物情報、動き情報、会話情報を示している。画像ファイル名は、各シーンを含む静止画像または動画像のデータの格納場所を示す文字列である。撮影年月日および撮影時刻は、基本的には、各シーンが含まれる画像ファイルが記録された時点の年月日および時刻を示す文字列である。シーン先頭フレーム番号およびシーン終端フレーム番号は、対応する画像ファイルにおける当該シーンの時間範囲(シーン長)を示す情報である。例えばシーン先頭フレーム番号が0、シーン終端フレーム番号が149の場合、対応する画像ファイルが30fpsの動画像データであれば、ファイル先頭から5秒間のシーンであることを示している。そして、人物情報、動き情報、会話情報は、当該シーンの画像信号・音声信号の特徴を示す情報である。次に、各シーンの画像信号・音声信号の特徴を示す情報である、人物情報、動き情報、会話情報について説明する。(Scene information generator)
Next, details of the scene
人物情報とは、シーンについて人物の有無を含む情報である。さらに、人数、個人名、姿勢、人物領域のサイズ、複数の人物の分布パターンを示す情報が含まれていてもよい。動き情報は、シーンについて動きの有無や種類を示す情報である。個々のオブジェクトの動きを示していてもよいし、領域毎の動きを示していてもよい。会話情報は、シーンについて音量や音声の種類(無音、人の声、音楽など)を示す情報である。さらに、話者を特定する情報や音楽の種類などの、音源の情報が含まれていてもよい。図2においては、前記3種類の情報は、既定の種類に対応するインデクスの数字として表されている。 The person information is information including the presence or absence of a person in the scene. Furthermore, information indicating the number of persons, the personal name, the posture, the size of the person area, and the distribution pattern of a plurality of persons may be included. The motion information is information indicating the presence / absence and type of motion in the scene. The movement of each object may be shown, and the movement for each area may be shown. Conversation information is information indicating the volume and type of sound (silence, human voice, music, etc.) for a scene. Furthermore, information for identifying a speaker and information on a sound source such as music type may be included. In FIG. 2, the three types of information are represented as index numbers corresponding to predetermined types.
人物情報に関しては、例えば、「人物なし(0)」、「主要人物(1)」、「その他人物(2)」の3種類の値をとり得る。人物なし(0)は、そのシーン全体にわたって、人物の姿が全くもしくはほとんど写っていないことを意味する。また、主要人物(1)は、シーン内に人物が1〜2名写っており、かつその領域が所定のサイズより大きいことを意味する。例えば、撮影者が意図を持って特定の人物を撮影したようなシーンが相当する。また、その他人物(2)は、シーン内に人物が写っているが、その数が多いか、もしくは写っている領域が所定のサイズよりも小さいことを意味する。例えば、特定の人物を含む集合写真的なシーンや、誰とは分からなくても人々の動きの様子が分かるように撮影したシーンなどが相当する。 With respect to the person information, for example, three types of values of “no person (0)”, “main person (1)”, and “other person (2)” can be taken. No person (0) means that there is no or almost no figure of the person throughout the scene. The main person (1) means that one or two persons are shown in the scene and the area is larger than a predetermined size. For example, a scene in which a photographer has photographed a specific person with an intention corresponds. The other person (2) means that a person is captured in the scene, but the number of persons is large, or the captured area is smaller than a predetermined size. For example, it corresponds to a group photo-like scene including a specific person, or a scene shot so that people can see how people move without knowing who they are.
動き情報に関しては、例えば、「動きなし(0)」、「動き一部(1)」、「動き全体(2)」の3種類の値をとり得る。動きなし(0)は、そのシーン全体にわたって、画像としての変化がほとんどないことを意味する。また、動き一部(1)は、そのシーン内で、画像領域の一部に動きがあることを意味する。例えば、固定したカメラの前で人物が踊っているようなシーンが相当する。また、動き全体(2)は、そのシーン内で、画像領域全体にわたる動きがあることを意味する。例えば、カメラ自体を水平に動かしながら撮影したようなシーンが相当する。 Regarding the motion information, for example, three types of values of “no motion (0)”, “part of motion (1)”, and “entire motion (2)” can be taken. No motion (0) means that there is almost no change in the image throughout the scene. Also, the motion part (1) means that there is motion in a part of the image area in the scene. For example, a scene in which a person is dancing in front of a fixed camera corresponds. Further, the entire motion (2) means that there is a motion over the entire image area in the scene. For example, it corresponds to a scene shot while moving the camera itself horizontally.
会話情報に関しては、例えば、「音なし(0)」、「会話あり(1)」、「その他音声(2)」の3種類の値をとり得る。音なし(0)は、そのシーン全体にわたって、著しく音信号のレベルが低いなど、利用できる音信号が記録されていないことを意味する。また、会話あり(1)は、シーン内で人の会話を含む音声が記録されていることを意味する。また、その他音声(2)は、会話ではないが所定レベル以上の音信号が継続して記録されていることを意味する。例えば、音楽が流れているようなシーンが相当する。 With respect to the conversation information, for example, three kinds of values of “no sound (0)”, “with conversation (1)”, and “other voice (2)” can be taken. No sound (0) means that no usable sound signal is recorded, for example, the sound signal level is extremely low throughout the scene. Also, “with conversation (1)” means that a voice including a conversation of a person is recorded in the scene. The other voice (2) means that a sound signal of a predetermined level or higher is continuously recorded although it is not a conversation. For example, a scene where music is flowing corresponds.
シーン情報生成部102は、上記のようなシーン情報を、画像データ内の画像信号や音声信号を解析することによって決定し、生成する。その際、例えば1秒間の長さの単位で画像信号および音声信号を解析し、画像信号・音声信号の特徴を示す前記3種類の情報に変化がない場合には、一つの連続するシーンとしてシーン情報を生成する。一方、前記3種類の情報の内、いずれかに変化が生じた場合は、その変わり目をシーンの切れ目とし、一つの動画データを複数のシーンに分割して、それぞれのシーン情報を生成する。
The scene
さらに、シーン情報生成部102は、シーン情報生成の過程で、ダイジェスト動画像に含めるには不向きなシーンを除外するようにシーン情報を生成してもよい。例えば、画像信号の解析の過程で、急激な画像全体の動きがある状態やフォーカスがあっていない状態等、画像を見たとしても何を写したものか分からない可能性の高いシーンに関して、シーン情報生成部102はシーン情報自体を生成しない。もしくは、シーン情報生成部102は当該シーンに対して、ダイジェスト動画像に含めるには適さないことを示すダイジェスト不適のフラグを生成する。これにより、例えばデジタルカメラやスマートフォン等で動画像を撮り始める際に、大きな手ぶれやフォーカスずれが生じた場合等、ダイジェスト動画像に含めるには有益でないシーンを排除することができる。
Furthermore, the scene
シーン情報200において、209と211は、静止画像であるシーンに対応するシーン情報である。静止画像では、時間の要素がないため、シーンの時間範囲を示す情報である、シーン先頭フレーム番号およびシーン終端フレーム番号は存在しない。また、画像上の動きも音声もないため、動き情報も会話情報も存在しない。これらの存在しない情報に関しては、図2においては、記号*で表している。一方、人物情報については、シーン情報生成部102が、静止画像の画像信号から解析し、動画像と同様に「人物なし(0)」、「主要人物(1)」、「その他人物(2)」のいずれかの情報を与える。
In the
ここで、シーン情報に含まれる情報の内、シーン先頭フレーム番号およびシーン終端フレーム番号と、撮影時刻の関係について説明する。画像ファイルの撮影時刻は通常、画像をファイルとして記録する時刻、すなわち撮影完了時の時刻が記録される。シーン情報生成部102が、ある画像ファイルのシーン情報を生成する過程で、画像ファイルを複数のシーンに分割しない場合は、画像ファイルの撮影時刻がそのまま対応するシーンの撮影時刻に相当する。しかし、シーン情報生成部102が、一つの画像ファイルを複数シーンに分割した場合には、各シーンの撮影時刻に相当する時刻は、元の画像ファイルの撮影時刻が示す時刻とは一致しないことがある。従って、シーン情報生成部102は、一つの画像ファイルを複数シーンに分割した場合には、その画像ファイルに関して記録されている撮影時刻ShootTime、動画像のフレームレートfr_rate、フレーム数FALLと、分割した各シーンのシーン終端フレーム番号Sendとの関係から、各シーンの終端時刻に相当する時刻EndTime(EndTime=ShootTime-(FALL-Send)/fr_rate)を算出して、それをシーンごとの撮影時刻として、シーン情報を生成する。そのようにしておくことで、後でシーン情報を参照する際に、画像ファイル名やフレーム番号は参照せず、撮影年月日および撮影時刻のみを比較することで、各シーンの時間的な前後関係を特定することが可能になる。なお、シーン情報生成部102は、各シーンの画像信号または音声信号の解析の過程で各シーンの時間的な長さを取得し、取得したシーン長とそのシーンが含まれる画像データの撮影時刻との比較に基づいて、適切な撮影年月日や撮影時刻が記録されるように調整する。例えば、画像ファイルとしての撮影年月日が2014年1月1日、撮影時刻が午前0:01:00と記録されていても、その画像ファイルの動画像全体の長さが数分間にわたるような場合、その画像ファイルの先頭部分をシーンとして抜き出した場合は、抜き出したシーンの実際の撮影年月日は、画像ファイルの撮影年月日とは異なる2013年12月31日であり、撮影時刻は例えば23:59:00などとなる。このようにして、シーン単位で適切な撮影日時を算出してシーン情報として記録することにより、前述のイベント選択部104によって決定される編集対象の画像データ群に含まれるシーンが、適切に選択される。
Here, the relationship between the scene start frame number and the scene end frame number in the information included in the scene information and the shooting time will be described. The shooting time of the image file is normally recorded as the time when the image is recorded as a file, that is, the time when shooting is completed. When the scene
なお、シーン情報として生成されるシーン先頭フレーム番号およびシーン終端フレーム番号は、画像ファイル内の時間的な位置を特定する別の情報で置き換えてもよい。例えば、シーン先頭フレーム番号およびシーン終端フレーム番号の代わりに、各シーンのシーン開始時刻を示す文字列と、シーン長に対応する時間情報(=シーン開始時刻からの経過時間)を示す文字列を生成してもよい。あるいは、シーン先頭フレーム番号およびシーン終端フレーム番号の代わりに、シーン先頭を示す画像ファイル内経過時間およびシーン終端を示す画像ファイル内経過時間を、シーン情報として生成してもよい。画像ファイル内経過時間は、例えば画像ファイルの先頭を基準とした秒単位やミリ秒単位もしくは秒単位+フレーム番号で表す。これら、シーンの時間的な位置を特定する情報は、前述のように文字列で表してもよいし、数値(例えば既定の日時や時刻を基準とした時の経過時間を表す数値)で表してもよい。また、動画像のフレームレートを表す情報を含んでもよい。 Note that the scene start frame number and the scene end frame number generated as the scene information may be replaced with other information specifying the temporal position in the image file. For example, instead of the scene start frame number and the scene end frame number, a character string indicating the scene start time of each scene and a character string indicating time information (= elapsed time from the scene start time) corresponding to the scene length are generated. May be. Alternatively, instead of the scene start frame number and the scene end frame number, an image file elapsed time indicating the scene start and an image file elapsed time indicating the scene end may be generated as the scene information. The elapsed time in the image file is expressed, for example, in seconds, milliseconds, or seconds + frame number with respect to the head of the image file. The information for specifying the temporal position of the scene may be represented by a character string as described above, or represented by a numerical value (for example, a numerical value representing an elapsed time with reference to a predetermined date and time or time). Also good. Further, information representing the frame rate of the moving image may be included.
図2のシーン情報200において、人物情報、動き情報、会話情報に関しては、数値で表す例を示したが、各情報の特徴を意味する文字列で表してもよい。例えば、人物情報に関して、「人物なし(0)」を意味する“NO_HUMAN”、「主要人物(1)」を意味する“HERO”、「その他人物(2)」を意味する“OTHERS”などの文字列で表す。動き情報や会話情報も同様に文字列で表してもよい。
In the
図2のシーン情報200では、シーン情報、人物情報、動き情報、会話情報を数値(既定の種類に対応するインデクス)で示す例を示した。このように数値インデクスで表す以外にも、既定の種類に対応する文字列で格納してもよいし、単一の数値または文字列ではなく、パラメータ(人数、動きベクトル、周波数毎の音量など)の集合として格納してもよい。さらには、データは可読性のあるテキストデータである必要はなく、バイナリデータでもよい。
In the
(ダイジェスト動画像生成部)
次に、ダイジェスト動画像生成部103における処理内容の詳細を述べる。図3は、本実施例の映像編集装置によるダイジェスト動画像の生成過程を示す概念図である。図示の通り、ダイジェスト動画像生成部103は、画像データ群301のうち、選択された画像データ群302を対象として、対応するシーン情報303を読み込み、あらかじめ決定されたダイジェスト動画像生成方針305に従ってダイジェスト動画像を生成する。ダイジェスト動画像生成の対象となる画像データ群302は、例えば、ある一日に撮影された全画像データである。この画像データ群は、前述の通り、画像データ分類部101とイベント選択部104によって決定される。この場合、イベント選択部104は、対象の画像データ群を示す選択情報304として、「撮影年月日=○○年△△月□□日」を意味するパラメータをダイジェスト動画像生成部103に通知する。ダイジェスト動画像生成部103は、シーン情報生成部102によって生成されたシーン情報を先頭から参照し、前記選択情報に該当するシーンのシーン情報を読み込む。次にダイジェスト動画像生成部103は、読み込んだシーン情報を撮影年月日と撮影時刻の早い順番で参照し、単独で使用するシーンと、他のシーンと組み合わせて使うシーンなど、シーンの種類を決定する。そしてダイジェスト動画像生成部103は、決定したシーンの種類に基づいて、各シーンを空間的に配置した画像データである画像クリップ306a、306b、306c、…を生成すると共に、複数の画像クリップを時間的に結合してダイジェスト動画像307を生成する。図3において、S01、S02、S03等の表記はそれぞれシーンを表している。また、画像クリップ306a内の表記「S01+S02」は、画像クリップ306aはシーンS01とシーンS02の両方が空間的に配置された画像クリップであることを表す。画像クリップ306a、306b、306c等は、少なくとも一つのシーンを含み、適度な(例えば1秒間以上の)長さを有する静止画または動画像である。(Digest video generator)
Next, details of processing contents in the digest moving
図7に、本実施形態におけるダイジェスト動画像生成部103の内部構成を示す。ダイジェスト動画像生成部103は、対象画像抽出部1031、シーン種類決定部1032、シーン空間配置部1033、シーン時間配置部1034、ダイジェスト化制御部1035を含んで構成される。
FIG. 7 shows an internal configuration of the digest moving
対象画像抽出部1031は、イベント選択部104から通知される対象の画像データ群を示す選択情報を参照して、ダイジェスト動画像を生成する際の入力画像を抽出する。抽出した画像データを示す情報を、シーン種類決定部1032およびシーン空間配置部1033へ通知する。シーン種類決定部1032は、シーン情報生成部102で生成されたシーン情報を参照し、対象画像抽出部1031で抽出された画像データを示す情報に対応するシーンのシーン情報を読み込み、シーンの種類を決定する。
The target
図4に、シーン情報と、シーン種類決定部1032が決定するシーンの種類の関係の一例を示す。図4は、図2と同様にシーン情報の例を示し、シーン情報400に含まれる各行401、402、403…が、それぞれ一つのシーンに対応するシーン情報を記述したものである。これ以降、図4に関する説明においては、記述の簡単化のため、各シーン情報401、402、403…は、それぞれシーンそのものを意味するものとしても記述する。
FIG. 4 shows an example of the relationship between the scene information and the scene type determined by the scene
シーン種類決定部1032は、シーン情報400を参照して、撮影時刻の順に連続する2つのシーンの撮影時刻を比較し、両者の撮影時刻の差ΔTが所定の閾値(シーン近接判定閾値THt)以内であるか超えるか、すなわち時間的に近接するか否かによって、各シーンを、単独で使用する「単独シーン」か、組み合わせて使用する「組み合わせシーン」に決定する。シーン近接判定閾値THtは、例えば5分間(=300秒)とする。シーン401と402の撮影時刻の差ΔTは、ΔT=1分41秒=101秒<THtであるので、シーン401とシーン402は「組み合わせシーン」に決定する。同様に、シーン403とシーン404は、時間的に近接するため「組み合わせシーン」に決定し、シーン405とシーン406も、時間的に近接するため「組み合わせシーン」に決定する(図4では、点線で囲んだシーン情報のセットが組み合わせシーンを示す)。シーン種類決定部1032は、組み合わせシーンに決めた各シーンに関して、さらに次のように主シーンか副シーンに決定する。シーン種類決定部1032は、各シーンのシーン情報に含まれる人物情報、動き情報、会話情報を参照し、主要なシーンであると判定したら主シーンに、主要ではないシーンであると判定したら副シーンに、各シーンを分類する。例えば、図4の例では、シーン401とシーン402は、どちらも人物情報が「主要人物(1)」であるので、両方とも主要なシーンであると判定して主シーンに分類する。シーン403は人物情報が「主要人物(1)」であるので、主要なシーンであると判定して主シーンに分類する。シーン404は人物情報が「その他人物(2)」であるので、主要なシーンではないと判定して副シーンに分類する。シーン405とシーン406は、人物情報がそれぞれ「その他人物(2)」、「人物なし(0)」であり、相対的にシーン405がシーン406に比べて重要度が高く主要なシーンであると判定して、シーン405を主シーンに、シーン406を副シーンに分類する。
The scene
なお、シーン405とシーン406の例は、いずれのシーンも人物情報が「主要人物」以外であるため、両方とも主要なシーンではないと判定してもよい。その場合、より重要度の低いシーン(上記の例ではシーン406)をダイジェストに使用しない、と決定してもよい。そのように決定することによって、時間的に近接した複数の主要でないシーンの一部をダイジェスト動画像に使用しないようにすることができ、生成するダイジェスト動画像の冗長度を軽減することができる。
Note that in the examples of the
次に、シーン空間配置部1033は、各シーンの空間的な配置を決定し、シーンを空間的に配置した画像クリップを生成する。図5に、シーン空間配置部1033によるシーン配置の例を示す。シーン空間配置部1033は、前述のようにシーン種類決定部1032が決定したシーンの種類および組み合わせシーン同士のシーン情報の関係に基づいて、各シーンの空間的な配置(レイアウト)を決定する。例えば、図4の例で示したシーン401とシーン402は、両方とも主シーンであるので、互いに同等のサイズで並列に表示する配置である「並列配置」に決定する(図5(a))。この時、シーン401、402はいずれも人物情報が「主要人物(1)」であるため、各シーンの中央領域に人物が写っている可能性が高い。そこで、各シーンの中央領域を切り出して、それぞれ領域501、502に配置する。
Next, the scene
次の例として、シーン403とシーン404は、それぞれ主シーンと副シーンであるので、主シーンが注目されるように、副シーンを画像フレーム全体に表示しながら、画面中央部分の領域503に主シーンの中央領域を重畳表示する配置である「中央配置」に決定する(図5(b))。主シーンの中央領域を重畳表示する理由は、主シーンであるシーン403の人物情報が「主要人物(1)」だからである。人物情報が「主要人物(1)」であるシーンは、画像フレーム内において比較的サイズの大きい1〜2名の人物が写っていることを意味する。そのようなシーンは撮影者が意図して特定の人物を撮影した可能性が高く、従って、人物の写っている領域は画像フレームの中央部分である可能性が高い。そこで、人物の写っている領域が注目されるように、主シーン内で人物が写っている可能性の高い中央領域を切り出して、画面中央部分の領域503に配置する。なお、図5(b)において、主シーンの中央領域の代わりに、主シーンの画像フレーム全体を縮小して領域503に表示してもよい。また、「中央配置」の別の例として、図5(d)に示すような配置を選択してもよい。図5(d)の配置は、副シーンは図5(b)と同様に画像フレーム全体に表示し、主シーンに関しては、その中央領域を図5(b)よりも大きく切り出して領域507に配置したものである。図5(d)の配置は、図5(b)と比較すると、副シーンの表示面積が小さくなる。シーン空間配置部1033は、例えば副シーンの動き情報が「動き全体(2)」であるような場合に、この配置を選択する。動きの大きなシーンを主シーンの背景領域504に表示することで、画像全体として躍動感が演出されると共に、図5(b)と比較すると背景領域504の面積が小さいため、観察者が注目する主シーンの領域507の観賞を妨げない画像レイアウトで表示することができる。
In the following example, the
もう一つの例として、図4に示したシーン405とシーン406は、それぞれ主シーンと副シーンである点はシーン403とシーン404の関係と同じであるが、主シーンであるシーン405の人物情報が「その他人物(2)」であるため、シーン405においては画像の中央領域など特定の領域が重要な意味を持つ可能性は低い。そこで、主シーンを画像フレーム全体に配置しながら、副シーンを縮小した画像を子画面領域506として主シーン上に重畳する配置である「子画面配置」に決定する(図5(c))。この時、子画面領域506のサイズは、前述の中央配置における主シーンの領域(503、507)に比べて小さくなるように決定する。その理由は、注目させたいシーンは基本的に主シーンであり、副シーンは特別目立たせないようにするためである。例えば、中央配置である図5(b)における主シーンを配置している領域503の大きさは、画像フレーム全体の1/4程度(図5(d)の領域507は、水平方向の画素数が画像フレーム全体の水平方向の画素数の1/2程度)に、子画面配置における副シーンを配置している領域506の大きさは画像フレーム全体の1/9程度にし、その大きさに合わせて元の画像から切り出し、もしくは元の画像を縮小する。このようにシーンを配置する領域の大きさに差をつけることで、注目させたい領域またはシーンを目立たせることができる。
As another example, the
なお、図5(c)に示した「子画面配置」の別の例を図5(e)に示す。図5(e)の例は、領域505に主シーンを配置するのは図5(c)と同様であるが、副シーンを配置する領域508を、図5(c)の領域506とは異なる空間的な位置に変えたものである。図5(c)、図5(e)の子画面配置は、いずれも主シーンへの注目を妨げないような領域に副シーンを配置することを特徴としている。図5(c)の配置ではなく図5(e)の配置に決定する場合の例としては、シーン情報生成部102におけるシーン解析の過程で、主シーンを配置している領域505上の領域506に、人物または人物の一部が写っていることが判明したような場合である。そのような場合には、副シーンを重畳する領域を領域506ではなく領域508に変えることで、主シーンを配置している領域505上の人物領域を副シーンで隠してしまわないようにする。このようにシーンの配置を変えることにより、主シーンに写っている主要な画像領域への注目を妨げないようにすることができる。
FIG. 5E shows another example of the “small screen layout” shown in FIG. In the example of FIG. 5E, the main scene is arranged in the
さらに、一部のシーンに空間フィルタを適用し、主シーンと副シーンの違いを強調した画像にしてもよい。例えば図5(b)、(d)の領域504に平滑化フィルタを施すことによって画像の鮮鋭度を落とすと、主シーンを表示した中央領域と副シーンを表示した周辺領域との違いが一目で分かるようになり、注目すべき領域がより明確になる。このような空間フィルタを適用するか否かは、例えば、主シーンと副シーンの画像の類似性に基づいて決定する。例えば、シーン空間配置部1033は、主シーンと副シーンの類似性が高い場合には、副シーンに平滑化フィルタを施し、類似性が低い場合には、副シーンに平滑化フィルタを施さない。例えば、図5(b)、(d)のような中央配置において、主シーンの領域503または507と副シーンの領域504それぞれの画像内の画素値の色成分ごとの平均値を比較し、平均値の差分が所定値より小さい場合、すなわち領域503、507と領域504の間で画素値の類似度が高い場合に、領域504に空間フィルタを施すと決定する。これによって、空間フィルタを施さない場合と比較して、領域503や507すなわち主シーンに注目しやすくなり、全体として見やすい画像にすることができる。なお、空間フィルタは平滑化フィルタに限らず、領域ごとの色調を変える色変換フィルタでもよい。例えば、シーン空間配置部1033は副シーンをグレイスケールやいわゆるセピア調に変換しても良い。領域504の画像を色変換によってグレイスケールやいわゆるセピア調にすると、主シーンである領域503、507を目立ちやすくすることができる。あるいは、シーン空間配置部1033は、空間フィルタを施すのではなく、領域504の画像の時間方向の変化をゼロにする、すなわち静止画にすることで、主シーンである領域503、507との違いを強調してもよい。
Furthermore, a spatial filter may be applied to a part of the scenes to make an image that emphasizes the difference between the main scene and the sub-scene. For example, if the sharpness of the image is reduced by applying a smoothing filter to the
なお、一つの画面上に配置するシーンは2つより多くてもよい。図5(f)に、3つのシーンを配置する例を示す。図5(f)に示した例は、時間的に近接した3つのシーンの人物情報がいずれも「主要人物(1)」である場合の配置例である。この場合、シーン空間配置部1033は、3つのシーンが互いに組み合わせシーンであると決定するとともに、すべて主シーンに決定する。3つが主シーンであるため、互いに同等のサイズになるように、各シーンの中央領域を切り出して、領域509、510、511に並列に配置する。複数のシーンを同一画像クリップ内に配置する際に、シーンの時間的な長さが同一でない場合には、同一画像クリップ内に配置するシーン間で最も時間の短いシーンに合わせるように、他のシーンの一部を切り捨てて調整する。
Note that there may be more than two scenes arranged on one screen. FIG. 5F shows an example in which three scenes are arranged. The example shown in FIG. 5F is an arrangement example in the case where all of the person information of three scenes close in time are “main person (1)”. In this case, the scene
シーン空間配置部1033は、以上のような方法で生成した画像クリップを、シーン時間配置部1034へ出力する。
The scene
シーン時間配置部1034は、前述のようにシーンを空間的に配置した画像クリップ同士を、さらに時間方向に結合する。図3において、画像クリップ306a、306b、306c…はそれぞれ、単独シーンのみで構成される画像クリップ、もしくは組み合わせシーンを配置した画像クリップに相当する。シーン時間配置部1034は、各画像クリップに対応するシーンの撮影時刻の前後関係に従って、複数の画像クリップを結合する。組み合わせシーンから構成される画像クリップ、すなわち一つの画像クリップが複数のシーンを含む場合、その画像クリップの撮影時刻は、その画像クリップに含まれる複数シーンの中で撮影時刻が最も遅いシーンのシーン情報である撮影時刻情報とみなす。
The scene
上記で説明した組み合わせシーンは、互いに撮影時刻の差が相対的に小さい、すなわち、イベント全体の長さに比べて、撮影時刻が近接しているシーンである。撮影時刻が近接しているシーンは、同一または互いに類似の場面を撮影したものである可能性が高い。ダイジェスト動画像の生成において、類似性の高いシーンを時間的に連続するように結合すると、生成されるダイジェスト動画像は、似たようなシーンが続いて冗長になり、観賞する際に飽きやすくなる。そこで、類似性の高いシーンを空間的に並列に並べたり、同一フレームの一部に含めたりすることで、撮影された多数の画像を有効に活用すると共に、表示レイアウトを多様化させることができる。これにより、飽きにくいダイジェスト動画像を生成することができ、ユーザの満足度を高めることができる。 The combination scene described above is a scene in which the difference in shooting time is relatively small, that is, the shooting time is close compared to the length of the entire event. There is a high possibility that scenes whose shooting times are close to each other are the same or similar scenes. In the generation of digest moving images, if scenes with high similarity are combined so as to be continuous in time, the generated digest moving images will become redundant when the similar scenes continue to be easily bored. . Therefore, by arranging scenes with high similarity in parallel in parallel or including them in a part of the same frame, it is possible to effectively use a large number of captured images and diversify the display layout. . Thereby, it is possible to generate a digest moving image that is difficult to get tired of, and to improve the satisfaction of the user.
ここで、ダイジェスト動画像を生成する際の、音声トラックの扱いについて説明する。ダイジェスト動画像を生成する際の音声トラックは、ダイジェスト動画像に使用する各シーンに対応する画像データに含まれる音声トラックをそのまま利用する。その際、使用するシーンが単独シーンの場合は、そのシーンの音声トラックをそのまま利用するが、組み合わせシーンの場合、音声トラックは複数あるため、次に述べる方法で使用する音声トラックを決定する。組み合わせシーンの配置が「並列配置」以外の場合、すなわち「中央配置」や「子画面配置」の場合、ダイジェスト動画像の音声トラックとして、主シーンの音声トラックを利用する。組み合わせシーンの配置が「並列配置」の場合、配置したシーンの位置関係に合わせて、各シーンの音声トラックをダイジェスト動画像の音声トラックの左チャネルと右チャネルに割り振るように利用する。このようにすることで、画像として注目するシーンと聞こえる音声とが一致し、違和感なくダイジェスト動画像を観賞することができる。 Here, handling of an audio track when generating a digest moving image will be described. As an audio track for generating a digest moving image, an audio track included in image data corresponding to each scene used for the digest moving image is used as it is. At that time, when the scene to be used is a single scene, the audio track of the scene is used as it is. However, in the case of a combination scene, since there are a plurality of audio tracks, the audio track to be used is determined by the method described below. When the combination scene arrangement is other than “parallel arrangement”, that is, “center arrangement” or “sub-screen arrangement”, the audio track of the main scene is used as the audio track of the digest moving image. When the arrangement of the combination scene is “parallel arrangement”, the audio track of each scene is used so as to be allocated to the left channel and the right channel of the audio track of the digest moving image in accordance with the positional relationship of the arranged scenes. By doing in this way, the scene to be noticed as an image matches the sound that can be heard, and the digest moving image can be viewed without a sense of incongruity.
(ダイジェスト動画像生成方法の切り替え)
続いて、映像編集装置100がダイジェスト動画像を生成する際の、生成方法の切り替えについて説明する。ダイジェスト化制御部1035は、出力制御部105が決定した、ダイジェスト動画像の生成方針に従って、ダイジェスト動画像の生成方法(生成アルゴリズム)を変化させる。具体的には、あるシーンをダイジェストに含めるかどうか、主シーンと副シーンの判定基準、複数シーンの空間的な配置の有無と配置パターン、画像符号化品質、音声符号化品質などを切り替えて、ダイジェスト動画像を生成する。ダイジェスト動画像の生成方法の変化について、以下に詳しく説明する。(Switching digest video generation method)
Next, switching of the generation method when the video editing apparatus 100 generates a digest moving image will be described. The digest
ダイジェスト動画像生成部103において、シーン種類決定部1032は、ダイジェスト動画像の生成対象である画像データ群に含まれる各シーンが主要なシーンであるかどうかを決定する。この時シーン種類決定部1032は、ダイジェスト動画像の生成方針に含まれるシーン選択基準に基づいて上記決定を行っても良い。例えば、前述の説明は、シーン選択基準が「人物主体」であることを示す場合に用い、シーン選択基準がこれと異なる場合は、ダイジェスト化制御部1035が、主要なシーンを判定する際の基準を変え、判定基準を示す情報をシーン種類決定部1032へ通知し、シーン種類決定部1032がその情報に従ってシーンの種類を決定する。例えば「風景主体」の場合は、人物の姿や会話を捉えたシーン以外のシーン、すなわち自然など景色が主体のシーンを主要なシーンとして判定する。例えば、時間的に近接する組み合わせシーンの中では、人物情報が「人物なし」であるか、あるいは会話情報が「会話あり」以外であるようなシーンを主シーンに分類し、それ以外の組み合わせシーンを副シーンに分類する。また、時間的に近接するシーンのない単独シーンに関しては、人物情報が「人物なし」のシーンのみ選択し、それ以外のシーン、すなわち人物が写っているシーンは、単独シーンとしてはダイジェスト動画像に使用しないようにシーンを選択する。このような構成により、指定された特徴に合うシーンを優先的に選択し、ユーザの好みを反映したダイジェスト動画像を生成することを可能にする。
In the digest moving
ダイジェスト化制御部1035は、ダイジェスト動画像の生成方針に含まれる複数シーン同時配置に基づいて、複数のシーンが時間的に近接する場合に、同一の画像フレーム内に配置するか否かを切り替えても良い。ダイジェスト化制御部1035は、複数のシーンを同一の画像フレーム内に配置するか否かを決定し、シーン種類決定部1032およびシーン空間配置部1033へ通知する。ダイジェスト化制御部1035が通知する複数シーン同時配置が「可」の場合は、シーン空間配置部1033は前述の説明の通り、時間的に近接する複数のシーンを組み合わせシーンとして扱い、同一の画像フレーム内に配置するようにダイジェスト動画像を生成する。逆に、複数シーン同時配置が「否」の場合、シーン空間配置部1033は、各シーンを単独シーンとして扱い、同一画像フレーム内に配置しないようにダイジェスト動画像を生成する。出力制御部105に関して既に説明した通り、出力先の表示デバイスの画面が小さい場合には、出力制御部105は複数シーン同時配置を「否」とするため、例えば、シーンが縮小されるような子画面配置のレイアウトが選択されることを回避し、生成されるダイジェストの見やすさを損なわないようにすることができる。
Based on the multiple scene simultaneous arrangement included in the digest moving image generation policy, the digest
ダイジェスト化制御部1035は、ダイジェスト動画像の生成方針に含まれる出力先情報に基づいて、画像や音声を符号化するか否かを決定する。符号化しない場合は、生成したダイジェスト動画像をそのまま表示・再生するように、内蔵の映像表示部や外部接続の映像表示装置へ出力する。符号化する場合は、ダイジェスト動画を生成する際に、所定の符号化方式に従って画像や音声を符号化し、符号化データとしてダイジェスト動画像を出力する。符号化する際の符号化方式は例えば、画像はMPEG−2、AVC/H.264、HEVC/H.265などの方式に従い、音声はMPEG−1、AAC−LC、HE−AACなどの方式に従う。ダイジェスト化制御部1035は、符号化する際の基本符号化方式として最も性能の高い方法、例えば、画像はHEVC/H.265、音声はHE−AACを使用することにしておき、後述する出力画像仕様および出力音声仕様に基づいて、実際に使用する符号化方式および符号化品質を決定する。符号化方式および符号化品質については後述する。
The digest
ダイジェスト化制御部1035は、ダイジェスト動画像の生成方針に含まれる出力画像仕様に基づいて、生成するダイジェスト動画像の画像符号化品質および複数シーンの配置パターンを決定する。出力画像仕様は、少なくとも出力先の映像表示デバイスの表示画素数を示す情報を含んで構成される。表示画素数は、水平方向の画素数と垂直方向の画素数から構成され、結果として表示デバイスの画面アスペクト比も判明する。ダイジェスト化制御部1035は、編集対象である入力画像の画素数および画面アスペクト比が、出力先の表示画素数および画面アスペクト比と一致する場合は、入力画像の画素数をそのまま維持するようにダイジェスト動画像を生成する。入力画像の画素数および画面アスペクト比が、出力先の表示画素数および画面アスペクト比と一致しない場合は、出力先の表示画素数を超えない範囲で、入力画像の画素数を維持または活かすように、シーンの配置を決定してダイジェスト動画像を生成する。入力画像の画素数および画面アスペクト比が、出力先の表示画素数および画面アスペクト比と一致しない場合の、シーンの配置に関しては後述する。前述の出力先情報に基づいて、ダイジェスト動画像を符号化してファイルとして記録・伝送する場合、ダイジェスト化制御部1035は、出力先の表示画素数に基づいて画像の符号化レートを決定する。例えば、画素数を示す複数の情報と、対応する符号化レートを示す情報テーブルを用意しておき、ダイジェスト化制御部1035は、出力先の表示画素数に対応する符号化レートを、前記情報テーブルを参照して決定する。また、出力画像仕様として、画素数以外に出力先の画像再生能力が得られる場合、ダイジェスト化制御部1035は、画像再生能力に応じて、ダイジェスト動画像を符号化する際の符号化方式を決定する。例えば、外部に接続された映像表示装置が対応する画像符号化方式がMPEG−2とAVC/H.264である場合、ダイジェスト化制御部1035は、より符号化性能の高いHEVC/H.265を選択する代わりに、出力画像仕様で示される画像再生能力に合わせて、AVC/H.264を符号化方式として選択し、ダイジェスト動画像の符号化を行う。
The digest
ダイジェスト化制御部1035は、ダイジェスト動画像の生成方針に含まれる出力音声仕様に基づいて、生成するダイジェスト動画像の音声符号化品質および音声トラックの構成を決定する。出力音声仕様は、少なくとも出力先の音声出力デバイスすなわち、映像編集装置100に内蔵された音声出力部もしくは外部に接続された映像表示装置の音声出力部の音声再生能力を示す情報である、出力音声チャネル数、サンプリング周波数、量子化ビット数などを含んで構成される。ダイジェスト化制御部1035は、出力音声仕様の出力音声チャネル数に応じて、ダイジェスト動画像に含めるシーンの音声トラックの使用有無やチャネルの振り分けを決定する。また、出力音声仕様のサンプリング周波数、量子化ビット数に応じて、音声のリサンプリングやビット数変換を行う。また、前述の出力先情報に基づいて、ダイジェスト動画像を符号化してファイルとして記録・伝送する場合で、出力音声仕様として、出力先の音声出力デバイスが対応する符号化方式を示す情報が得られる場合、ダイジェスト化制御部1035は、その情報に基づいて音声の符号化方式を決定する。例えば、外部に接続された映像表示装置が対応する音声符号化方式がMPEG−1、AAC−LCのみである場合、ダイジェスト化制御部1035は、より符号化性能の高いHE−AACを選択する代わりにAAC−LCを符号化方式として選択して、ダイジェスト動画像の音声トラックの符号化を行う。
The digest
ここで、入力画像の画素数および画面アスペクト比が、前述の出力画像仕様で示される出力先の表示画素数および画面アスペクト比と一致しない場合の、シーン配置の例を説明する。図6に、入力画像の画面アスペクト比が横長であり、出力先の画面アスペクト比が縦長である時の、ダイジェスト動画像生成部103が決定する複数シーンの配置例を示す。図6(a)は、図5(a)の「並列配置」の例と同様に、時間的に近接する2つのシーンが両方とも主シーンである例で、互いに同等のサイズで並列に表示する配置である。その際、元の画像は、領域602と領域602’を含む横長のサイズの画像と、領域603と領域603’を含む横長のサイズの画像であるため、表示領域601の画面アスペクト比に合わせて、各シーンの中央の領域(602、603)を切り出してそれぞれ配置する。図6(b)は、図5(b)の「中央配置」の例と同様に、副シーンを画像フレーム(表示領域)全体601に配置しながら、画面中央部分の領域604に主シーンの中央領域を重畳するように配置する例である。主シーンの中央領域の代わりに、主シーンの画像フレーム全体を縮小して領域604に表示してもよい。また、「中央配置」の別の例として、図6(d)に示すような配置を選択してもよい。図6(d)の配置は、副シーンは図6(b)と同様に画像フレーム全体601に表示し、主シーンに関しては、その中央領域を図6(b)よりも大きく切り出して領域608に配置したものである。図中の608’は、領域608を切り出したことによって捨てられる元の画像の一部の領域である。図6(c)は、図5(c)の「子画面配置」と同様に、副シーンを縮小した画像を子画面領域606として配置する例である。ただし、この場合は入力画像が横長であるため、主シーンの全体を表示するように領域604に配置して、画面上に空いた領域の一部に副シーンを配置する。この時、子画面領域606のサイズは、主シーンの領域604に比べると小さくなるように決定することで、注目させたいシーンである主シーンとの区別がつくようにする。例えば、主シーンの領域604は、水平方向のサイズが画像フレーム全体601の水平方向のサイズと同一になるように決定し、副シーンの領域606は、水平方向のサイズが画像フレーム全体601の水平方向のサイズの2/3程度になるように決定する。
Here, an example of a scene arrangement in the case where the number of pixels of the input image and the screen aspect ratio do not match the number of display pixels and the screen aspect ratio of the output destination indicated by the output image specification described above will be described. FIG. 6 shows an arrangement example of a plurality of scenes determined by the digest moving
さらに、一部のシーンに空間フィルタを適用し、主シーンと副シーンの違いを強調した画像にしてもよい。例えば図6(b)、(d)の領域605に平滑化フィルタを施すことによって画像の鮮鋭度を落とすと、主シーンを表示した中央領域と副シーンを表示した周辺領域との違いが一目で分かるようになり、注目すべき領域がより明確になる。なお、図6(c)における領域607には、空間フィルタを適用した主シーンもしくは副シーンを表示してもよい。領域607を含めて画像フレーム全体601に画像を表示することによって、表示される画像のサイズを図6(c)以外の配置パターンの画像と同一にするため、領域607に画像を表示しない場合と比べて、画像を観賞する際の空間的な広がり感が得られると共に、時間方向に結合される可能性のある他の配置の画像クリップと、連続して観賞する際に生じ得る違和感を回避することができる。
Furthermore, a spatial filter may be applied to a part of the scenes to make an image that emphasizes the difference between the main scene and the sub-scene. For example, if the sharpness of the image is reduced by applying a smoothing filter to the
なお、一つの画面上に配置するシーンは2つより多くてもよい。図6(e)に、3つのシーンを配置する例を示す。図6(e)に示した例は、図5(f)と同様に、時間的に近接した3つの主シーンの配置例である。各シーンは、その中央領域を含むように、それぞれ領域609、610、611に並列に配置される。
Note that there may be more than two scenes arranged on one screen. FIG. 6E shows an example in which three scenes are arranged. The example shown in FIG. 6 (e) is an arrangement example of three main scenes that are close in time as in FIG. 5 (f). Each scene is arranged in parallel in the
ここで、画面アスペクト比が縦長である場合の、単独シーンの表示レイアウトについて説明する。単独シーンを配置する場合は、例えば図6(b)の配置において、領域604に単独シーンを配置し、領域605にも単独シーンを配置するようにする。その際、領域605には、上記で説明したような平滑化フィルタを施すことによって画像の鮮鋭度を落とす。このような構成により、図6(c)に関する前述の説明と同様に、画像を観賞する際の空間的な広がり感が得られると共に、表示される画像のサイズが、時間方向に結合される他の配置の画像クリップと同じになるため、連続して観賞する際に生じ得る違和感を回避することができる。
Here, the display layout of a single scene when the screen aspect ratio is vertically long will be described. When arranging a single scene, for example, in the arrangement of FIG. 6B, the single scene is arranged in the
なお、上記の空間フィルタは平滑化フィルタに限らず、領域ごとの色調を変える色変換フィルタでもよい。例えば、領域605、607の画像を色変換によってグレイスケールやいわゆるセピア調にすると、主シーンである領域604、608を目立ちやすくすることができる。あるいは、空間フィルタではなく、領域605、607の画像の時間方向の変化をゼロにする、すなわち静止画にすることで、主シーンである領域604、608との違いを強調してもよい。
The spatial filter is not limited to the smoothing filter, but may be a color conversion filter that changes the color tone of each region. For example, if the images of the
以上、図6を参照して、画面アスペクト比が横長の画像を、画面アスペクト比が縦長の画面に配置する例を説明したが、逆に、画面アスペクト比が縦長の画像を、画面アスペクト比が横長の画面に配置する場合も、同様の考え方で、シーンを配置する領域のサイズや位置、各シーンから切り出す領域、および空間フィルタの適用有無を決定することができる。 As described above, with reference to FIG. 6, the example in which the image with the screen aspect ratio of the landscape is arranged on the screen with the screen aspect ratio of the portrait has been described. In the case of arranging on a horizontally long screen, the size and position of the area where the scene is arranged, the area cut out from each scene, and whether or not to apply the spatial filter can be determined based on the same concept.
図19に、画面アスペクト比が縦長の画像(以降、「ポートレート画像」と記す)を、画面アスペクト比が横長の画面(以降、「ランドスケープ画面」と記す)に配置する場合の、シーン空間配置部1033によるシーン配置の例を示す。図19(a)は、図5(a)と同様、ランドスケープ画面用の「並列配置」の例である。図19(a)において配置される画像は、領域1902と領域1902’を含むポートレート画像である主シーンAと、領域1903と領域1903’を含むポートレート画像である主シーンBである。シーン空間配置部1033は、主シーンAと主シーンBそれぞれの中央領域を切り出して、表示領域1901内で並列に表示されるように、それぞれ領域1902、1903に配置する。領域1902’と領域1903’はそれぞれ、主シーンAおよび主シーンBの内、表示されない領域である。
FIG. 19 shows a scene space layout when an image with a screen aspect ratio of portrait (hereinafter referred to as “portrait image”) is placed on a screen with a screen aspect ratio of landscape (hereinafter referred to as “landscape screen”). An example of scene arrangement by the
図19(b)は、図5(b)と同様、ランドスケープ画面用の「中央配置」の例である。図19(b)において配置される画像は、領域1904に対応するポートレート画像である主シーンAと、領域1905と領域1905’を含むポートレート画像である副シーンBである。シーン空間配置部1033は、副シーンBの中央部分を、表示領域1901全体に対応する領域1905に表示されるように配置し、主シーンAを、表示領域1901の中央部に位置する領域1904に配置する。副シーンBの内、領域1905’は表示されない領域である。
FIG. 19B is an example of “center arrangement” for a landscape screen, as in FIG. 5B. The image arranged in FIG. 19B is a main scene A which is a portrait image corresponding to the
図19(d)は、ランドスケープ画面用の「中央配置」の別の例であり、図5(b)に対する図5(d)と同様に、主シーンAを、図19(b)と比較して大きく配置し、その分、副シーンBの表示面積が小さくなる配置である。シーン空間配置部1033は、副シーンBの中央部分を、表示領域1901全体に対応する領域1905に表示されるように配置し、主シーンAの中央部分を、表示領域1901の中央部に位置する領域1906に配置する。主シーンAの内、領域1906’は表示されない領域である。また、副シーンBの内、領域1905’は表示されない領域である。
FIG. 19D is another example of the “center arrangement” for the landscape screen. Similar to FIG. 5D for FIG. 5B, the main scene A is compared with FIG. 19B. The display area of the sub-scene B is accordingly reduced. The scene
図19(c)は、図5(c)と同様、ランドスケープ画面用の「子画面配置」の例である。図19(c)において配置される画像は、領域1906と領域1906’を含むポートレート画像である主シーンAと、領域1907に対応するポートレート画像である副シーンBである。シーン空間配置部1033は、主シーンAの中央部分を、表示領域1901の中央部に位置する領域1906に配置し、副シーンBを縮小した上で主シーンの領域1906に隣接する領域1907に配置する。主シーンAの内、領域1906’は表示されない領域である。シーン空間配置部1033はまた、領域1906、1907の背景として、領域1908に、主シーンAの中央部分または副シーンBの中央部分を表示するように配置してもよい。
FIG. 19C is an example of a “child screen arrangement” for a landscape screen, as in FIG. 5C. The images arranged in FIG. 19C are a main scene A that is a portrait
図19(e)は、図5(f)と同様、ランドスケープ画面用に3つのシーンを配置する例である。図19(e)において配置される画像は、領域1909を含むポートレート画像である主シーンA、領域1910を含むポートレート画像である主シーンBおよび、領域1911を含むポートレート画像である主シーンCである。シーン空間配置部1033は、主シーンA、主シーンBおよび主シーンCそれぞれの中央領域を切り出して、表示領域1901内で水平方向に並列に表示されるように、それぞれ領域1909、1910、1911に配置する。
FIG. 19 (e) is an example in which three scenes are arranged for the landscape screen, as in FIG. 5 (f). The images arranged in FIG. 19E are a main scene A that is a portrait image including a
次に、画面アスペクト比が縦長の画像(ポートレート画像)を、画面アスペクト比が同じく縦長の画面(以降、「ポートレート画面」と記す)に配置する表示レイアウトについて説明する。図20に、ポートレート画像をポートレート画面に配置する場合の、シーン空間配置部1033によるシーン配置の例を示す。図20(a)は、2つのシーンを縦方向に並べて配置する、ポートレート画面用の「並列配置」の例である。図20(a)において配置される画像は、領域2002を含むポートレート画像である主シーンAと、領域2003を含むポートレート画像である主シーンBである。シーン空間配置部1033は、主シーンAと主シーンBそれぞれの中央領域を切り出して、ポートレート画面に対応する表示領域2001内で垂直方向に並列に表示されるように、それぞれ領域2002、2003に配置する。なお、図20においては、画像領域の切り出しに伴って表示されない領域については図示を省略し、別途、図21、22を参照して説明する。
Next, a display layout in which an image with a portrait aspect ratio (portrait image) is arranged on a portrait image with the same aspect ratio (hereinafter referred to as “portrait screen”) will be described. FIG. 20 shows an example of scene arrangement by the scene
図20(b)は、副シーンを表示領域全体に背景として配置し、主シーンを中央部分に重畳させて配置する、ポートレート画面用の「中央配置」の例である。図20(b)において配置される画像は、領域2004を含むポートレート画像である主シーンAと、領域2005を含むポートレート画像である副シーンBである。シーン空間配置部1033は、副シーンBを表示領域2001全体に対応する領域2005に配置し、主シーンAの中央領域を切り出して、表示領域2001の垂直方向における中央部の領域2004に配置する。
FIG. 20B shows an example of “center arrangement” for a portrait screen in which the sub-scene is arranged as a background in the entire display area and the main scene is arranged so as to be superimposed on the center portion. The images arranged in FIG. 20B are a main scene A that is a portrait image including a
図20(c)は、主シーンAを表示領域全体に対応する領域に配置し、副シーンBを子画面領域として主シーン上に重畳させて配置する、ポートレート画面用の「子画面配置」の例である。図20(c)において配置される画像は、領域2006に対応するポートレート画像である主シーンAと、領域2007に対応するポートレート画像である副シーンBである。シーン空間配置部1033は、主シーンAを表示領域2001全体に対応する領域2006に配置し、副シーンBを表示領域2001全体の面積の4分の1より小さいサイズの領域2007に収まるように配置する。領域2007のサイズは、例えば表示領域2001全体の面積の1/9程度とする。
FIG. 20C shows a “child screen arrangement” for a portrait screen in which the main scene A is arranged in an area corresponding to the entire display area, and the sub scene B is arranged as a child screen area so as to be superimposed on the main scene. It is an example. The images arranged in FIG. 20C are a main scene A that is a portrait image corresponding to the
図20(d)は、ポートレート画面用に3つのシーンを垂直方向に並べて配置する例である。図20(d)において配置される画像は、領域2008を含むポートレート画像である主シーンA、領域2009を含むポートレート画像である主シーンBおよび、領域2010を含むポートレート画像である主シーンCである。シーン空間配置部1033は、主シーンA、主シーンBおよび主シーンCそれぞれの中央領域を切り出して、表示領域2001内で垂直方向に並列に表示されるように、それぞれ領域2008、2009、2010に配置する。
FIG. 20D shows an example in which three scenes are arranged in the vertical direction for a portrait screen. The images arranged in FIG. 20D are a main scene A that is a portrait image including a
以上、図19および図20で説明したものは、出力先の映像表示デバイスの画面アスペクト比が横長(ランドスケープ画面)あるいは縦長(ポートレート画面)いずれであっても、出力する主シーンおよび副シーンがいずれも縦長の画面アスペクト比の画像(ポートレート画像)である場合の、シーン配置の例である。同様に、図5および図6で説明したものは、出力する主シーンおよび副シーンがいずれも横長の画面アスペクト比の画像(以降、「ランドスケープ画像」と記す)である場合の、シーン配置の例である。しかし、同じ画面上に配置する主シーン及び副シーンは、必ずしも同じ画面アスペクト比の画像であるとは限らない。そこで次に、主シーンと副シーンで異なる画面アスペクト比の画像が混在する場合に、各画像から表示用に出力する画像領域を決定する方法について、図21および図22を用いて説明する。 As described above with reference to FIGS. 19 and 20, the main scene and the sub-scene to be output are output regardless of whether the screen aspect ratio of the output video display device is landscape (landscape screen) or portrait (portrait screen). Each of these is an example of a scene arrangement in the case of a vertically long screen aspect ratio image (portrait image). Similarly, what has been described with reference to FIGS. 5 and 6 is an example of a scene arrangement in the case where both the main scene and the sub scene to be output are images having a horizontally long screen aspect ratio (hereinafter referred to as “landscape images”). It is. However, the main scene and the sub scene arranged on the same screen are not necessarily images having the same screen aspect ratio. Next, a method for determining an image area to be output for display from each image when images having different screen aspect ratios are mixed in the main scene and the sub-scene will be described with reference to FIGS.
シーン空間配置部1033において、複数シーンの配置を、「並列配置」、「中央配置」、「子画面配置」等に決定する際、出力先の映像表示デバイスの表示領域のサイズと画面アスペクト比および、配置しようとする各シーンの画像サイズとアスペクト比に基づいて、各シーンの画像中で表示する領域を決定する。この時、配置のパターンに応じて各シーンの画像を最も有効に利用できるように、各画像のスケーリング(拡大/縮小)やクロッピング(切り取り)などの画像処理を施す。これら画像処理の過程を、図21および図22を用いて説明する。
In the scene
図21に、ランドスケープ画面に画像を出力する際の、シーン空間配置部1033における画像のスケーリングとクロッピングの処理例を示す。ランドスケープ画面に画像を出力するケースに関しては、図5および図19にシーン配置の例を示したが、図21では、元画像2101〜2104から、表示用に抽出する領域2101’〜2104’をどのように決定するかの例を説明する。図中、斜線部分は各元画像から抽出される表示用の領域であることを示す。また、HoおよびVoは、それぞれ出力先の表示領域の水平方向のサイズ(画素数)と垂直方向のサイズ(画素数)を意味し、HおよびVは、スケーリングやクロッピングの処理を行う前の、元画像の水平方向のサイズ(画素数)と垂直方向のサイズ(画素数)をそれぞれ意味する。
FIG. 21 shows a processing example of image scaling and cropping in the scene
図21(a)は、ランドスケープ画像2101を、図5(a)に示したようなランドスケープ画面用の「並列配置」の主シーンとして使用する際の、表示用領域2101’の決め方の例である。シーン空間配置部1033はまず、元画像2101の垂直方向のサイズVを出力先の表示領域の垂直方向のサイズVoに合わせるように、元画像2101全体をスケーリングする(V→Vo)。その後、シーン空間配置部1033は、スケーリング後の元画像2101の中央部分を、水平方向のサイズがHo/2になるようにクロッピングして、表示用の領域2101’を抽出する。なお、元画像2101をスケーリングする際は、元画像の画面アスペクト比を維持するように拡大/縮小を行い、シーン内の画像の歪みが生じないようにする。言い換えれば、スケーリング前後の、水平方向のサイズ比と垂直方向のサイズ比が同じになるように、スケーリングを行う。例えば、画像サイズがH×Vである元画像を、前述のように、垂直方向のサイズVを表示領域の垂直方向のサイズVoに合わせるようにスケーリングする場合、スケーリング後の画像の垂直方向のサイズV’は、V’=(Vo/V)×Vと表すことができ、スケーリング前後のサイズ比はVo/Vである。従って、スケーリング後の画像の水平方向のサイズH’に関しては、H’=(Vo/V)×Hとなるように、スケーリングを行う。以降、図21および図22に関する説明におけるスケーリング処理は、全てこれと同様の考え方に基づいて行う。
FIG. 21A shows an example of how to determine the
図21(b)は、ポートレート画像2102を、図5(a)に示したようなランドスケープ画面用の「並列配置」の主シーンとして使用する際の、表示用領域2102’の決め方の例である。シーン空間配置部1033はまず、元画像2102の水平方向のサイズHを出力先の表示領域の水平方向のサイズの2分の1(=Ho/2)に合わせるように、元画像2102全体をスケーリングする(H→Ho/2)。その後、シーン空間配置部1033は、スケーリング後の元画像2102の中央部分を、垂直方向のサイズがVoになるようにクロッピングして、表示用の領域2102’を抽出する。シーン空間配置部1033はまた、図5(b)に示したようなランドスケープ画面用の「中央配置」の主シーンとしてポートレート画像2102を使用する際にも、図21(b)に従って、元画像2102から表示用領域2102’を決定してもよい。
FIG. 21B shows an example of how to determine the
図21(c)は、ランドスケープ画像2103を、図5(d)に示したようなランドスケープ画面用のもう一つの「中央配置」の主シーンとして使用する際の、表示用領域2103’の決め方の例である。シーン空間配置部1033は、まず、元画像2103の垂直方向のサイズVを出力先の表示領域の垂直方向のサイズVoに合わせるように、元画像2103全体をスケーリングする(V→Vo)。次にシーン空間配置部1033は、元画像2103の中央部分を、水平方向のサイズが出力先の表示領域の水平方向のサイズの半分(=Ho/2)になるように、かつ、垂直方向のサイズが出力先の表示領域の垂直方向のサイズから所定の画素数Ωだけ小さいサイズ(=Vo−Ω)になるようにクロッピングして、表示用の領域2103’を抽出する。所定の画素数Ωは例えば、出力先の表示領域の垂直方向のサイズVoの5%と定める。
FIG. 21C shows how to determine the
図21(d)は、ポートレート画像2104を、図5(c)に示したようなランドスケープ画面用の「子画面配置」の主シーンとして使用する際の、表示用領域2104’の決め方の例である。シーン空間配置部1033はまず、元画像2104の水平方向のサイズHを出力先の表示領域の水平方向のサイズHoに合わせるように、元画像2104全体をスケーリングする(H→Ho)。その後、シーン空間配置部1033は、スケーリング後の元画像2104の中央部分を、垂直方向のサイズがVoになるようにクロッピングして、表示用の領域2104’を抽出する。シーン空間配置部1033はまた、ランドスケープ画面用の「中央配置」の副シーンとしてポートレート画像2104を使用する際にも、図21(d)に従って、元画像2104から表示用領域2104’を決定してもよい。
FIG. 21D shows an example of how to determine the
図22に、ポートレート画面に画像を出力する場合の、シーン空間配置部1033におけるシーンのスケーリングとクロッピングの処理例を示す。ポートレート画面に画像を出力するケースに関しては、図6および図20にシーン配置の例を示したが、図22では、元画像2201〜2203から、表示用に抽出する領域2201’〜2203’をどのように決定するかの例を説明するものである。図中の記号の意味は、前述の図21におけるものと同様であるため、説明を省略する。
FIG. 22 shows an example of scene scaling and cropping processing in the scene
図22(a)は、ランドスケープ画像2201を、図6(a)に示したようなポートレート画面用の「並列配置」の主シーンとして使用する際の、表示用領域2201’の決め方の例である。シーン空間配置部1033はまず、元画像2201の垂直方向のサイズVを出力先の表示領域の垂直方向のサイズの2分の1(Vo/2)に合わせるように、元画像2201全体をスケーリングする(V→Vo/2)。その後、シーン空間配置部1033は、スケーリング後の元画像2201の中央部分を、水平方向のサイズがHoになるようにクロッピングして、表示用の領域2201’を抽出する。シーン空間配置部1033はまた、図6(b)に示したようなポートレート画面用の「中央配置」の主シーンとしてランドスケープ画像2201を使用する際にも、図22(a)に従って、元画像2201から表示用領域2201’を決定してもよい。シーン空間配置部1033はまた、図6(c)に示したようなポートレート画面用の「子画面配置」の主シーンとしてランドスケープ画像2201を使用する際にも、図22(a)に従って、元画像2201から表示用領域2201’を決定してもよい。
FIG. 22A shows an example of how to determine the
図22(b)は、ポートレート画像2202を、図20(a)に示したようなポートレート画面用の「並列配置」の主シーンとして使用する際の、表示用領域2202’の決め方の例である。シーン空間配置部1033はまず、元画像2202の水平方向のサイズHを出力先の表示領域の水平方向のサイズ(Ho)に合わせるように、元画像2202全体をスケーリングする(H→Ho)。その後、シーン空間配置部1033は、スケーリング後の元画像2202の中央部分を、垂直方向のサイズが出力先の表示領域の垂直方向のサイズの2分の1(Vo/2)になるようにクロッピングして、表示用の領域2202’を抽出する。シーン空間配置部1033はまた、図6(b)に示したようなポートレート画面用の「中央配置」の主シーンとしてポートレート画像2202を使用する際にも、図22(b)に従って、元画像2202から表示用領域2202’を決定してもよい。
FIG. 22B shows an example of how to determine the
図22(c)は、ランドスケープ画像2203を、図6(b)に示したようなポートレート画面用の「中央配置」の副シーンとして使用する際の、表示用領域2203’の決め方の例である。シーン空間配置部1033はまず、元画像2203の垂直方向のサイズVを出力先の表示領域の水平方向のサイズ(Vo)に合わせるように、元画像2203全体をスケーリングする(V→Vo)。その後、シーン空間配置部1033は、スケーリング後の元画像2203の中央部分を、水平方向のサイズがHoになるようにクロッピングして、表示用の領域2203’を抽出する。シーン空間配置部1033はまた、図6(c)に示したようなポートレート画面用の「子画面配置」の背景部分(領域607)の主シーンもしくは副シーンとしてランドスケープ画像2203を使用する際にも、図22(c)に従って、元画像2203から表示用領域2203’を決定してもよい。
FIG. 22C shows an example of how to determine the
以上のように、ランドスケープ画像およびポートレート画像の両方を含んで構成される画像群から、複数の画像を組み合わせて出力する際に、出力先の映像表示デバイスの画面サイズおよび画面アスペクト比に合わせて、元画像ごとにスケーリングやクロッピングを行うことによって、元画像の画面アスペクト比と出力先の画面アスペクト比が異なる場合や、画像サイズや画面アスペクト比の異なる複数の画像が混在するシーン配置を行う場合であっても、出力画面の表示領域を最大限有効に活用しながら、画像の歪みを生じない高品位な映像を出力することが可能になる。 As described above, when a plurality of images are combined and output from an image group that includes both landscape images and portrait images, it matches the screen size and screen aspect ratio of the output video display device. When scaling or cropping is performed for each original image, the screen aspect ratio of the original image and the screen aspect ratio of the output destination are different, or a scene arrangement in which multiple images with different image sizes or screen aspect ratios are mixed Even so, it is possible to output a high-quality video that does not cause image distortion while maximally utilizing the display area of the output screen.
なお、スケーリングを行う際には、元画像の水平方向の画素数(H)もしくは垂直方向の画素数(V)のいずれかが、出力先の表示領域において対応する方向の画素数(Ho、Ho/2、Vo、Vo/2等)よりも大きい場合のみ行うようにしてもよい。そうすることにより、元画像の拡大処理を行う頻度を下げて、拡大処理に伴う画質の劣化や画像データ量の増大を抑えることができる。 When scaling is performed, either the number of pixels in the horizontal direction (H) or the number of pixels in the vertical direction (V) of the original image corresponds to the number of pixels (Ho, Ho) in the corresponding direction in the display area of the output destination. / 2, Vo, Vo / 2, etc.). By doing so, it is possible to reduce the frequency of performing the enlargement process of the original image, and to suppress the deterioration in image quality and the increase in the amount of image data due to the enlargement process.
以上説明したように、生成するダイジェスト動画像の出力画像仕様および出力音声仕様を、出力先の映像表示デバイスや音声出力デバイスの仕様・能力に合わせることによって、出力先のデバイスに適したダイジェスト動画像を生成することができる。特に映像に関しては、表示デバイスの大きさや画面アスペクト比に応じて、複数のシーンを効果的に配置した見やすいダイジェスト動画像を生成することが可能になる。また、ダイジェスト動画像を符号化する場合には、出力先デバイスの能力を最大限活かすことのできる高品質な映像・音声を出力させることが可能になる。 As described above, by adjusting the output image specifications and output audio specifications of the generated digest moving image to the specifications and capabilities of the output destination video display device and audio output device, the digest moving image suitable for the output destination device Can be generated. Particularly for video, it is possible to generate an easy-to-see digest moving image in which a plurality of scenes are effectively arranged according to the size of the display device and the screen aspect ratio. Also, when encoding a digest video, it is possible to output high-quality video / audio that can make the most of the capabilities of the output destination device.
(第2の実施形態)
次に、本発明に係る第2の実施形態である映像編集装置について説明する。第2の実施形態の映像編集装置は、第1の実施形態の映像編集装置に対して、ダイジェスト動画像生成部103に違いがある点が特徴である。図示は省略するが、本実施形態におけるダイジェスト動画像生成部は、内部に、ダイジェスト動画像生成カウント部、ランダム配置パターン決定部をさらに備えて構成される。以下、第1の実施形態との違いを中心に詳しく説明する。(Second Embodiment)
Next, a video editing apparatus according to the second embodiment of the present invention will be described. The video editing apparatus according to the second embodiment is characterized in that the digest moving
本実施形態におけるダイジェスト動画像生成部103では、ダイジェスト動画像生成カウント部が、イベント選択部104から通知された選択情報で示される画像データ群の単位で、ダイジェスト動画像の生成回数をカウントする。ダイジェスト動画像生成カウント部は、カウントした生成回数をランダム配置パターン決定部へ通知する。ランダム配置パターン決定部は、通知された生成回数が1回の場合は何もせず、生成回数が2回以上の場合は、複数シーンの空間的な配置パターンを決定する際に、乱数に基づいて配置パターンをランダムに変化させる。その結果、ダイジェスト動画像生成部はダイジェスト動画像を生成する際に、選択された画像データ群の単位で、その初回生成時には、本発明の第1の実施形態におけるシーン空間配置部1033に関して説明したように、シーンの種類および組み合わせシーン同士のシーン情報の関係に基づいて複数シーンの配置パターンを決定するが、2回目以降の生成時には、複数シーンの配置パターンを組み合わせシーンごとにランダムに変化させる。組み合わせシーンの決定に関しては、第1の実施形態におけるシーン種類決定部1032に関して説明したように、時間的に近接したシーン同士が選択されるように判定する。
In the digest moving
このような構成にすることにより、同じ画像データ群から何回もダイジェスト動画像を生成する場合に、ダイジェスト動画像に使用するシーンの時間的な前後関係は撮影時刻に基づいて保ちながら、生成するたびに異なるレイアウトを有するダイジェスト動画像を生成することができる。その結果、ユーザが、同じ画像データ群を新鮮な感覚で観賞することを可能にし、ユーザが飽きにくいダイジェスト動画像を提供することができる。 With such a configuration, when a digest moving image is generated many times from the same image data group, the time sequence of the scene used for the digest moving image is generated based on the shooting time. Digest moving images having different layouts can be generated each time. As a result, it is possible for the user to view the same image data group with a fresh sensation, and to provide a digest moving image in which the user is less tired.
(第3の実施形態)
次に、本発明に係る第3の実施形態である映像編集装置について説明する。第3の実施形態の映像編集装置は、第1の実施形態の映像編集装置に対して、シーン情報生成部およびダイジェスト動画像生成部に違いがある点が特徴である。図8(a)に、本実施形態による映像編集装置100aの内部構成を示す。映像編集装置100aは、画像データ分類部101、シーン情報生成部102a、ダイジェスト動画像生成部103a、イベント選択部104、および出力制御部105を含んで構成される。以下、第1の実施形態による映像編集装置100との相違点を中心に詳しく説明する。(Third embodiment)
Next, a video editing apparatus according to the third embodiment of the present invention will be described. The video editing apparatus according to the third embodiment is different from the video editing apparatus according to the first embodiment in that the scene information generation unit and the digest moving image generation unit are different. FIG. 8A shows the internal configuration of the video editing apparatus 100a according to the present embodiment. The video editing apparatus 100a includes an image
(シーン情報生成部102a)
シーン情報生成部102aは、画像データを分析して、画像信号や音声信号で特徴づけられる1つ以上のシーンに分類し、シーン単位の特徴を示す情報であるシーン情報を生成する。シーン情報は、画像内の特徴領域に関する情報として、「人物数」、「最大人物サイズ」、「最大人物位置」を含むように構成される(以降、これら3種類の情報を総称して人物情報と呼ぶ)。「人物数」は、各シーンの画像内に現れる人物の画像領域(人物領域)の数の、画像フレーム単位での最大値を表し、「最大人物サイズ」は、各シーンの人物領域の中で最も面積が大きい領域のサイズを表し、「最大人物位置」は、最大人物サイズに該当する領域の位置(画像内の座標)を表す。シーン情報生成部102aは、各シーンの特徴領域として画像内の顔画像と全身画像を検出し、顔画像が検出された場合は顔画像の領域に関する情報からシーン情報を生成し、顔画像が検出されない場合(人物は写っているが横や後ろを向いている場合など)は、全身画像の領域に関する情報からシーン情報を生成する。顔画像を検出する方法としては、例えば、所定サイズの領域単位で画像の特徴量を抽出し、Haar−Like特徴量を利用した顔画像の識別器に基づいて顔の領域を検出(識別)する方法がある。また、全身画像を検出する方法としては、所定の画像領域単位で勾配方向ヒストグラム(HOG:Histograms of oriented gradients)を算出し、HOG特徴量を利用した全身画像の識別器に基づいて全身像の領域を検出(識別)する方法がある。これら顔画像や全身画像を検出する方法は一例であり、検出する領域のサイズと位置が得られる方法であれば、上記方法に限定されない。また、顔画像と全身画像に限らず、別途用意する特徴量を利用した識別器に基づいて上半身画像や下半身画像の領域も検出し、例えば顔画像や全身画像が検出されない場合は、上半身画像の領域に関する情報(数、サイズ、位置)に基づいてシーン情報を生成してもよいし、上半身画像も検出されない場合には、下半身画像の領域に関する情報(数、サイズ、位置)に基づいてシーン情報を生成してもよい。(Scene
The scene
図9は、上記の人物情報の概念を示す図である。図9(a)は、人物領域701が座標702(x1,y1)に位置し、そのサイズが(H1×V1)であるようなシーンの一例である。このように、シーン内の人物数(人物領域の数)が1つの場合、「最大人物サイズ」および「最大人物位置」はそれぞれ一意に、(H1×V1)および(x1,y1)に定まる。図9(b)は、2つの人物領域703、704が、それぞれ座標705(x2,y2)、706(x3,y3)に位置し、各領域のサイズがそれぞれ(H2×V2)、(H3×V3)であるシーンの例である。図9(b)のように、シーン内の人物数が2つの場合、2つの人物領域(703、704)の内、面積が大きい方の領域703のサイズ(H2×V2)を示す情報を「最大人物サイズ」として定め、また、その領域703の座標(x2,y2)を示す情報を「最大人物位置」として定める。図9(c)は、4つの人物領域707、708、709、710を含むシーンの例である。図9(c)の例では、人物領域707が4つの人物領域のうちで最も面積が大きいものとする。この場合、領域707のサイズ(H4×V4)を示す情報を「最大人物サイズ」として定め、また、その領域707の座標(x4,y4)を示す情報を「最大人物位置」として定める。
FIG. 9 is a diagram showing the concept of the person information. FIG. 9A shows an example of a scene in which the
図10に、図9に示した例に対応するシーン情報の例を示す。シーン情報800は、シーン情報200と同様に、シーンに関する情報を行単位で記述したものであり、各行801、802、803、…の記述がそれぞれ一つのシーンに対応するように構成される。各行で記述される情報は、左から順に、画像ファイル名、撮影年月日、撮影時刻、シーン先頭フレーム番号、シーン終端フレーム番号、人物数、最大人物サイズ、最大人物位置、動き情報、会話情報を示している。以下に、シーン情報800のうち、人物数、最大人物サイズ、最大人物位置に関して説明する。これ以降、図10に関する説明においては、記述の簡単化のため、各シーン情報の符号がそれぞれシーンそのものを意味するものとしても記述する。
FIG. 10 shows an example of scene information corresponding to the example shown in FIG. Like the
シーン801のシーン情報は、図9(a)の例に対応する例である。図9(a)において、人物領域は1つのみ(領域701)であるため、シーン801の人物領域に関するシーン情報は、人物数=1となり、最大人物サイズおよび最大人物位置は、領域701のサイズ(H1×V1)および座標(x1,y1)となる。図10では、H1,V1,x1,y1に対応する数値として、H1=400、V1=500、x1=500、y1=300がそれぞれ記述されている(シーン801のシーン情報)。シーン802のシーン情報は、図9(a)の例と同様、人物領域が1つであるシーンに対応する例である。シーン803のシーン情報は、図9(b)の例に対応する例である。図9(b)において、人物領域は2つ(領域703、704)であり、面積が大きい方は領域703である。従って、シーン803の人物領域に関するシーン情報は、人物数=2となり、最大人物サイズおよび最大人物位置は、領域703のサイズ(H2×V2)および座標(x2,y2)となる。図10では、H2,V2,x2,y2に対応する数値として、H2=360、V2=480、x2=400、y2=500がそれぞれ記述されている(シーン803のシーン情報)。シーン804のシーン情報は、図9(c)の例に対応する例である。図9(c)において、人物領域は4つ(領域707、708、709、710)であり、そのうち最も面積が大きいのは領域707である。従って、シーン804の人物領域に関するシーン情報は、人物数=4となり、最大人物サイズおよび最大人物位置は、領域707のサイズ(H4×V4)および座標(x4,y4)となる。図10では、H4,V4,x4,y4に対応する数値として、H4=450、V4=520、x4=100、y4=300がそれぞれ記述されている(シーン804のシーン情報)。シーン805のシーン情報は、人物領域が5つであるようなシーンに対応する例である。シーン806のシーン情報は、人物数がゼロ、すなわち画像内に人物が検出されなかったシーンに対応する例である。人物数がゼロの場合、最大人物サイズおよび最大人物位置に該当するシーン情報は存在しない。図10において、これらの存在しない情報は、記号「*」で表している。
The scene information of the
上記説明においては、シーン情報800に関して、「最大人物サイズ」は、人物領域に対応する矩形領域の水平方向と垂直方向の画素数で表し、「最大人物位置」は、画像内の左上画素を原点とする、上記矩形領域の左上の画素の座標で表すものとして説明した。ただし、人物領域のうち、顔画像に対応する領域の形は、矩形ではなく円形でもよく、その場合、「最大人物サイズ」は、円の直径に対応する画素数で表してもよい。また、「最大人物位置」に対応する座標は、領域の左上でなく領域の中央の画素の座標でもよい。
In the above description, regarding the
シーン情報生成部102aは、以上説明した人物情報(人物数、最大人物サイズ、最大人物位置)を含むシーン情報を生成し、生成したシーン情報をダイジェスト動画像生成部103aへ出力する。
The scene
(ダイジェスト動画像生成部103a)
ダイジェスト動画像生成部103aは、シーン情報生成部102aによって生成されたシーン情報を読み込み、画像データ分類部101によって分類された画像データ群もしくはイベント選択部104が選択した画像データ群を対象として、ダイジェスト動画像を生成する。図8(b)に、本実施形態におけるダイジェスト動画像生成部103aの内部構成を示す。ダイジェスト動画像生成部103aは、対象画像抽出部1031、シーン種類決定部1032a、シーン空間配置部1033a、シーン時間配置部1034、ダイジェスト化制御部1035を含んで構成される。以下、実施形態1との相違点を中心に詳細に説明する。(Digest
The digest moving
対象画像抽出部1031は、イベント選択部104から通知される対象の画像データ群を示す選択情報を参照して、ダイジェスト動画像を生成する際の入力画像を抽出する。抽出した画像データを示す情報を、シーン種類決定部1032aおよびシーン空間配置部1033aへ通知する。シーン種類決定部1032aは、シーン情報生成部102aで生成されたシーン情報を参照し、対象画像抽出部1031で抽出された画像データを示す情報に対応するシーンのシーン情報を読み込み、シーンの種類を決定する。
The target
以下、シーン種類決定部1032aにおいてシーンの種類を決定する過程を、図10を参照しながら説明する。シーン種類決定部1032aは、シーン情報800を参照して、撮影時刻の順に連続する2つのシーンの撮影時刻を比較し、両者の撮影時刻の差ΔTがシーン近接判定閾値THt以内であるか超えるか、すなわち時間的に近接するか否かによって、各シーンを、単独で使用する「単独シーン」か、組み合わせて使用する「組み合わせシーン」に決定する。シーン近接判定閾値THt=300秒とすると、シーン801と802の撮影時刻の差ΔTは、ΔT=1分41秒=101秒<THtであるので、シーン801とシーン802は「組み合わせシーン」に決定する。同様に、シーン803とシーン804は、時間的に近接するため「組み合わせシーン」に決定し、シーン805とシーン806も、時間的に近接するため「組み合わせシーン」に決定する。シーン種類決定部1032aは、組み合わせシーンに決めた各シーンに関して、そのシーン情報に含まれる人物情報(人物数、最大人物サイズ、最大人物位置)、動き情報、会話情報を参照し、主要なシーンであると判定したら主シーンに、主要ではないシーンであると判定したら副シーンに、各シーンを分類する。図10におけるシーン801とシーン802に関しては、どちらも「人物数」=1であるので、両方とも主要なシーンであると判定して主シーンに分類する。シーン803とシーン804は、それぞれ「人物数」が2、4であるので、シーン803を主シーンに分類し、シーン804を副シーンに分類する。シーン805と806は、それぞれ「人物数」が5、0であるので、シーン805を主シーンに、シーン806を副シーンに分類する。このように、シーン種類決定部1032aは、組み合わせシーンにおいて、シーン内の「人物数」がより少ない(ただしゼロではない)シーンを主要であると判定し、相対的に「人物数」が多いシーンを主要でないと判定する。「人物数」がゼロのシーンは、「人物数」がゼロでないシーンよりも主要でないと判定する。組み合わせシーン同士の「人物数」が同一であれば双方を主要であると判定して、両方とも主シーンに分類する。
Hereinafter, the process of determining the scene type in the scene
シーン空間配置部1033aは、各シーンの空間的な配置を決定し、シーンを空間的に配置した画像クリップを生成して、シーン時間配置部1034へ出力する。シーン空間配置部1033aは、シーン種類決定部1032aが決定したシーンの種類および組み合わせシーン同士のシーン情報の関係に基づいて、各シーンの空間的な配置(レイアウト)を決定する。シーン空間配置部1033aにおいてシーンのレイアウトを決定する方法は、前述の、シーン空間配置部1033における方法と基本的には同様であるが、シーン空間配置部1033aにおいては、シーン情報に含まれる「人物数」を、シーン空間配置部1033におけるレイアウト決定の基準に用いた「人物情報」と対応させて、レイアウト決定に利用する。例えば、シーン情報に含まれる「人物数」が1または2である場合は、「人物情報」が「主要人物(1)」であるシーンと同等の扱いとする。また、「人物数」が3以上である場合は、「人物情報」が「その他人物(2)」であるシーンと同等の扱いとする。また、「人物数」が0である場合は、「人物情報」が「人物なし(0)」であるシーンと同等の扱いとする。その他、シーン空間配置部1033aによるレイアウト決定方法に関して、シーン空間配置部1033との違いは、シーン情報によって示される「最大人物位置」に応じたシーンの配置位置の制御、および、「最大人物サイズ」や「人物数」に応じたエフェクト制御である。
The scene
図11〜図13に、シーン空間配置部1033aによるシーンの配置位置制御およびエフェクト制御に関する処理例を示す。図11におけるシーン901とシーン902は、図10におけるシーン801、802に対応するものとする。シーン801と802は、前述の通り互いに組み合わせシーンであり、両方とも主シーンであるので、シーン空間配置部1033aは、両シーンのレイアウトを、シーン901、902を互いに同等のサイズで並列に表示する配置である「並列配置」に決定する(図11(c))。この時、シーン空間配置部1033aは、各シーンのシーン情報に含まれる「最大人物位置」が示す領域(領域911および912)を、それぞれ中央付近に含むような領域(領域921および922)を決定し、これら領域921、922を、それぞれシーン901、902の画像から切り出して、出力する画像930内の領域931、932に配置する。
FIGS. 11 to 13 show processing examples related to scene placement position control and effect control by the scene
次の例として、図12におけるシーン903とシーン904は、図10におけるシーン803、804に対応するものとする。シーン803と804は、前述の通り互いに組み合わせシーンであり、それぞれ主シーンと副シーンである。さらに、主シーンであるシーン803は、「人物数」=2であるため人物情報が「主要人物(1)」であるシーンと同等の扱いになるので、シーン空間配置部1033aは、両シーンのレイアウトを、副シーン904を、出力する画像940内の領域全体に表示しながら、画面中央部分の領域941に主シーン903を重畳表示する配置である「中央配置」に決定する(図12(c))。この時、シーン空間配置部1033aは、主シーンである903のシーン情報に含まれる「最大人物位置」が示す領域(領域913)を中央付近に含むような領域923を決定し、この領域923をシーン903の画像から切り出して、出力する画像940内の領域941に配置する。
As a next example, it is assumed that
次の例として、図13におけるシーン905とシーン906は、図10におけるシーン805、806に対応するものとする。シーン805とシーン806は、前述の通り互いに組み合わせシーンであり、それぞれ主シーンと副シーンである。さらに、主シーンであるシーン805は、「人物数」=5であるため人物情報が「その他人物(2)」であるシーンと同等の扱いになるので、シーン空間配置部1033aは、両シーンのレイアウトを、主シーン905を、出力する画像950内の領域全体951に表示しながら、副シーン906を縮小した画像を子画面領域952として主シーン上に重畳する配置である「子画面配置」に決定する(図13(c))。この時、シーン空間配置部1033aは、主シーンである805のシーン情報に含まれる「最大人物位置」が示す領域(領域915)が、重畳する副シーンに隠されないように、出力する画像950内に重畳する子画面領域952の位置を決定する。その際、シーン空間配置部1033aは、子画面領域の位置として、画面内の四隅いずれかであって、「最大人物位置」が示す領域(領域915)の位置から最も距離の遠い位置を選択して、子画面領域952の位置を決定する。なお、子画面領域952の位置は、主シーンのシーン情報に含まれる「最大人物位置」と重ならない位置であれば、画面内の四隅に限らず、別の位置に決定してもよい。
As a next example, the
以上のようにシーン空間配置部1033aが複数シーンのレイアウトを決定することによって、主要なシーンにおける大きな被写体(例えば、注目されやすい人物領域)が、同一画面内に配置される別シーンとの境界にかかって画面内に収まらなかったり、主要でない他のシーンで隠されたりするケースを回避することができ、結果として観賞しやすいダイジェスト動画像を生成することができる。
As described above, the scene
次に、シーン空間配置部1033aによるエフェクト制御について説明する。シーン空間配置部1033aは、複数シーンのレイアウトを決定する際、さらに、一部のシーンに空間フィルタを適用し、主シーンと副シーンの違いを強調した画像にしてもよい。例えば図12のような「中央配置」の画像940における領域942に平滑化フィルタを施すことによって、主シーンを表示した中央領域941と副シーンを表示した周辺領域942との間で画像の鮮鋭度に差をつけ、注目すべき領域をより明確にする。この時、シーン空間配置部1033aは、シーン情報に含まれる「最大人物サイズ」に応じて、平滑化フィルタの強度を制御する。例えば、主シーンのシーン情報に含まれる「最大人物サイズ」HSmainと、副シーンのシーン情報に含まれる「最大人物サイズ」HSsubの比HSratio(=HSmain/HSsub)を定義し、HSratioの大きさに反比例するように、平滑化フィルタの強度を制御する。例えば、シーン空間配置部1033aは、平滑化フィルタの平滑化度を制御するパラメータFfとして、平滑化度が弱い順にα、β、γの3種類のパラメータを使用するものとする。その際、HSratioが小さい時にパラメータγを選択し、HSratioが大きい時にパラメータαを選択するように制御する。図14(a)は、HSratioと平滑化フィルタの強度Ffの関係の一例を示すグラフである。主シーン内と副シーン内の最大人物サイズの差が小さい時(HSratio:小)は、主シーンと副シーンを重畳表示した際に、副シーンの画像が主シーンの画像の観賞の妨げになりやすい(両者を混同しやすい)ため、副シーンを表示する領域(領域942)にかける平滑化を強くして、主シーンと副シーンの鮮鋭度の差を大きくする。一方、主シーン内と副シーン内の最大人物サイズの差が大きい時(HSratio:大)は、主シーンと副シーンを重畳表示した際に、副シーンの画像が主シーンの画像の観賞の妨げになりにくいため、副シーンを表示する領域(領域942)にかける平滑化を弱くして、主シーンと副シーンの鮮鋭度の差を小さくする。主シーン内と副シーン内の最大人物サイズの差がさらに大きい時は、平滑化をかけないようにしてもよい(図14(a)において、HSratio>r3の時)。平滑化フィルタによって、主シーンと副シーンの鮮鋭度に差をつける目的は、主シーンへの注目度を高めることが主であるが、鮮鋭度に差をつけ過ぎると、ダイジェスト動画像を観賞する際に、副シーンが何を写したものか判別しにくくなり、複数シーンを空間的に配置した効果が半減してしまう。従って、主シーンへの注目の妨げになりにくいシーンに関しては、平滑化フィルタを弱めて鮮鋭度にあまり差をつけないようにするか、平滑化フィルタ自体をかけないようにする。このような構成により、主要なシーンへの注目度を高めながら、複数シーンを様々なレイアウトで空間的に配置する際の、表示(見え方)のバリエーションをさらに増やし、ダイジェスト動画像を観賞する際に、より見やすく、またユーザを飽きさせにくい動画像を提供することを可能にするものである。
Next, effect control by the scene
図14(b)に、シーン空間配置部1033aによる、平滑化フィルタ強度Ffの制御に関する、別の例を示す。図14(b)は、平滑化フィルタの強度Ffを、副シーンのシーン情報に含まれる「人物数」HNsubによって決定する際の、HNsubとFfの関係の一例を示すグラフである。グラフに示したように、シーン空間配置部1033aは、HNsubが小さい時に、平滑化度の強いパラメータγを選択し、HSsubが大きい時に、平滑化度の弱いパラメータαを選択する。HNsubが0の時には、平滑化自体をかけないように制御してもよい(図14(b)において、0≦HNsub<n1の時)。この方法に従えば、主シーンのシーン情報は参照せず副シーンのシーン情報のみから、簡便に平滑化の強度を決定することができる。平滑化の対象は副シーンであるため、副シーンのシーン情報(人物数)に従って平滑化フィルタの強度を制御すれば、主シーンの注目度を高めつつ、副シーンの画像を効果的に使ったダイジェスト動画像を生成することができる。また、図14(a)に示した関係と図14(b)に示した関係の両方を満たすように、平滑化フィルタ強度Ffを制御してもよい。例えば、Ffは、α、β、γの3種類だけでなく、多数の係数を選択可能にしておき、まず、副シーンの「人物数」HNsubに基づいて大まかな平滑化フィルタ強度Ffを決定し、その後、主シーンの「最大人物サイズ」HSmainと、副シーンの「最大人物サイズ」HSsubの比HSratio(=HSmain/HSsub)に基づいて、より細かくFfを制御する。このような構成により、適用するフィルタ強度の種類を増やすことができ、複数シーンを様々なレイアウトで空間的に配置する際の、表示(見え方)のバリエーションをさらに増やすことができる。
FIG. 14B shows another example relating to the control of the smoothing filter strength Ff by the scene
上記で説明した平滑化フィルタの強度Ffは、例えば、平滑化フィルタとして単純画素間引きを行う場合の、間引き画素数を示すパラメータであってもよい。図14に示した例においては、例えばα=2、β=4、γ=8と定め、シーン空間配置部1033aは、α、β、γの逆数の割合になるように画素を間引き、その後、元の画素数になるように画素を補間することによって、画像の平滑化を行う。例えば、Ff=α=2なら、平滑化対象の画像の画素数が、水平方向・垂直方向ともに1/2になるように画素を間引き、その後、間引かれた画素位置の画素値を、間引き後の(残された)画素値をコピーして補間する。パラメータFfの数値=1の場合は、間引きを行わないことを意味し、その場合、平滑化は行われない。あるいは、平滑化フィルタの強度Ffは、例えば、平滑化フィルタとして移動平均フィルタを使用する場合の、フィルタを適用する画素範囲に対応する窓サイズを示すパラメータであってもよい。図14に示した例においては、例えばα=3、β=5、γ=9と定め、シーン空間配置部1033aは、α、β、γが示す窓サイズの単位で(例えばFf=α=3なら、3×3画素の窓サイズ)、画素値の平均化を行うことによって、画像の平滑化を行う。前述の例と同様に、パラメータFfの数値=1の時は平滑化を行わない。これらの例に限らず、平滑化フィルタの強度Ffは、ガウシアンフィルタや重みづけフィルタ等、シーン空間配置部1033aが使用する平滑化フィルタの方法に応じて、あらかじめ定めた係数セットを示すパラメータでもよい。
The smoothing filter strength Ff described above may be, for example, a parameter indicating the number of thinned pixels when performing simple pixel thinning as a smoothing filter. In the example shown in FIG. 14, for example, α = 2, β = 4, and γ = 8 are set, and the scene
なお、シーン空間配置部1033aが施す空間フィルタは平滑化フィルタに限らず、領域ごとの色調を変える色変換フィルタでもよい。例えば、シーン空間配置部1033aは副シーンの画像を平滑化する代わりに、その彩度を変更しても良い。例えば、副シーンの領域942内の画素に関して、画素の彩度を、前述のHSratioやHNsubに比例するように変化させる。例えば、図14(c)に示すような、彩度Sが0〜Smaxまでの範囲で、HSratioと彩度Sの関係を示す特性を定め、その特性に合わせるように副シーンの領域942内の画素値を変換する。ここで、Smaxは、画素値を変換する前の、対象副シーン内の最大彩度を意味する。このような構成により、主シーン内と副シーン内の最大人物サイズの差が小さい時(HSratio:小)は、主シーンと副シーンを重畳表示した際に、副シーンの画像が主シーンの画像の観賞の妨げになりやすい(両者を混同しやすい)ため、副シーンの彩度Sを下げることによって主シーンと副シーンの彩度に差をつけて、主シーンの領域を目立ちやすくする。その際、HSratioが所定の閾値より小さい場合は、副シーンの彩度S=0にする(図14(c)において、HSratio<r0の時)、すなわちグレイスケールの画像にすることによって、主シーンとの彩度の差を特に強調するようにしてもよい。また、HSratioが所定の閾値より大きい場合は、副シーンの彩度を変更しないようにしてもよい(図14(c)において、HSratio>r4の時)。なお、図14(c)のようなHSratioと彩度Sの関係を示す特性の代わりに、HNsubと彩度Sの関係を示す同様の特性に基づいて、副シーンの彩度を変換してもよい。以上のように、主シーンと副シーンのシーン情報の関係に応じて、副シーンを配置する領域の彩度を下げるように画素値を変換することによって、副シーンの領域(例えば領域942)はグレイスケールの画像に近づくか、もしくはグレイスケールの画像になり、同一画面上に配置した主シーンの領域(例えば領域941)を目立ちやすくすることができる。あるいは、シーン空間配置部1033aは、空間フィルタを施すのではなく、副シーンの領域942の画像の時間方向の変化をゼロにする、すなわち静止画にすることで、主シーンの領域941との違いを強調してもよい。
The spatial filter applied by the scene
以上説明したように、本実施形態にかかわる映像編集装置100aによれば、複数のシーンを組み合わせて空間的に配置するダイジェスト動画像の生成において、主要なシーンにおける人物の領域など、注目されやすい画像領域を見やすく配置したダイジェスト動画像を提供することができる。また、同一画面内に空間的に配置した主要なシーンと主要でないシーンとの特徴の違いに応じて、鮮鋭度や色味など、シーン間の画像に差をつけることによって、主要なシーンへの注目度を高めながら、複数シーンを様々なレイアウトで空間的に配置する際の、表示(見え方)のバリエーションをさらに増やし、ダイジェスト動画像を観賞する際に、より見やすく、またユーザを飽きさせにくい動画像を提供することができる。 As described above, according to the video editing apparatus 100a according to the present embodiment, in generating a digest moving image in which a plurality of scenes are combined and spatially arranged, an image that is easily noticed, such as a human region in a main scene. It is possible to provide a digest moving image in which an area is easily viewed. In addition, depending on the difference in characteristics between major and non-major scenes spatially arranged on the same screen, sharpness, color, etc. While increasing the degree of attention, the number of display (viewing) variations when spatially arranging multiple scenes in various layouts is further increased, and it is easier to see and less tired of the user when watching a digest video. A moving image can be provided.
なお、第3の実施形態の説明においては、各シーンの特徴を示す画像内の特徴領域として人物(顔画像や全身画像)を検出する例を示したが、人物の代わりに別の被写体を特徴領域として検出し、それら特徴領域に対応する「領域数」、「最大領域サイズ」、「最大領域位置」を示す情報を、人物情報の代わりにシーン情報に含めるように構成してもよい。人物以外の被写体を特徴領域として検出する方法としては、前述のHaar−Like特徴量やHOG特徴量を利用する際に、注目したい被写体、例えば、動物(犬、鳥等)、乗り物(車両、航空機等)などに関する特徴量に対応する識別器をあらかじめ用意しておき、それら識別器に基づいて画像内の被写体を検出(識別)すればよい。 In the description of the third embodiment, an example is shown in which a person (a face image or a whole body image) is detected as a feature area in an image showing the features of each scene. However, another subject is used instead of a person. Information that is detected as a region and indicates the “number of regions”, “maximum region size”, and “maximum region position” corresponding to the feature regions may be included in the scene information instead of the person information. As a method of detecting a subject other than a person as a feature region, when using the Haar-Like feature amount or the HOG feature amount described above, a subject to be focused on, for example, an animal (dog, bird, etc.), a vehicle (vehicle, aircraft) Etc.) in advance, and a subject in the image may be detected (identified) based on the identifier.
(第4の実施形態)
次に、本発明に係る第4の実施形態である映像編集装置について説明する。第4の実施形態の映像編集装置は、第1の実施形態の映像編集装置に対して、ダイジェスト動画像生成部に含まれる対象画像抽出部、シーン空間配置部およびシーン時間配置部に違いがある点が特徴である。第4の実施形態において、映像編集装置100bは、ダイジェスト動画像生成部103bを含むように構成され、ダイジェスト動画像生成部103bは、対象画像抽出部1031b、シーン空間配置部1033b、シーン時間配置部1034bを含んで構成される。図17に、本実施形態による映像編集装置100bおよびダイジェスト動画像生成部103bの内部構成を示す。(Fourth embodiment)
Next, a video editing apparatus according to the fourth embodiment of the present invention will be described. The video editing apparatus according to the fourth embodiment is different from the video editing apparatus according to the first embodiment in the target image extraction unit, the scene space arrangement unit, and the scene time arrangement unit included in the digest moving image generation unit. The point is a feature. In the fourth embodiment, the video editing apparatus 100b is configured to include a digest moving
ダイジェスト動画像生成部103bは、シーン情報生成部102によって生成されたシーン情報を読み込み、画像データ分類部101によって分類された画像データ群もしくはイベント選択部104が選択した画像データ群を対象として、ダイジェスト動画像を生成する。ダイジェスト動画像生成部103bは、対象画像抽出部1031b、シーン種類決定部1032、シーン空間配置部1033b、シーン時間配置部1034b、ダイジェスト化制御部1035を含んで構成される。以下、実施形態1との相違点を中心に詳細に説明する。
The digest moving
対象画像抽出部1031bは、イベント選択部104から通知される対象の画像データ群を示す選択情報を参照して、ダイジェスト動画像を生成する際の入力画像を抽出する。対象画像抽出部1031bは、抽出した画像データを示す情報を、シーン種類決定部1032およびシーン空間配置部1033bへ通知する。その際、対象画像抽出部1031bは、画像データ群識別情報から、画像データ群の名称および画像データ名と画像データの撮影日時を抽出して、シーン空間配置部1033bへ通知する。
The target
シーン空間配置部1033bは、第1の実施形態に関して説明したシーン空間配置部1033と同様に、各シーンの空間的な配置を決定し、シーンを空間的に配置した画像クリップを生成する。シーン空間配置部1033bにおいては、さらに、画像クリップを生成する際に、画像情報を示すテキスト画像を重畳する機能と、追加の画像クリップとしてタイトル画像を生成する機能を有する点が、第1の実施形態との相違点である。
The scene
図18に、シーン空間配置部1033bが生成する画像クリップの例を示す。図18(a)は、シーン空間配置部1033bが生成するタイトル画面の例である。タイトル画面1000は、例えば黒一色の背景1001に白色のテキスト1002を重畳した画像であり、例えば5秒間程度の静止した画像である。シーン空間配置部1033bは、対象画像抽出部1031b経由で通知される画像データ群の名称を示すテキスト1002を、別途生成した背景画像1001の上に重畳させることにより、タイトル画面1000を生成する。図18(b)は、シーン空間配置部1033bが生成する、各シーン単位の画像情報を示すテキスト情報を含む画像クリップの例である。画像クリップ1003は、シーン1004とシーン1005を空間的に配置した画像クリップであって(図11(c)の画像930に相当)、シーン1004および1005上にそれぞれの撮影日時情報を示すテキストを重畳した画像である。シーン空間配置部1033bは、対象画像抽出部1031b経由で通知される画像データ群識別情報に含まれるシーン1004およびシーン1005の各画像データ(図15におけるDSC_2001.movおよびDSC_2002.mov)に対応する撮影日時情報を示すテキスト(1006、1007)を、各シーン上に重畳させることにより、画像クリップ1003を生成する。
FIG. 18 shows an example of an image clip generated by the scene
シーン時間配置部1034bは、第1の実施形態に関して説明したシーン時間配置部1034と同様に、シーン空間配置部1033bが生成した画像クリップ同士を、時間方向に結合する。その際、シーン時間配置部1034bは、シーン空間配置部1033bが生成した前記タイトル画面の画像クリップが時間的に先頭に位置するように、各画像クリップを時間方向に結合する。
The scene
このように、入力画像データの日時情報や位置情報に基づいてタイトル画面を自動生成することで、ダイジェスト動画像を生成する際のユーザ操作の手間を軽減すると共に、生成されたダイジェスト動画像をユーザが観賞する際に、いつどこで撮影した画像データを対象としたダイジェストであるかが一目でわかる。従って、撮影してから日数を経た画像データを含むダイジェスト動画像を生成または観賞する場合でも、撮影時の状況を思い出しやすくなり、ダイジェスト動画像に対するユーザの満足度を高められる効果がある。さらに、シーン単位で撮影日時情報を重畳することで、ユーザがダイジェスト動画像の観賞後、シーン単位でじっくり観賞したいと思った場合に、画像データの特定をしやすくなるという効果も得られる。 Thus, by automatically generating the title screen based on the date / time information and position information of the input image data, it is possible to reduce the trouble of user operation when generating the digest moving image, and the generated digest moving image is used by the user. When watching, you can see at a glance when and where the digest is for image data taken. Therefore, even when a digest moving image including image data that has passed the number of days after shooting is generated or viewed, the situation at the time of shooting can be easily remembered, and the user's satisfaction with the digest moving image can be improved. Furthermore, by superimposing the shooting date and time information in units of scenes, it is possible to easily specify image data when the user wants to watch the digest moving images carefully after watching the digest moving images.
なお、シーン空間配置部1033bにおいて、各シーンの上に撮影日時情報を示すテキストを重畳するかどうかは、ユーザの選択に従ってあらかじめ決定しておいてもよい。その場合、ダイジェスト化制御部1035が、ユーザの選択に従ってテキストを重畳するか否かをシーン空間配置部1033bに通知し、シーン空間配置部1033bはその通知に従って、撮影日時情報を示すテキストを各シーンに重畳するかどうかの制御を切り替える。また、画像クリップに撮影日時情報を示すテキストを重畳する際には、全シーン単位にテキストを重畳する代わりに、例えば主シーンの撮影日時情報だけ重畳する構成にしてもよい。
Note that, in the scene
以上説明したような構成を備えることによって、本実施形態に係る映像編集装置によれば、大量・多数の静止画像や動画像を、ユーザが手間をかけずに短時間で確認・観賞することができ、また、画像を表示する表示装置に適した品質および見やすい画像で観賞でき、さらに、同じ画像データ群を何度でも飽きずに観賞できる、という効果が得られる。 By providing the configuration as described above, the video editing apparatus according to the present embodiment allows a user to confirm and view a large number and a large number of still images and moving images in a short time without trouble. In addition, it is possible to view the image with a quality suitable for a display device that displays the image and an easy-to-view image, and further, it is possible to view the same image data group again and again without getting tired.
(第5の実施形態)
以下、図面を参照しながら本発明の実施形態について説明する。なお、説明の便宜上、前記の実施形態において示した部材と同一の機能を有する部材には、同一の符号を付し、その説明を省略する。(Fifth embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. For convenience of explanation, members having the same functions as those shown in the above embodiment are given the same reference numerals, and the explanation thereof is omitted.
図23は、本発明に係る第5の実施形態である映像編集装置の構成を示す概略図である。 FIG. 23 is a schematic diagram showing the configuration of a video editing apparatus according to the fifth embodiment of the present invention.
映像編集装置100cは、対象画像データ抽出部109、シーン情報生成部102、再生時間候補導出部110、再生時間候補表示部111、ダイジェスト動画像生成部103cを含んで構成される。映像編集装置100cはさらに、図示は省略するが、画像データを格納するデータ記録部や、画像を表示する映像表示部を内部に備えてもよいし、それらと同様の機能を備えるデータ記録装置や映像表示装置を、外部に接続可能な構成であってもよい。
The video editing apparatus 100c includes a target image
次に、映像編集装置100cの各機能ブロックについて述べる。 Next, each functional block of the video editing apparatus 100c will be described.
対象画像データ抽出部109は、画像データに含まれるメタデータに基づいて、所定の条件に合致する画像データを抽出する。そして、抽出した画像データを画像データ群としてまとめる。
The target image
例えば、ダイジェスト動画像の編集を行う編集日を基準にして、前日に撮影された画像データ、すなわち撮影日時が編集日の前日である画像データを編集対象に決定する。また、編集日ではなく、ユーザが指定する指定日時を基準として、撮影日時がその指定日時の前後の画像データを編集対象に決定しても良い。また、対象画像データ抽出部109が編集対象と決定する画像データは、日時情報だけでなく、位置情報や作成者情報に基づいてもよい。例えば、ユーザが指定する位置情報またはその位置を含む所定範囲内の位置情報を有する画像データを、編集対象に決定してもよい。あるいは、所定範囲内の位置情報を有する画像データが、異なる作成者別に複数ある中で、特定の作成者情報を有する画像データのみを編集対象に決定してもよいし、逆に、特定の作成者情報を有する画像データを除外した画像データを、編集対象に決定してもよい。対象画像データ抽出部109が編集対象として決定する画像データは、1つとは限らず、2つ以上でもよい。なお、対象画像データ抽出部109が、編集対象とする画像データを決定するタイミングとして、一日の切り替わりをトリガにしてもよい。例えば、午前0時を過ぎた時点で、その前日に撮影された画像データを編集対象と決定してもよい。対象画像データ抽出部109は、画像データ群をダイジェスト動画像生成部103cに出力する。
For example, on the basis of the editing date on which the digest moving image is edited, image data captured on the previous day, that is, image data whose shooting date is the previous day of the editing date is determined as an editing target. Further, based on the designated date and time specified by the user, not the editing date, the image data with the shooting date and time before and after the designated date and time may be determined as the editing target. Further, the image data determined by the target image
また、対象画像データ抽出部109は、抽出した全ての画像データの再生時間を合計することで総再生時間を算出する。対象画像データ抽出部109は、総再生時間を再生時間候補導出部110に出力する。
The target image
再生時間候補導出部110は、対象画像データ抽出部109から入力された総再生時間に基づいて、ダイジェスト動画像の再生時間候補を導出する。導出方法としては、総再生時間の平方根を再生時間候補として算出する。単位が「分」である総再生時間の平方根を算出し、小数点以下を切り捨てた値を再生時間候補とする。例えば、総再生時間が1時間の場合、60の平方根から小数点以下を切り捨てた値である7が再生時間候補となる。再生時間候補導出部110は、導出した再生時間候補を再生時間候補表示部111に出力する。
The playback time
再生時間候補表示部111は、再生時間候補導出部110から入力された再生時間候補を、図示しない表示装置に表示する。なお、表示装置には、タッチパネルやマウスなどのユーザの入力手段が備わっているものとする。再生時間候補表示部111は、入力手段を介してユーザイベントを受け取り、ユーザイベントによって選択された再生時間候補を指定時間とする。再生時間候補表示部111は、指定時間をダイジェスト動画像生成部103cに出力する。
The reproduction time
図24は、本実施形態の映像編集装置100cにおいて、ダイジェスト動画像の再生時間を指定するユーザインターフェースの一例である。ユーザは「ダイジェスト動画像再生時間」表示の下側に表示されているバー31のボタン32を左右にスライドさせることで所望の再生時間を選択することが出来る。バー31の下側には、指定できる再生時間の最小値と最大値が表示される。図3の場合は、最小値として1分、最大値として再生時間候補である7分が表示されている。例えば、ユーザがボタン32をバー31の左端までスライドさせた場合、指定時間は1分となり、右端までスライドさせた場合、指定時間は7分となり、バー31の中間にボタン32をスライドさせた場合、指定時間は1分と7分の中間値である4分となる。本実施形態では、再生時間をバー31上のボタン32をスライドさせることで選択する例について説明したが、プルダウンメニューから再生時間を選択するようにしてもよいし、数値入力するようにしてもよい。
FIG. 24 is an example of a user interface for designating the playback time of the digest moving image in the video editing apparatus 100c of the present embodiment. The user can select a desired reproduction time by sliding the
次に、ダイジェスト動画像生成部103cが実施する、ダイジェスト動画像生成の処理内容について述べる。図25は、本実施例の映像編集装置100cによるダイジェスト動画像の生成過程を示す概念図である。図25に示す通り、映像編集装置100cは、画像データ301のうち、選択された画像データの集合である画像データ群302を対象として、対応するシーン情報303を読み込み、再生時間候補表示部111から入力された指定時間に従ってダイジェスト動画像を生成する。ダイジェスト動画像生成の対象となる画像データ群302は、例えば、ある一日に撮影された全画像データである。この画像データ群は、対象画像データ抽出部109によって決定される。画像データ群302は、シーン情報生成部102によって1つ以上のシーンに分類され、シーン単位の特徴を示す情報であるシーン情報が生成される。次に、ダイジェスト動画像生成部103cは、シーン情報を撮影年月日と撮影時刻の早い順番で参照し、単独で使用するシーンと、他のシーンと組み合わせて使うシーンなど、シーンの種類を決定する。そして、ダイジェスト動画像生成部103cは、決定したシーンの種類に基づいて、各シーンを空間的に配置した画像データである画像クリップ306a、306b、306c、…を生成し、複数の画像クリップを時間的に結合することでダイジェスト動画像307を生成する。画像クリップ306a、306b、306c等は、少なくとも一つのシーンを含む動画像であるが、静止画像を含んでいてもかまわない。
Next, the digest moving image generation processing performed by the digest moving
また、ダイジェスト動画像生成部103cは、生成したダイジェスト動画像の再生時間が指定時間となるように、ダイジェスト動画像を調整する。ここで、「再生時間が指定時間となる」とは、再生時間と指定時間が一致することを意味してもよいし、再生時間と指定時間の間に多少の差がある状態を意味しても良いこととする。
In addition, the digest moving
例えば、図26の(A)に示すように、ダイジェスト動画像50Aが画像クリップ51から57によって構成されており、ダイジェスト動画像50Aの最後の画像クリップ57の再生中に指定時間が過ぎてしまう場合でも、再生時間が指定時間となったと見なしてよい。
For example, as shown in FIG. 26A, the digest moving
また、図26の(B)に示すように、ダイジェスト動画像50Bが画像クリップ51から56によって構成されており、ダイジェスト動画像50Bの再生時間が指定時間より短いが、画像クリップをもう1つ、図26の(B)の場合には画像クリップ57、を結合すると、ダイジェスト動画像50Bの再生時間が指定時間より長くなってしまう場合も、再生時間が指定時間となったと見なしてよい。
Also, as shown in FIG. 26B, the digest moving
つまり、再生時間と指定時間の差が、画像クリップ1つ分以下であれば、再生時間が指定時間となったと見なしてよい。他にも、再生時間と指定時間の差を許容する範囲として、具体的な数値、例えば30秒や1分などとしてもよいし、指定時間に対する割合、例えば指定時間の1%としてもよい。 That is, if the difference between the playback time and the specified time is less than or equal to one image clip, the playback time may be regarded as the specified time. In addition, as a range allowing the difference between the reproduction time and the designated time, a specific numerical value such as 30 seconds or 1 minute may be used, or a ratio with respect to the designated time, for example, 1% of the designated time may be used.
図27は、本実施形態におけるダイジェスト動画像生成部103cの内部構成である。ダイジェスト動画像生成部103cは、シーン種類決定部1032、シーン空間配置部1033、シーン時間配置部1034、ダイジェスト動画像編集部1036を含んで構成される。シーン種類決定部1032、シーン空間配置部1033及びシーン時間配置部1034の処理内容は第1の実施形態と同様である。
FIG. 27 shows the internal configuration of the digest moving
(ダイジェスト動画像の再生時間調整)
ダイジェスト動画像生成部103cがダイジェスト動画像を生成する際の、再生時間の調整方法について説明する。(Adjustment of digest video playback time)
A method for adjusting the reproduction time when the digest moving
ダイジェスト動画像編集部1036は、シーン時間配置部1034が出力したダイジェスト動画像を編集することにより、ダイジェスト動画像の再生時間を調整する。
The digest moving
ダイジェスト動画像編集部1036は、ダイジェスト動画像の再生時間が指定時間となっている場合には、入力されたダイジェスト動画像をそのまま出力する。
The digest moving
ダイジェスト動画像編集部1036は、ダイジェスト動画像の再生時間が指定時間となっていない場合には、ダイジェスト動画像の再生時間が指定時間となるように編集する。
If the playback time of the digest moving image is not the specified time, the digest moving
具体的には、ダイジェスト動画像再生時間が指定時間より長い場合には、ダイジェスト動画像編集部1036は、ダイジェスト動画像に含まれる各画像クリップを短くする。まず、ダイジェスト動画像編集部1036は、動きのない画像クリップの再生時間を短くすることで、ダイジェスト動画像の再生時間を調整する。具体的には、ダイジェスト動画像の先頭から順に画像クリップに含まれるシーンのシーン情報の動き情報を参照し、画像クリップに含まれる全てのシーンの動き情報が「動きなし(0)」の場合には、画像クリップのフレームを間引くことで再生時間を短くする。例えば、単純間引きでフレーム数を半分にすることで、画像クリップの再生時間を半分に、即ち再生速度を2倍にする。図28は、ダイジェスト動画像編集部1036における画像クリップの再生時間を短くする処理を説明するための概念図である。画像クリップ60Aは動き情報が「動きなし(0)」のシーンのみで構成されている画像クリップである。フレーム61からフレーム66は、画像クリップ60Aを構成するフレームであり、フレーム61からフレーム66の順に時系列で並んでいる。ダイジェスト動画像編集部1036は、ダイジェスト動画像再生時間が指定時間より長い場合には、画像クリップ60A中の2フレームにつき1フレーム、図28の場合、フレーム62、フレーム64、フレーム66・・・を削除することで、画像クリップ60Aに対してフレーム数が半分である画像クリップ60Bにする。画像クリップ60Bを表示する際のフレームレートは画像クリップ60Aと同じため、画像クリップ60Bは画像クリップ60Aの再生速度を2倍にした画像クリップとなる。ダイジェスト動画像編集部1036は、ダイジェスト動画像再生時間が指定時間となるまで、上記処理を繰り返す。
Specifically, when the digest video playback time is longer than the specified time, the digest
ダイジェスト動画像編集部1036は、ダイジェスト動画像の最後の画像クリップまで上記処理を実施した後、ダイジェスト動画像再生時間が指定時間となっていない場合には、画像クリップに含まれる全てのシーンの動き情報が「動きなし(0)」ではない画像クリップの、一部分を切り取ることで、ダイジェスト動画像の再生時間を調整する。具体的には、ダイジェスト動画像再生時間をTd、指定時間をTsとすると、ダイジェスト動画像編集部1036は、各画像クリップの再生時間Tiが、Ts/Td倍になるように画像クリップの一部を切り取る。例えば、画像クリップの先頭から、画像クリップの再生時間Tiに対して1-(Ts/Td)倍に相当する時間を切り取る。また、切り取る箇所は先頭以外に、画像クリップの最後の部分でもよいし、先頭と最後両方から切り取っても良い。
The digest moving
また、ダイジェスト動画像再生時間が指定時間より短い場合には、まず、ダイジェスト動画像編集部1036は、動きのない画像クリップの再生時間を長くすることで、ダイジェスト動画像の再生時間を調整する。具体的には、ダイジェスト動画像の先頭から順に画像クリップに含まれるシーンのシーン情報の動き情報を参照し、画像クリップに含まれる全てのシーンの動き情報が「動きなし(0)」の場合には、画像クリップのフレームを補間することで再生時間を長くする。例えば、各フレームの間にフレームを1個補間することで、画像クリップの再生時間を2倍に、即ち再生速度を1/2倍にする。また別の例として、各フレームの間にフレームを2個補間した後、偶数番目のフレームを削除することで、画像クリップの再生時間を1.5倍、即ち再生速度を2/3倍にする。図29は、ダイジェスト動画像編集部1036における画像クリップの再生時間を長くする処理を説明するための概念図である。画像クリップ70Aは動き情報が「動きなし(0)」のシーンのみで構成されている画像クリップである。フレーム71、74、77は、画像クリップ70Aを構成するフレームであり、フレーム71、74、77の順に時系列で並んでいる。ダイジェスト動画像編集部36は、ダイジェスト動画像再生時間が指定時間より短い場合には、まず、画像クリップ70A中のフレームの間に2フレームを、図29の場合、フレーム72、フレーム73、フレーム75、フレーム76・・・をフレーム補間により補間することで、画像クリップ70Aに対してフレーム数が3倍である画像クリップ70Bにする。次に、ダイジェスト動画像編集部1036は、画像クリップ70B中の2フレームに1フレームを、図29の場合、フレーム72、フレーム74、フレーム76・・・を削除することで、画像クリップ70Bに対してフレーム数が半分である画像クリップ70Cにする。画像クリップ70Cのフレーム数は画像クリップ70Aの3/2倍であり、表示する際のフレームレートは画像クリップ70Aと同じため、画像クリップ70Cは画像クリップ70Aの再生速度を2/3倍にした画像クリップとなる。フレーム補間の具体的な方法は、特に限定しないが、例えば、線形補間やフレーム間の動きを推定し、動きに基づいて内挿する方法でもよい。ダイジェスト動画像編集部1036は、ダイジェスト動画像再生時間が指定時間となるまで、上記処理を繰り返す。
When the digest moving image playback time is shorter than the specified time, first, the digest moving
ダイジェスト動画像編集部1036は、ダイジェスト動画像の最後の画像クリップまで上記処理を実施した後、ダイジェスト動画像再生時間が指定時間となっていない場合には、ダイジェスト動画像に含まれる画像クリップから、ランダムに選択した画像クリップをダイジェスト動画像の最後に結合する。ただし、同一の画像クリップが連続で再生されないように、ランダムに選択した画像クリップが、ダイジェスト動画像の最後の画像クリップと同一の場合には、選択した画像クリップの結合をスキップしてもよい。ダイジェスト動画像編集部1036は、ダイジェスト動画像再生時間が指定時間となるまで、上記処理を繰り返す。
The digest moving
また、別の調整方法として、画像クリップの切り替え時にトランジションのような映像効果を用いる方法もある。映像効果が再生されている間は、画像クリップの再生は停止するため、ダイジェスト動画像再生時間を長くすることが出来る。ダイジェスト動画像編集部1036は、画像クリップ間の撮影時刻の差が大きい箇所から順に映像効果を挿入することで、ダイジェスト動画像再生時間Tdを長くする。ダイジェスト動画像編集部1036は、ダイジェスト動画像再生時間が指定時間となるか、全ての画像クリップ間に映像効果を挿入するまで、上記処理を繰り返す。全ての画像クリップ間に映像効果を挿入しても、ダイジェスト動画像再生時間が指定時間とならない場合には、上述した、ランダムに選択した画像クリップをダイジェスト動画像の最後に結合する方法を用いる。なお、挿入する具体的な映像効果は、特に限定しないが、例えば、トランジションの1種であるクロスフェード、ディゾルブ、くさび型ワイプを用いてもよい。
As another adjustment method, there is a method of using a video effect such as a transition when switching image clips. While the video effect is being played back, the playback of the image clip is stopped, so that the digest video playback time can be extended. The digest moving
以上説明したように、動きのない画像クリップに関しては、単純間引き又はフレーム補間で再生時間を調整することによって、ユーザに違和感を極力与えることなく、かつ希望通りの再生時間のダイジェスト動画像を鑑賞できる、という効果が得られる。 As described above, with regard to an image clip with no motion, by adjusting the playback time by simple decimation or frame interpolation, it is possible to view a digest moving image with a desired playback time without giving the user a sense of discomfort as much as possible. The effect of is obtained.
(第6の実施形態)
次に、本発明に係る第6の実施形態である映像編集装置について説明する。第6の実施形態の映像編集装置は、第5の実施形態の映像編集装置に対して、ダイジェスト動画像生成部103cに代えてダイジェスト動画像生成部103dを備える点に違いがある点が特徴である。(Sixth embodiment)
Next, a video editing apparatus according to the sixth embodiment of the present invention will be described. The video editing apparatus according to the sixth embodiment is different from the video editing apparatus according to the fifth embodiment in that a digest moving image generating unit 103d is provided instead of the digest moving image generating unit 103c. is there.
第5の実施形態では、画像クリップを短くする時に、画像クリップの一部分を切り取る場合があるが、その際にユーザが視聴したい箇所を切り取ってしまう可能性がある、という課題がある。 In the fifth embodiment, when the image clip is shortened, a part of the image clip may be cut out, but there is a problem that the user may cut out a portion that the user wants to view.
それに対し、本実施形態の映像編集装置では、画像クリップを切り取らずに、ダイジェスト動画像の再生時間が指定時間となる調整方法を提供する。 On the other hand, the video editing apparatus according to the present embodiment provides an adjustment method in which the playback time of the digest moving image becomes the specified time without cutting the image clip.
図30は、本実施形態におけるダイジェスト動画像生成部103dの内部構成を示す。ダイジェスト動画像生成部103dは、シーン種類決定部1032d、シーン空間配置部1033、シーン時間配置部1034を備えて構成される。シーン空間配置部1033及びシーン時間配置部1034の処理内容は第1の実施形態と同様である。
FIG. 30 shows an internal configuration of the digest moving image generating unit 103d in the present embodiment. The digest moving image generation unit 103d includes a scene
シーン種類決定部1032dは、シーン種類決定部1032と同様の方法で、シーン情報と閾値THtに基づいて、シーンの種類を決定する。
The scene
シーン種類決定部1032dは、シーン情報とシーンの種類から、ダイジェスト動画像再生時間Tdを算出する。再生時間Tdの初期値は0とし、シーンの種類が「単独シーン」であるシーンについては、そのシーンの再生時間を再生時間Tdに加算する。シーンの種類が「複数シーン」である複数のシーンについては、各シーンのうち再生時間の最も短いシーンの再生時間を再生時間Tdに加算する。
The scene
そして、シーン種類決定部1032dは、算出したダイジェスト動画像再生時間Tdが指定時間となっていない場合には、ダイジェスト動画像再生時間Tdが指定時間になるように調整する。
Then, the scene
具体的な調整方法としては、シーン種類決定部1032dは、ダイジェスト動画像再生時間Tdが指定時間より長い場合には、閾値THtを「単独シーン」より「複数シーン」が選択されやすくなるように変更する。例えば、閾値THtを5分間から10分間に変更する。このような閾値の変更により、ダイジェスト動画像に含まれる「複数シーン」の割合が大きくなるため、ダイジェスト動画像の再生時間が短くなるように調整することが出来る。また、シーン種類決定部1032dは、ダイジェスト動画像再生時間Tdが指定時間Tsより短い場合には、閾値THtを「複数シーン」より「単独シーン」が選択されやすくなるように変更する。例えば、閾値THtを5分間から3分間に変更する。このような閾値の変更により、ダイジェスト動画像に含まれる「単独シーン」の割合が大きくなるため、ダイジェスト動画像の再生時間が長くなるように調整することが出来る。
As a specific adjustment method, the scene
そして、シーン種類決定部1032dは、変更した閾値THtに基づいて、シーンの種類を決定し、再度ダイジェスト動画像再生時間Tdを算出する。シーン種類決定部1032dは、上記の処理を、ダイジェスト動画像再生時間Tdが指定時間となるまで繰り返す。
Then, the scene
以上説明した方法によると、ダイジェスト動画像の「単独シーン」と「複数シーン」の割合を調整することによって、ユーザが視聴したい画像クリップの一部が削除されることなく、ダイジェスト動画像の再生時間をユーザが所望する再生時間にすることができるため、ユーザがより満足するダイジェスト動画像が生成されるという効果が得られる。 According to the method described above, by adjusting the ratio of “single scene” and “multiple scenes” in the digest video, the playback time of the digest video without deleting part of the image clip that the user wants to view Since the reproduction time desired by the user can be set, an effect of generating a digest moving image that satisfies the user can be obtained.
(第7の実施形態)
以下、図面を参照しながら本発明の実施形態について説明する。(Seventh embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図31は、本発明に係る第1の実施形態である映像編集装置の構成を示す概略図である。映像編集装置100eは、画像データ分類部101、シーン情報生成部102、ダイジェスト動画像生成部103、イベント選択部104、出力制御部105、映像表示部106、ダイジェスト動画像編集制御部107、および操作部108を含んで構成される。映像編集装置100eはさらに、図示は省略するが、画像データを格納するデータ記録部を内部に備えてもよいし、それらと同様の機能を備えるデータ記録装置を外部に接続する構成にしてもよい。なお、画像データ分類部101、シーン情報生成部102、ダイジェスト動画像生成部103、イベント選択部104、出力制御部105の基本的な処理内容は第1の実施形態と同様である。
FIG. 31 is a schematic diagram showing the configuration of the video editing apparatus according to the first embodiment of the present invention. The video editing apparatus 100e includes an image
映像表示部106は、映像編集装置100eが生成するダイジェスト動画像および、操作に使われるユーザインタフェイス(UI)を含む映像を、表示デバイスに出力する。表示デバイスは、映像編集装置100eに内蔵されているか、外部に接続されている。 The video display unit 106 outputs a video including a digest moving image generated by the video editing apparatus 100e and a user interface (UI) used for operation to a display device. The display device is built in the video editing apparatus 100e or connected to the outside.
ダイジェスト動画像編集制御部107は、ダイジェスト動画像生成部103が生成したダイジェスト動画像を再生し、画像と音声の同期やフレームレートの調整をしつつ、映像表示部106に出力する。さらにそれと並行して、ユーザからの入力に基づいて映像の編集処理をする。再生されるダイジェスト動画像は、ダイジェスト動画像生成部103がいったん記録メディアに記録メディアに保存した画像データでもよいし、ダイジェスト動画像生成部103から直接入力した画像データでもよい。さらに、映像編集装置100eと同等の他の映像編集装置が生成したダイジェスト動画像を記録メディアに保存した画像データでもよい。ダイジェスト動画像の形式が直接映像表示部106で使用可能な表示データの形式と異なる場合は、映像表示部106が使用可能な表示データに変換する。例として、ダイジェスト動画像がHEVCやAACなどの符号化方式により圧縮されている場合、ダイジェスト動画像編集制御部107は、画像データをデコードして映像表示部106に出力する。さらに、ダイジェスト動画像データが、再生時における映像の配置、変形、切り出し、重ね合わせの処理を含む、映像の生成処理を必要とする形式を用いて保存されている場合には、ダイジェスト動画像生成部103を制御して前記生成処理を行い、映像を取得して再生する。また、ダイジェスト動画像編集制御部107は、再生においては、一時停止/早送り/巻戻し/シーン間の移動などを含む再生制御が可能であることが望ましい。
The digest moving image
操作部108は、表示画面上の位置指定を含む、ユーザからの入力動作を、例えば映像表示部106と一体となったタッチセンサや、外部に接続したマウスやキーボードで検出する。例として、映像編集装置100eが操作部としてタッチセンサを備える場合、ユーザは、タップ、フリック、ピンチなどの一般的操作により入力できる。このほか、録画や再生制御をするためのボタンやキーを備えていてもよい。
The
次に、各部についてさらに詳細に説明する。 Next, each part will be described in more detail.
(出力制御部)
本実施形態では、出力制御部105は、映像表示部106の画像表示仕様や、図示しない音声出力デバイスの音声出力仕様、および、ダイジェスト動画像に対するユーザの好みを示す情報を含む条件に基づいて、前記生成方針を設定する。ユーザの好みを示す情報は、操作部108あるいはそれ以外の入力手段によって受け取られる。例えば、「人物主体」「風景主体」などの選択肢を映像表示部106により表示してユーザに選ばせるなどの方法があるが、これに限るものではない。また、ユーザの好みを示す情報が入力されない場合は、例えば「人物主体」を標準値として設定するようにするとよい。(Output control unit)
In the present embodiment, the
出力制御部105は、出力先の映像表示デバイスに応じて、複数シーンを同一画像フレーム内に同時に配置することを許容するか否かを示す情報を、「複数シーン同時配置」として設定する。例えば、映像表示部106が用いる表示デバイスの解像度または画面サイズがある閾値より小さい場合には複数シーン同時配置を「否」に設定し、大きい場合には複数シーン同時配置を「可」に設定する。
The
(ダイジェスト動画像編集制御部)
ダイジェスト動画像編集制御部107は、以上のようにして生成されたダイジェスト動画像を再生および編集する。これはユーザの指示によって開始してもよいし、ダイジェスト動画像の生成が完了した際に開始してもよい。(Digest video editing control unit)
The digest moving image
ダイジェスト動画像編集制御部107は、ダイジェスト動画像を再生する一方、ユーザからの入力を受けて、再生中のダイジェスト動画像に対してさらに編集を加える。図32は、ダイジェスト動画像の再生時の編集処理を示した図である。再生処理そのものや、早送り/巻戻しといった再生制御処理は図示しないが、編集処理と並行して実行される。以下、図中のステップS101からS104について説明する。
The digest moving image
ステップS101では、ダイジェスト動画像編集制御部107を用いて、ダイジェスト動画像の再生を開始する。さらに、操作部108からの入力を編集処理として解釈および実行する処理を開始する。
In step S101, the digest moving image
ステップS102は、動画像が再生中かどうかのチェックである。動画像の再生が終了あるいは中断されたことが検出されれば、編集処理は終了する。 Step S102 is a check of whether or not the moving image is being reproduced. If it is detected that the reproduction of the moving image is finished or interrupted, the editing process is finished.
ステップS103は、入力操作のチェックである。編集処理の指示として解釈可能な操作が入力されているかどうかを調べる。前記操作が入力されていなければ、ステップS102に戻る。 Step S103 is an input operation check. It is checked whether an operation that can be interpreted as an instruction for editing processing is input. If the operation has not been input, the process returns to step S102.
なお、ステップS102およびステップS103で行われる再生あるいは操作に関するイベントの検出は、定期的あるいは非定期的な割り込みによっても実現できるため、必ずしも図32の順序で実行される必要はない。また、チェックのステップ前には、再生状態の変化や入力の発生を待つための待ち時間を挿入してもよい。 Note that the detection of the event relating to reproduction or operation performed in step S102 and step S103 can be realized by periodic or non-periodic interruption, and therefore does not necessarily have to be executed in the order shown in FIG. Further, before the check step, a waiting time for waiting for a change in reproduction state or occurrence of input may be inserted.
ステップS104は、編集操作の実行である。編集操作が発生した場合には、再生中のシーンを編集対象シーンとしてその編集操作の種類に応じた処理が実行される。ダイジェスト動画像の再生は、編集処理の開始時に一時停止され、編集処理の完了後に、編集後のデータを用いて再開される。以下では、ステップS104におけるいくつかの編集操作についてさらに詳しく説明する。 Step S104 is execution of an editing operation. When an editing operation occurs, a process corresponding to the type of editing operation is executed with the scene being reproduced as the scene to be edited. The reproduction of the digest moving image is temporarily stopped at the start of the editing process, and resumed using the edited data after the editing process is completed. Hereinafter, some editing operations in step S104 will be described in more detail.
編集操作の種類は、操作部からの入力によって区別される。例えば、映像表示部106がタッチパネルを備えることで、画面上の座標の直接指定や、ジェスチャによる編集操作が実現できる。他に、マウスなどのポインティングデバイスによっても、前記の区別は可能である。このように入力デバイスはタッチパネルとは限らないが、ここでは、ユーザにとって最も直感的な操作が可能な、タッチパネルによる操作入力を用いる例を説明する。なお、画面上には、編集操作以外の操作のために、ウィンドウやアイコン、その他GUIの部品が表示されていてもよい。 The type of editing operation is distinguished by input from the operation unit. For example, when the video display unit 106 includes a touch panel, direct designation of coordinates on the screen and editing operation by gestures can be realized. In addition, the above-described distinction can be made by a pointing device such as a mouse. Thus, although an input device is not necessarily a touch panel, the example using the operation input by a touch panel in which the most intuitive operation for a user is possible is demonstrated here. Note that windows, icons, and other GUI components may be displayed on the screen for operations other than the editing operation.
まず、一般的にみられるタッチパネルの操作(以下、タッチ操作とする)には、様々な種類がある。例えば、タップ(指先で画面を叩く)、ダブルタップ(指先で画面を二度叩く)、フリック(指先を画面に接し、素早く弾くように動かす)、スワイプ(指先を画面に接したまま、一定方向に移動する)、ドラッグ(指先を画面に接したまま移動する。一定方向とは限らない)、ピンチイン(指先を画面に2本またはそれ以上接し、閉じるように近づける)、ピンチアウト(指先を画面に2本またはそれ以上接し、開くように離す)、ツイストまたはローテート(指先を画面に2本またはそれ以上接し、ひねるように動かす)などである。他にも、各操作に用いられた指の本数や、指先の軌跡の位置/形状/速さの違いによって機能を区別する場合もある。以上は一般的なタッチ操作の説明であり、全てが映像編集装置100eの編集操作で使われるとは限らないし、これ以外のタッチ操作を以降で説明するような編集操作に割り当ててもよい。
First, there are various types of touch panel operations (hereinafter referred to as touch operations) that are generally seen. For example, tap (tap the screen with the fingertip), double tap (tap the screen twice with the fingertip), flick (move the fingertip to touch the screen and play quickly), swipe (with the fingertip touching the screen in a certain direction) ), Drag (move while the fingertip is in contact with the screen, not necessarily in a certain direction), pinch in (two or more fingertips touch the screen and move closer to close), pinch out (fingertip on the
図33はダイジェスト動画像で行われる操作の例を模式的に示している。太枠はダイジェスト動画像の画像領域全体を示し、太枠内にさらに矩形の枠がある場合は、組合せシーンの主シーンまたは副シーンが表示されていることを示す。点線の枠は、編集による変化を示す。矢印は、タッチ操作のおよその軌跡や長さを示す。また、タッチ操作が開始された座標を起点座標、タッチ操作が終了した座標を終点座標と呼ぶことにする。 FIG. 33 schematically illustrates an example of an operation performed on a digest moving image. The thick frame indicates the entire image area of the digest moving image, and when there is a rectangular frame in the thick frame, it indicates that the main scene or the sub scene of the combination scene is displayed. A dotted frame indicates a change caused by editing. The arrow indicates the approximate trajectory and length of the touch operation. Further, the coordinates where the touch operation is started are called start point coordinates, and the coordinates where the touch operation is finished are called end point coordinates.
図33(a)は画面81上でのフリック操作を示している。フリック操作は、映像編集装置100eではシーンの削除に関連付けられる。ここでは、編集対象シーンを削除対象シーンとする。ダイジェスト動画像編集制御部107は、ダイジェスト動画像から削除対象シーンのデータを削除するか、あるいは削除対象シーンを再生しないようにマークする。編集後は、削除操作によってダイジェスト動画像の総再生時間が短縮されているため、削除されたシーンの次のシーンから再生を再開する。ダイジェスト動画像の最後のシーンを削除した場合には、再生を停止する。なお、削除操作を受け付けたときに、フリックされた方向に削除対象シーンが移動するような視覚的効果を提示すると、よりユーザが容易に理解でき、好ましい。このようにすることで、再生中にユーザが不要と感じたシーンを容易に削除できる。
FIG. 33A shows a flick operation on the
図33(b)は、図5(a)に示したような並列配置の組合せシーンにおいてツイスト操作をする例である。ツイスト操作は、映像編集装置100eでは配置パターンの変更に関連付けられる。図33(b)は、画面上に2つの要素シーン82および83がある配置パターンであるが、ツイスト操作により、この2つの要素シーン82および83を左右入れ替えられる。ダイジェスト動画像編集制御部107は、ダイジェスト動画像が符号化されている場合には、新たな配置に変更した編集対象シーンを生成して、再度符号化する。なお、削除の例と同様に、ツイスト操作を受け付けたときに要素シーン82および83が入れ替わるような視覚的効果を提示すると好ましい。このようにすることで、再生中にユーザが、当該要素シーンの左右の配置が不自然であると感じた場合でも、より好ましい配置に容易に変更できる。
FIG. 33B is an example in which a twist operation is performed in a parallel combination scene as shown in FIG. The twist operation is associated with the change of the arrangement pattern in the video editing apparatus 100e. FIG. 33B shows an arrangement pattern in which two
図33(c)は、図5(f)に示したような、画面を3等分した組合せシーンにおいてツイスト操作をする例である。この場合のツイスト操作では、映像編集装置100eは、要素シーンの空間的配置を可能な組合せの中から順に選択して変更する。例えば元のダイジェスト動画像では要素シーン84、85、86が画面左からこの順で配置されている。3つの要素シーンをA、B、Cとすると、ダイジェスト動画像編集制御部107はツイスト操作を実行する毎にこの配置を、{A,B,C}→{A,C,B}→{B,A,C}→{B,C,A}→{C,A,B}→{C,B,A}→{A,B,C}と入れ替える。
FIG. 33C shows an example in which a twist operation is performed in a combination scene obtained by dividing the screen into three equal parts as shown in FIG. In the twist operation in this case, the video editing apparatus 100e selects and changes the spatial arrangement of the element scenes in order from possible combinations. For example, in the original digest moving image,
図33(b)および図33(c)の例の場合のツイスト操作は、画面上のどこで行われても構わないが、組合せシーンの境界付近で行われるツイスト操作では、境界に接する要素シーンのみを入れ替えるようにしてもよい。このようにすることで、3つ以上の要素シーンを含む組合せシーンにおいても、ユーザにとってより好ましい配置を素早く選択できる。 The twist operation in the example of FIGS. 33 (b) and 33 (c) may be performed anywhere on the screen, but in the twist operation performed near the boundary of the combination scene, only the element scene that touches the boundary is used. May be replaced. In this way, it is possible to quickly select a more preferable arrangement for the user even in a combination scene including three or more element scenes.
図33(d)は、図5(b)に示したような、画面全体に配置した副シーン87の中央に縮小した主シーン88を配置する、中央配置の組合せシーンにおいてピンチアウト操作をする例である。ピンチアウト操作は、映像編集装置100eでは、要素シーンに対するサイズの拡大に関連付けられる。要素シーンの拡大率はピンチアウト操作の起点座標と終点座標の間の距離に応じて定められ、最小値は操作前の主シーン88のサイズ、最大値は画面全体すなわち副シーン87のサイズである。ダイジェスト動画像編集制御部107は、編集対象シーンから主シーン88の領域を抽出し、前記拡大率に応じて拡大して、編集対象シーンの上に配置し直した画像を生成し、再度符号化する。主シーン88の位置は中央のまま維持し、編集前の主シーン88が拡大した主シーン88に完全に隠されるようにする。このように主シーン88のサイズを拡大することにより、主シーン88の内容や人物をより目立たせることができる。
FIG. 33D shows an example of performing a pinch-out operation in a centrally arranged combination scene in which a reduced
図33(e)は、図33(d)の例と同様の中央配置ではあるが、図5(d)に示したような、主シーン89が切り出されて画面中央に配置された組合せシーンにおいてピンチアウト操作をする例である。この場合、シーン拡大率の上限は、ダイジェスト動画像すなわち副シーン87の水平画素数(w0とする)および主シーン89の領域の水平画素数(w1とする)を用いてw0/w1と定められる。なお、拡大の結果、主シーン89の垂直方向の画素数(h1とする)がダイジェスト動画像全体の垂直画素数(h0とする)を上回る場合は、主シーン89の上下をそれぞれ{h0×(w0/w1−1)/2}画素分トリミングして、主シーン89の画像アスペクト比をダイジェスト動画像全体の画像アスペクト比に合わせる。ダイジェスト動画像編集制御部107は、このように拡大およびトリミングされた主シーン89を、編集対象シーンの上に配置し直した画像を生成し、符号化する。図33(d)の例と同様に、このようにすれば、主シーン89の内容や人物をより目立たせることができる。
FIG. 33 (e) shows a central arrangement similar to the example of FIG. 33 (d), but in a combination scene in which the
図33(b)〜図33(e)においては、編集対象シーンが組合せシーンであることを前提としている。もし再生中のダイジェスト動画像に、当該編集対象シーンが組合せシーンであるかどうかの情報がない場合や、当該ダイジェスト動画像に関するシーン情報が取得できない場合には、フレーム毎に画素値のヒストグラム生成、輪郭抽出(特に直線部分)、領域毎の動き検出などを用いれば、当該編集対象シーンが組合せシーンかどうかを判定できる。 33 (b) to 33 (e) are based on the premise that the scene to be edited is a combination scene. If there is no information on whether or not the editing scene is a combination scene in the digest moving image being played back, or if the scene information related to the digest moving image cannot be acquired, a pixel value histogram generation for each frame, If contour extraction (particularly a straight line portion), motion detection for each region, or the like is used, it can be determined whether or not the scene to be edited is a combination scene.
図33(f)は、複雑な軌跡をもつドラッグ操作をする例である。このようなドラッグ操作は、映像編集装置100eでは、軌跡付近の領域に対するフィルタ効果に関連付けられる。図33(f)の例のような軌跡は、例えば、軌跡をなす点の座標値の分布が水平方向に偏りなく広く、かつ垂直方向の分布が最大値と最小値に偏っている軌跡として判定する。このようなドラッグ操作が入力されると、ダイジェスト動画像編集制御部107は、ドラッグ操作の始点と終点を含む領域を、フィルタ対象領域として設定する。例えば、軌跡の線分から一定の距離以内の画素を含む領域や、始点と終点を結ぶ直線を対角線とする矩形領域を含む領域である。ダイジェスト動画像編集制御部107は、このような編集対象シーンに含まれる全フレームにおけるフィルタ対象領域の画素に対して、フィルタをかけ、ダイジェスト動画像を更新する。このとき、必要であればフィルタ結果を再度符号化する。ここで用いるフィルタは、ある領域を消す、または乱すような軌跡を示すドラッグ操作であれば、非鮮鋭化フィルタや、所定の画素値による単純な塗り潰しを含む、対象領域を目立たなくする機能を持つものが望ましい。また、ある領域を囲むなど、注目を意味すると解釈できる軌跡のドラッグ操作であれば、鮮鋭化フィルタや輝度を上げるフィルタを含む、対象領域を目立たせる機能を持つものが望ましい。このような操作によって、編集対象シーンから、不要あるいは公開したくない領域を目立たなくしたり、重要な領域を鮮明にしたりできる。なお、フィルタ対象領域は、対象物やカメラが移動している場合、フレーム毎に変える必要がある。このため、ダイジェスト動画像編集制御部107は、編集対象シーンについてフィルタ対象領域の動き検出処理を行い、フィルタ対象領域の位置、形状、大きさを調整することが望ましい。さらに、より詳細に軌跡のパターンを認識すれば、類似した目的のフィルタでも複数のフィルタを自動的に切り換えられる。例えば、図33(f)のような上下方向に往復する軌跡の場合は非鮮鋭化フィルタをかけ、図33(g)のように左右方向に往復する軌跡の場合は塗りつぶしフィルタをかけるようにもできる。
FIG. 33 (f) shows an example of a drag operation having a complicated trajectory. Such a drag operation is associated with a filter effect for an area near the locus in the video editing apparatus 100e. The trajectory as in the example of FIG. 33F is determined as, for example, a trajectory in which the distribution of the coordinate values of the points forming the trajectory is wide without deviation in the horizontal direction, and the vertical distribution is biased between the maximum value and the minimum value. To do. When such a drag operation is input, the digest moving image
図33(h)は、画面上に映像撮影の開始を示すボタン90を表示しておき、シーンの追加を可能にする例である。ボタン90がタップ操作されたとき、ダイジェスト動画像編集制御部107は、映像編集装置100eに内蔵もしくは外部に接続したカメラ(図示省略)があれば、ダイジェスト動画像の再生を停止して表示をカメラからの入力画像に画面を切り替えて撮影を開始する。撮影はユーザの操作により終了し、撮影した画像データVは記録メディアに保存される。ダイジェスト動画像編集制御部は、画像データVを用いて、既に説明したダイジェスト動画像生成と同様の処理を行う。ただし、入力は画像データVのみである。出力される画像データVのダイジェスト動画像は、既に再生中のダイジェスト動画像の最後に追加され、新たなダイジェスト動画像として保存される。より簡易には、撮影した画像データVをそのままダイジェスト動画像の最後に追加してもよい。
FIG. 33 (h) shows an example in which a
なお、以上の編集処理はいずれも操作入力時にすぐに実行され、結果が得られることが望ましいが、編集結果を保存するために、映像や音声の再符号化など負荷の高い処理が必要になる場合がある。再生中で映像編集装置100eが高負荷状態にある場合、あるいは編集処理を実行すると再生や操作に支障が生じる場合には、編集処理の即時の実行を避けて編集処理の種類および操作部108からの入力情報と編集対象シーンを含む指示情報を記憶し、後に映像編集装置100eが低負荷状態になったときに、指示情報に基づいて編集を実行し、ダイジェスト動画像を更新するようにするとよい。その場合でも、操作入力時には、アニメーション、アイコン、負荷の低い処理による仮の処理結果画像などを用いて、編集対象シーンであることをユーザに対して提示するのが望ましい。
In addition, it is desirable that all of the editing processes described above are executed immediately upon input of an operation and the result is obtained. However, in order to save the editing result, high-load processing such as video and audio re-encoding is required. There is a case. If the video editing apparatus 100e is in a high load state during playback, or if playback or operation is hindered when the editing process is executed, the editing process type and the
以上説明したように、生成するダイジェスト動画像の出力画像仕様および出力音声仕様を、出力先の映像表示デバイスや音声出力デバイスの仕様・能力に合わせることによって、出力先のデバイスに適した高品質なダイジェスト動画像を生成し、さらに、簡易な操作でダイジェスト動画像の構成を再生時に編集できる。 As described above, by matching the output video specifications and output audio specifications of the generated digest video to the specifications and capabilities of the output video display device and audio output device, it is possible to achieve high quality suitable for the output device. A digest moving image is generated, and the configuration of the digest moving image can be edited at the time of reproduction with a simple operation.
(第8の実施形態)
次に、本発明に係る第8の実施形態である映像編集装置について説明する。第8の実施形態の映像編集装置は、第7の実施形態の映像編集装置と同じ構成であるが、ダイジェスト動画像におけるシーンの空間的および時間的な配置を示す情報を含む、ダイジェスト動画像の生成に伴い使われた情報(以下、配置情報と呼ぶ)および入力画像データを、再生時にも使用できるよう記録メディアやメモリに保存しておく点で異なる。または、ダイジェスト動画像自体が、入力画像データおよび前記配置情報を含む形式であってもよい。例えば、ダイジェスト動画像を、入力画像データおよび前記配置情報に相当するデータを含む、1つまたはそれ以上のファイルからなるデータとしてもよい。再生時には、前記配置情報を参照して入力画像データを配置することで、ダイジェスト動画像生成部103で意図した映像を生成できる。(Eighth embodiment)
Next, a video editing apparatus according to an eighth embodiment of the present invention will be described. The video editing apparatus according to the eighth embodiment has the same configuration as that of the video editing apparatus according to the seventh embodiment, but includes information indicating the spatial and temporal arrangement of scenes in the digest video. The difference is that the information used for generation (hereinafter referred to as arrangement information) and input image data are stored in a recording medium or memory so that they can be used during reproduction. Alternatively, the digest moving image itself may be in a format including input image data and the arrangement information. For example, the digest moving image may be data composed of one or more files including input image data and data corresponding to the arrangement information. At the time of reproduction, the video image intended by the digest moving
なお、配置情報のうち、シーンの空間的配置を示す情報とは、前記第7の実施形態で説明したような各配置パターンにおける要素シーンに対応する入力画像データのインデクス、前記要素シーンの縦横のサイズ(画素数)、画面上での位置(座標)、前記入力画像データ上での切り出し位置を含む。あるいは、これらを導出するための間接的な情報、例えば、配置パターン/既定のサイズ/既定の位置を選択するためのインデクスでもよい。また、シーンの時間的配置を示す情報とは、各シーンが最終的なダイジェスト動画像の時間軸上でどこに相当するかを示す情報であり、少なくとも各シーンの開始時刻と終了時刻(あるいは長さ)を含む。時刻や長さはフレーム数を用いて表現してもよい。 Of the arrangement information, information indicating the spatial arrangement of the scene refers to the index of the input image data corresponding to the element scene in each arrangement pattern as described in the seventh embodiment, and the vertical and horizontal directions of the element scene. It includes the size (number of pixels), the position (coordinates) on the screen, and the cutout position on the input image data. Alternatively, indirect information for deriving these may be used, for example, an index for selecting an arrangement pattern / a predetermined size / a predetermined position. The information indicating the temporal arrangement of scenes is information indicating where each scene corresponds on the time axis of the final digest moving image, and at least the start time and end time (or length) of each scene. )including. The time and length may be expressed using the number of frames.
本実施形態におけるダイジェスト動画像生成部103は、配置情報を含む、以前のダイジェスト動画像の生成に用いたデータの、記録メディアやメモリへの保存と、再利用が可能である。これにより、部分的あるいは完全に同一のダイジェスト動画像を再度生成する場合にも、同一処理の再実行を避けて負荷を低減できる。
The digest moving
図34(a)〜(b)は、画面上でのフリック操作を示している。フリック操作は、第7の実施形態と同様に、シーンの削除に関連付けられる。図34(a)は、編集対象シーンが組合せシーンであり、かつ、フリック操作の起点座標が主シーン91に重ねて配置された副シーン92の場合である。このとき、削除対象シーンは副シーン92となる。図34(b)は、起点座標に表示されているシーンが主シーン91の場合であり、削除対象シーンは、主シーン91である。または、当該編集対象シーンを全て削除対象シーンとしてもよい。なお、上下方向のフリック操作の場合のみ削除処理とみなすように限定すれば、次に説明する左右方向のドラッグ操作との区別を容易にして操作の誤りを減らせる。ダイジェスト動画像編集制御部107は、編集対象シーンが再生されないよう、空間的および時間的な配置情報から当該編集対象シーンを削除し、ダイジェスト動画像を再度生成する。要素シーンの削除において、他の要素シーンに重ねて配置されていない要素シーンを削除すると、シーンが何も表示されない領域がダイジェスト動画像の画面上に発生してしまう。このような場合、削除後の要素シーンが1つだけであれば単独シーンとして配置し直し、削除後の要素シーンが2つ以上であれば画面を再分割するとよい。例えば、図5(f)のような3つの要素シーンの並列配置から1つを削除した場合は、残り2つの要素シーンを、図5(b)の並列配置を用いて配置し直すとよい。
34A to 34B show a flick operation on the screen. The flick operation is associated with the deletion of the scene, as in the seventh embodiment. FIG. 34A shows a case where the scene to be edited is a combination scene, and the sub-scene 92 in which the starting point coordinates of the flick operation are arranged so as to overlap the
図34(c)〜図34(e)は、組合せシーンの副シーン92を起点座標としたドラッグ操作の例を示している。
FIGS. 34C to 34E show examples of a drag operation using the
図34(c)は、ドラッグが左右いずれかの画面端まで続いた場合である。このとき、ダイジェスト動画像編集制御部107は、副シーン92を単独シーンへと変更し、編集対象シーンから副シーン92を削除する。元の副シーン92に相当する新たに生成される単独シーンは、ドラッグの終点が左の画面端であれば編集対象シーンの直前に、右の画面端であれば編集対象シーンの直後に挿入する。図35は、ドラッグの終点が右の画面端であった場合の、編集前後のダイジェスト動画像の変化を示している。編集前のダイジェスト動画像1100は、途中にシーン1100a、1100b、1100cを含んでいる。シーン1100bは組合せシーンであり、要素シーンとして主シーンS21と副シーンS22を含む。シーン1100bが編集対象シーンとなって副シーンS22から開始されたドラッグ操作が画面右端まで行われた場合、副シーンS22はシーン1100bから独立し、編集後のダイジェスト動画像1101においては、単独シーン1100b2となる。副シーンS22が削除されたシーン1100bは、主シーンS21だけとなり、単独シーン1100b1となる。より単純な実施形態として、終点の位置に関わらず、編集対象シーンの直前または直後のいずれか所定の位置に挿入しても構わない。ダイジェスト動画像編集制御部107は、まず元の編集対象シーンを削除し、編集対象シーンのあった時間的位置に、元の編集対象シーンから副シーン92を削除した新たなシーン、および、副シーン92に相当する単独シーンの2つのシーンを、前記の順序で挿入する。図34(c)のように編集対象シーンが副シーン92以外に含む要素シーンが1つしかない場合は、編集対象シーンは編集後に2つの単独シーンとなる。編集対象シーンが含む要素シーンが3つ以上ある場合は、編集対象シーンは編集後に、1つの組合せシーンと1つの単独シーンとなる。図34(d)および図34(e)は、ドラッグ操作の終点が画面端に達しない場合である。図におけるドラッグの方向は一例である。
FIG. 34C shows a case where dragging continues to either the left or right screen edge. At this time, the digest moving image
図34(d)は、副シーン92の境界部分以外をドラッグした場合である。このとき、ダイジェスト動画像編集制御部107は、副シーン92を、主シーン上の別の場所へ移動する。これにより、組合せシーン上で注目したい人物や物体を副シーン92が覆っている場合でも、副シーン92を移動させて、ユーザにとってより好ましい映像にできる。移動先は、ドラッグの終点付近の任意の位置にしてもよいし、図34(d)に点線の矩形で示したように、システムで既定した複数の位置のうちドラッグの終点に最も近い位置にしてもよい。ダイジェスト動画像編集制御部107は、配置情報における前記編集対象シーンの情報を上記に対応するよう書き換え、前記編集対象シーンを再度生成し、保存する。
FIG. 34D shows a case where a portion other than the boundary portion of the
図34(e)は、子画面配置の主シーンと副シーン92の境界部分をドラッグした場合である。このとき、ダイジェスト動画像編集制御部107は、副シーン92の表示サイズ(縦横の画素数)を変更する。副シーンの新たなサイズは、ドラッグの終点から導出されるユーザの任意によるサイズでもよいし、システムで既定した複数のサイズのうちドラッグの終点で表されるサイズに最も近いサイズにしてもよい。副シーン92の新しいサイズおよび面積については、操作前のサイズおよび面積より大きくても小さくてもよいが、上限および下限を設けるとよい。例えば、動画像全体の面積の4分の1を上限とし、16分の1を下限とする。これにより、主シーンの視聴を妨げない範囲で副シーン92のサイズを調整し、副シーン92を重ね合わせるバランスをユーザにとってより好適に設定できる。図34(f)は、主シーン94が副シーン93を背景として画面中央に配置されるパターンである。このように主シーンが副シーンに重なる配置についても、サイズの変更対象となるシーンが主シーンとなる以外は、基本的に同様である。図34(f)の場合、主シーン94と副シーン93の境界は主シーン左右の垂直の辺のみである。
FIG. 34E shows a case where the boundary portion between the main scene and the sub-scene 92 in the sub-screen layout is dragged. At this time, the digest moving image
図34(e)および図34(f)のいずれの場合にしても、基本的には要素シーンのサイズ変更は、ドラッグの方向によらず、要素シーンの元の画像アスペクト比を保持して拡大率あるいは縮小率のみ変更すれば、ユーザが理解しやすく操作も簡便である。一方、縦横比を維持しないで変更できるようにすれば、より柔軟なサイズの変更ができる。その場合は、ドラッグの始点によって操作を変えるとよい。ドラッグの始点が境界部分の角であれば、要素シーンの垂直方向と水平方向のサイズを、ドラッグ操作に従って同時に変更する。ドラッグの視点が角を除く四辺のいずれかであれば、垂直方向の辺のドラッグは水平方向のサイズを変更し、水平方向の辺の場合は垂直方向のサイズを変更する。このようなドラッグの結果指定された画像アスペクト比は、要素シーンに対応する入力画像データのアスペクト比と、多くの場合で異なる。その場合、前記入力画像データを縦横それぞれ異なる倍率でスケールするか、前記入力画像データを新たな画像アスペクト比に合わせてトリミングする。後者の場合、新たな画像アスペクト比で可能な限り大きな領域を切り出すには、以下のようにする。以下、要素シーンに対応する入力画像データのサイズをws0:hs0(水平:垂直)とし、新たなサイズをws1:hs1とする。 In either case of FIG. 34 (e) and FIG. 34 (f), basically, the size change of the element scene is performed while maintaining the original image aspect ratio of the element scene regardless of the drag direction. If only the rate or the reduction rate is changed, the user can easily understand the operation. On the other hand, if the size can be changed without maintaining the aspect ratio, the size can be changed more flexibly. In that case, the operation may be changed depending on the starting point of the drag. If the starting point of the drag is the corner of the boundary portion, the vertical and horizontal sizes of the element scene are simultaneously changed according to the drag operation. If the drag viewpoint is one of the four sides excluding the corner, dragging the vertical side changes the size in the horizontal direction, and if it is a horizontal side, changes the size in the vertical direction. The image aspect ratio specified as a result of such dragging is different in many cases from the aspect ratio of the input image data corresponding to the element scene. In that case, the input image data is scaled at different magnifications in the vertical and horizontal directions, or the input image data is trimmed in accordance with a new image aspect ratio. In the latter case, in order to cut out as large an area as possible with a new image aspect ratio, the following is performed. Hereinafter, the size of the input image data corresponding to the element scene is set to ws0: hs0 (horizontal: vertical), and the new size is set to ws1: hs1.
ws0/hs0 < ws1/hs1 の場合、要素シーンに対応する入力画像データの上下を水平の帯状に削除し、画素数ws0:(hs1×ws1/ws0)の画像にして、ws1:hs1に縮小する。 When ws0 / hs0 <ws1 / hs1, the upper and lower portions of the input image data corresponding to the element scene are deleted in a horizontal band shape to form an image having the number of pixels ws0: (hs1 × ws1 / ws0), and reduced to ws1: hs1. .
ws0/hs0 > ws1/hs1 の場合、要素シーンに対応する入力画像データの左右を垂直の帯状に削除し、画素数(ws1×hs1/hs0):hs0の画像にして、ws1:hs1に縮小する。なお、要素シーンに主要人物などの重要なオブジェクトが含まれている場合は、そのオブジェクトを中心に、上記の新たな画像アスペクト比になるようトリミングするだけでもよい。 When ws0 / hs0> ws1 / hs1, the left and right sides of the input image data corresponding to the element scene are deleted in the form of a vertical band to form an image with the number of pixels (ws1 × hs1 / hs0): hs0 and reduced to ws1: hs1. . When an important object such as a main person is included in the element scene, the image may be simply trimmed so that the new image aspect ratio is obtained centering on the object.
ダイジェスト動画像編集制御部107は、前記編集対象シーンにおける配置情報を、上記のようにしてサイズを調整した要素シーンを配置するよう変更し、要素シーンに対応する入力画像データを用いて編集対象シーンを再度生成する。サイズ変更の結果としていずれかの要素シーンが画面上から見えなくなるときは、当該要素シーンを編集対象シーンの配置情報から削除すれば、当該編集対象シーンを生成する際の負荷を低減できる。
The digest moving image
図34(g)は、組合せシーンにおいてツイスト操作をする例である。ツイスト操作が行われる毎に、ダイジェスト動画像編集制御部107は、編集対象シーンの含む要素シーンに対応する入力画像データを用いて、とりうる配置パターンの中から別の配置パターンを選択し、編集対象シーンを再度生成する。本実施形態では入力画像データが全て保存されているため、図33(b)および図33(c)で示した例のように配置の並び順のみを入れ替えるほか、重なり方が変わる配置パターンに変更することも可能である。これにより、ユーザにとって好ましい配置パターンを容易に選択できる。
FIG. 34G shows an example in which a twist operation is performed in a combination scene. Each time a twist operation is performed, the digest moving image
なお、図34(g)の例でも、要素シーンの境界付近でツイスト操作が行われた場合には、境界付近の要素シーンのみが変更されるように配置パターンを変更するとよい。さらに、前記境界が主シーンと副シーンの境界であった場合、主シーンと副シーンの割当てを変更した配置も、とりうる配置パターンに含めるとよい。図34(g)の例であれば、子画面配置はそのままで、元の主シーンを新たな副シーンとし、元の副シーンを新たな主シーンして交換する。これにより、副シーンとされたシーンが主シーンよりも重要であるとユーザが感じた場合にも、容易に配置パターンを変更できる。 In the example of FIG. 34 (g), when the twist operation is performed near the boundary of the element scene, the arrangement pattern may be changed so that only the element scene near the boundary is changed. Further, when the boundary is a boundary between the main scene and the sub-scene, an arrangement in which the assignment of the main scene and the sub-scene is changed may be included in the possible arrangement pattern. In the example shown in FIG. 34 (g), the original main scene is used as a new sub-scene and the original sub-scene is replaced with a new main scene without changing the sub-screen layout. Thereby, even when the user feels that the scene set as the sub-scene is more important than the main scene, the arrangement pattern can be easily changed.
ダイジェスト動画像編集制御部107は、新たな配置パターンに合わせて配置情報を変更し、前記配置情報に基づいて編集対象シーンを再度生成する。以上説明したように、ダイジェスト動画像生成に用いる入力画像データおよび配置情報を保存しておく映像編集装置によって、再生時の簡易な操作に基づいてダイジェスト動画像を再度生成でき、ユーザにとってより好ましいダイジェスト動画像へと修正できる。
The digest moving image
なお、上述した実施形態における映像編集装置100,100a,100b、100c、100eの一部、例えば、画像データ分類部101、シーン情報生成部102、ダイジェスト動画像生成部103,103a,103b、103c、103d、イベント選択部104、出力制御部105、映像表示部106、ダイジェスト動画像編集制御部107、操作部108、対象画像データ抽出部109、再生時間候補導出部110および再生時間候補表示部111を、コンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、映像編集装置100,100a,100bに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、メモリカード、光磁気ディスク、CD−ROM、DVD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク、SSD等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んで良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Note that some of the video editing apparatuses 100, 100a, 100b, 100c, and 100e in the above-described embodiment, for example, the image
また、上述した実施形態における各映像編集装置の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。前記映像編集装置の各機能ブロックは個別にプロセッサ化しても良いし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。 Moreover, you may implement | achieve part or all of each video editing apparatus in embodiment mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each functional block of the video editing apparatus may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, in the case where an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology may be used.
(まとめ)
本発明の態様1に係る映像編集装置は、動画像を含む画像データ群を、1つ以上のシーンに分割すると共に、シーン単位の特徴を示すシーン情報を生成するシーン情報生成部と、前記シーン情報に基づいて、前記画像データのダイジェスト動画像を生成するダイジェスト動画像生成部とを備える映像編集装置であって、前記ダイジェスト動画像生成部は、前記シーン情報に基づいて、ダイジェスト動画像を生成する際に各シーンを使用するか否か、複数のシーンを同一フレーム内に配置するか否か、および複数シーンを同一フレーム内に配置する際のシーンの空間的配置パターンを決定することを特徴としている。(Summary)
The video editing apparatus according to the first aspect of the present invention includes a scene information generation unit that divides an image data group including a moving image into one or more scenes and generates scene information indicating features of a scene unit, and the scene A digest moving image generating unit that generates a digest moving image of the image data based on information, wherein the digest moving image generating unit generates a digest moving image based on the scene information Whether or not to use each scene, whether to place multiple scenes in the same frame, and the spatial arrangement pattern of scenes when placing multiple scenes in the same frame It is said.
前記の構成によれば、大量・多数の静止画像や動画像を、手間をかけずに短時間で確認・観賞することができる。さらに、画像を表示する画面の大きさや形状に応じて見やすく、飽きずに画像を観賞することができる。 According to the above configuration, it is possible to confirm and view a large number and a large number of still images and moving images in a short time without trouble. Furthermore, it is easy to see according to the size and shape of the screen displaying the image, and the image can be viewed without getting tired.
本発明の態様2に係る映像編集装置は、前記態様1において、前記ダイジェスト動画像生成部は、時間的に近接する複数シーンのシーン情報を比較し、比較結果に基づいてシーンの種別である主シーンと副シーンを決定し、さらに、時間的に近接するシーン同士のシーンの種別の関係に基づいて、前記複数シーンの空間的配置パターンとして、少なくとも、2つ以上の主シーン同士を同一フレーム内に配置する「並列配置」パターン、主シーンと副シーンを、主シーンを画面中央領域に配置し、副シーンを主シーンの領域周辺に位置するように配置する「中央配置」パターン、主シーンをフレーム全体に表示し、その一部の領域に副シーンが重畳されるように配置する「子画面配置」パターン、のいずれかから選択して決定してよい。
The video editing apparatus according to
本発明の態様3に係る映像編集装置は、前記態様2において、前記ダイジェスト動画像生成部は、主シーンを画面中央領域に配置し、副シーンを主シーンの領域周辺に位置するように配置する「中央配置」パターンを選択した際に、副シーンに空間フィルタを適用して、画像の精鋭度もしくは色調に関して主シーンの領域と差をつけてよい。
In the video editing apparatus according to
本発明の態様4に係る映像編集装置は、前記態様1から3の何れかにおいて、前記ダイジェスト動画像生成部はさらに、ダイジェスト動画像の生成対象である画像データ群の単位で、ダイジェスト動画像の生成回数をカウントし、生成回数に応じて複数シーンを配置する際の配置パターンを変化させてよい。
The video editing apparatus according to
本発明の態様5に係る映像編集装置は、前記態様1から4の何れかにおいて、前記シーン情報生成部は、シーン単位で、画像フレーム内における特徴領域の数を示す情報である「領域数」と、前記特徴領域のうち面積が最大である領域の大きさを示す情報である「最大領域サイズ」と、前記特徴領域のうち面積が最大である領域の画像内の位置を示す情報である「最大領域位置」とを、前記シーン情報の一部として生成し、前記ダイジェスト動画像生成部は、複数のシーンを同一フレーム内に配置する際に、前記シーン情報で示される各情報に基づいて、主シーンとして切り出す画像領域や、副シーンに空間フィルタを適用する際のフィルタの強度を可変させてよい。
The video editing apparatus according to aspect 5 of the present invention is the video editing apparatus according to any one of
本発明の態様6に係る映像編集装置は、前記態様1から5の何れかにおいて、前記映像編集装置は、ダイジェスト動画像を出力する出力デバイスの特性を含む出力条件に基づいてダイジェスト動画像の生成方針を決定し、決定した生成方針を前記ダイジェスト動画像生成部へ通知する出力制御部をさらに備え、前記ダイジェスト動画像生成部は、前記生成方針および前記シーン情報に基づいて、ダイジェスト動画像を生成してよい。
The video editing apparatus according to
本発明の態様7に係る映像編集装置は、前記態様1から6の何れかにおいて、前記映像編集装置は、画像データが有する撮影時の条件を示すメタデータに基づいて、画像データをイベント単位に分類する画像データ分類部と、イベント単位に分類された画像データから、メタデータが所定の条件に従う画像データで構成される画像データ群をダイジェスト動画像の生成対象として選択するイベント選択部とをさらに備え、前記ダイジェスト動画像生成部は、前記イベント選択部によって選択された画像データ群を入力としてダイジェスト動画像を生成してよい。
The video editing apparatus according to Aspect 7 of the present invention is the video editing apparatus according to any one of
本発明の態様8に係る映像編集装置は、前記態様1において、ダイジェスト動画像を出力する出力デバイスの特性を含む出力条件に基づいてダイジェスト動画像の生成方針を決定し、決定した生成方針を前記ダイジェスト動画像生成部へ通知する出力制御部をさらに備え、前記ダイジェスト動画像生成部は、前記生成方針および前記シーン情報に基づいて、ダイジェスト動画像における前記シーンの空間的配置パターンを決定してよい。
The video editing apparatus according to aspect 8 of the present invention, in
本発明の態様9に係る映像編集装置は、前記態様3において、前記シーン情報生成部は、シーン単位で、画像フレーム内における特徴領域の数を示す情報である「領域数」と、前記特徴領域のうち面積が最大である領域の大きさを示す情報である「最大領域サイズ」と、前記特徴領域のうち面積が最大である領域の画像内の位置を示す情報である「最大領域位置」とを、前記シーン情報の一部として生成し、前記ダイジェスト動画像生成部は、複数のシーンを同一フレーム内に配置する際に、前記シーン情報で示される「領域数」もしくは「最大領域サイズ」の大きさに基づいて、副シーンに空間フィルタを適用する際のフィルタの強度を可変させてよい。
The video editing apparatus according to aspect 9 of the present invention is the video editing apparatus according to
本発明の態様10に係る映像編集装置は、前記態様2または3において、前記ダイジェスト動画像生成部はさらに、ダイジェスト動画像の生成対象である画像データ群の単位で、ダイジェスト動画像の生成回数をカウントし、生成回数に応じて複数シーンを配置する際の配置パターンを変化させてよい。
In the video editing apparatus according to
本発明の態様11に係る映像編集装置は、前記態様8において、前記ダイジェスト動画像生成部は、前記生成方針に基づいて、ダイジェスト動画像を符号化するか否か、および符号化する際の符号化品質を決定してよい。
The video editing apparatus according to
本発明の態様12に係る映像編集装置は、画像データ群に基づいて、ダイジェスト動画像の再生時間候補を導出する再生時間候補導出部と、前記再生時間候補をユーザに提示し、ユーザイベントに基づいて指定時間を設定する再生時間候補表示部と、動画像を含む画像データ群を、1つ以上のシーンに分割するシーン情報生成部と、前記シーンに基づいて、画像クリップを生成し、前記画像クリップを時間的に結合することでダイジェスト動画像を生成するダイジェスト動画像生成部とを備える映像編集装置であって、前記ダイジェスト動画像生成部は、前記ダイジェスト動画像の再生時間が前記指定時間となるような調整を実施することを特徴としている。 The video editing apparatus according to the twelfth aspect of the present invention provides a playback time candidate derivation unit for deriving a playback time candidate of a digest video based on an image data group, presents the playback time candidate to the user, and based on a user event. A playback time candidate display unit that sets a designated time, a scene information generation unit that divides an image data group including moving images into one or more scenes, generates an image clip based on the scene, and A video editing apparatus including a digest video generation unit that generates a digest video by temporally combining clips, wherein the digest video generation unit includes a reproduction time of the digest video and the specified time. It is characterized by performing such adjustment.
前記の構成によれば、大量・多数の静止画像や動画像を、手間をかけずに短時間で確認・観賞することができる。さらに、画像を多様な表示方法で観賞することができると共に、ユーザが所望する時間で鑑賞することができる。 According to the above configuration, it is possible to confirm and view a large number and a large number of still images and moving images in a short time without trouble. Furthermore, the image can be viewed by various display methods and can be viewed at a time desired by the user.
本発明の態様13に係る映像編集装置は、前記態様12において、前記ダイジェスト動画像生成部は、前記指定時間が短くなるにつれて、動きの少ない前記画像クリップの再生時間を短くしてよい。
In the video editing apparatus according to
本発明の態様14に係る映像編集装置は、前記態様13において、前記ダイジェスト動画像生成部は、前記画像クリップのフレームを間引くことで再生時間を短くしてよい。
In the video editing apparatus according to
本発明の態様15に係る映像編集装置は、前記態様12において、前記ダイジェスト動画像生成部は、前記指定時間が長くなるにつれて、動きの少ない前記画像クリップの再生時間を長くしてよい。
In the video editing apparatus according to
本発明の態様16に係る映像編集装置は、前記態様15において、前記ダイジェスト動画像生成部は、前記画像クリップのフレームを補間することで再生時間を長くしてよい。
In the video editing apparatus according to
本発明の態様17に係る映像編集装置は、前記態様12において、前記ダイジェスト動画像生成部は、前記シーンを単独で使用する単独シーンか複数のシーンを組み合わせて使う複数シーンの何れかに分類し、前記指定時間が短くなるにつれて、前記ダイジェスト動画像を構成する前記複数シーンの割合が大きくなってよい。
In the video editing device according to
本発明の態様18に係る映像編集装置は、前記態様12において、前記再生時間候補導出部は、前記画像データ群の総再生時間よりも前記再生時間候補を短くし、なお且つ、前記画像データ群の総再生時間が長くなるほど、前記再生時間候補を長くしてよい。
In the video editing apparatus according to
本発明の態様19に係る映像編集装置は、動画像を含む画像データ群を、1つ以上のシーンに分割すると共に、シーン単位の特徴を示すシーン情報を生成するシーン情報生成部と、ダイジェスト動画像の生成方針を決定し、決定した生成方針を前記ダイジェスト動画像生成部へ通知する出力制御部と、前記シーン情報および前記生成方針に基づいて、複数シーンを画面内に空間的に配置したシーン(以下、組合せシーンとする)を含む、前記画像データ群のダイジェスト動画像を生成するダイジェスト動画像生成部と、映像および操作用の情報を表示する映像表示部と、前記ダイジェスト動画像を再生して前記映像表示部に出力するダイジェスト動画像編集制御部と、外部からの操作入力を検出する操作部とを備える映像編集装置であって、前記操作部により検出された操作入力により前記ダイジェスト動画像の構成を変更することを特徴としている。 The video editing apparatus according to the nineteenth aspect of the present invention includes a scene information generation unit that divides an image data group including a moving image into one or more scenes and generates scene information indicating features of a scene unit, a digest video An output control unit that determines an image generation policy and notifies the digest moving image generation unit of the determined generation policy, and a scene in which a plurality of scenes are spatially arranged on the screen based on the scene information and the generation policy (Hereinafter, referred to as a combination scene), a digest moving image generating unit that generates a digest moving image of the image data group, a video display unit that displays video and operation information, and playing back the digest moving image A video editing device comprising: a digest moving image editing control unit for outputting to the video display unit; and an operation unit for detecting an operation input from the outside, The detected operation input by the serial operation section is characterized by changing the configuration of the digest moving image.
前記の構成によれば、大量・多数の静止画像や動画像を、手間をかけずに短時間で確認・観賞することができる。さらに、大量・多数の静止画像や動画像を見やすく確認・観賞できるよう構成した画像を、さらにユーザに好ましい構成になるよう再生時に簡便に修正できる。 According to the above configuration, it is possible to confirm and view a large number and a large number of still images and moving images in a short time without trouble. Furthermore, an image configured so that a large number and a large number of still images and moving images can be easily checked and viewed can be easily corrected at the time of reproduction so as to have a configuration preferable for the user.
本発明の態様20に係る映像編集装置は、前記態様19において、前記映像編集装置は、前記操作入力により指定されたシーンもしくは組み合わせシーンを構成する一部のシーンを前記ダイジェスト動画像から削除してよい。
The video editing apparatus according to
本発明の態様21に係る映像編集装置は、前記態様19において、前記映像編集装置は、前記操作入力により指定された組合せシーンの空間的配置パターンを変更してよい。
In the video editing apparatus according to
本発明の態様22に係る映像編集装置は、前記態様19において、前記映像編集装置は、前記操作入力により指定された領域に対し、動画像にフィルタをかけてよい。
In the video editing apparatus according to
本発明の態様23に係る映像編集装置は、前記態様19において、前記映像編集装置は、前記操作入力により、新たに撮影した画像データを前記ダイジェスト動画像に追加してよい。
In the video editing apparatus according to
本発明の態様24に係る映像編集装置は、前記態様19において、前記映像編集装置は、前記操作入力により指定された組合せシーンから、前記組合せシーンを構成するいずれかのシーンを、単独のシーンとして前記ダイジェスト動画像において前記組合せシーンの時間的に前または後に挿入してよい。
The video editing apparatus according to
本発明の態様25に係る映像編集装置は、前記態様19から24の何れかにおいて、前記映像編集装置は、前記ダイジェスト動画像の再生時における操作入力により、前記ダイジェスト動画像の生成に用いた画像および、前記画像の空間的および時間的な配置を示す情報を用いて、前記ダイジェスト動画像の内容を変更してよい。
The video editing apparatus according to
本発明の態様26に係る映像編集装置は、前記態様19において、前記操作入力により指定された、組合せシーンを構成する一部のシーンを当該組合せシーンから削除してよい。
In the video editing apparatus according to
本発明の態様27に係る映像編集装置は、前記態様25において、前記操作入力により、組合せシーンの空間的配置パターンを変更してよい。
The video editing apparatus according to
本発明の態様26に係る映像編集装置は、前記態様25において、前記操作入力により指定された組合せシーンから、前記組合せシーンを構成するいずれかのシーンを、単独のシーンとして前記ダイジェスト動画像において前記組合せシーンの時間的に前または後に挿入してよい。
The video editing apparatus according to
以上、図面を参照してこの発明の複数の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to that described above, and various design changes can be made without departing from the scope of the present invention. Etc. are possible.
本発明は、静止画像や動画像を入力としていわゆるダイジェスト動画像を生成する映像編集装置に好適に適用することができる。 The present invention can be suitably applied to a video editing apparatus that generates a so-called digest moving image by inputting a still image or a moving image.
100、100a、100b、100c…映像編集装置
101…画像データ分類部
102、102a…シーン情報生成部
103、103a、103b、103c、103d…ダイジェスト動画像生成部
104…イベント選択部
105…出力制御部
106…映像表示部
107…ダイジェスト動画像編集制御部
108…操作部
109…対象画像データ抽出部
110…再生時間候補導出部
111…再生時間候補表示部
301、302…画像データ群
200、303、400、800…シーン情報
304…選択情報
305…ダイジェスト動画像生成方針
307…ダイジェスト動画像
1031、1031b…対象画像抽出部
1032、1032a、1032d…シーン種類決定部
1033、1033a、1033b…シーン空間配置部
1034、1034b…シーン時間配置部
1035…ダイジェスト化制御部
1036…ダイジェスト動画像編集部
100, 100a, 100b, 100c ...
Claims (20)
前記シーン情報に基づいて、前記画像データ群のダイジェスト動画像を生成するダイジェスト動画像生成部とを備える映像編集装置であって、
前記ダイジェスト動画像生成部は、前記シーン情報に基づいて、ダイジェスト動画像を生成する際に各シーンを使用するか否か、複数のシーンを同一フレーム内に配置するか否か、および複数シーンを同一フレーム内に配置する際のシーンの空間的配置パターンを決定することを特徴とする、映像編集装置。A scene information generation unit that divides an image data group including a moving image into one or more scenes and generates scene information indicating features of each scene;
A video editing device comprising a digest video generation unit that generates a digest video of the image data group based on the scene information,
The digest moving image generating unit determines whether to use each scene when generating a digest moving image based on the scene information, whether to arrange a plurality of scenes in the same frame, and a plurality of scenes. A video editing apparatus characterized by determining a spatial arrangement pattern of scenes when arranged in the same frame.
2つ以上の主シーン同士を同一フレーム内に配置する「並列配置」パターン、
主シーンと副シーンを、主シーンを画面中央領域に配置し、副シーンを主シーンの領域周辺に位置するように配置する「中央配置」パターン、
主シーンをフレーム全体に表示し、その一部の領域に副シーンが重畳されるように配置する「子画面配置」パターン、のいずれかから選択して決定することを特徴とする、請求項1に記載の映像編集装置。The digest moving image generation unit compares scene information of a plurality of scenes that are temporally close to each other, determines a main scene and a sub-scene that are types of scenes based on the comparison result, and further, scenes that are temporally close to each other As a spatial arrangement pattern of the plurality of scenes based on the relationship of the scene types, at least,
A “parallel arrangement” pattern in which two or more main scenes are arranged in the same frame,
A “center placement” pattern that places the main scene and the sub-scene so that the main scene is placed in the center area of the screen and the sub-scene is located around the area of the main scene.
The main scene is displayed over the entire frame, and is selected and determined from any of the “small screen layout” patterns arranged so that the sub-scene is superimposed on a part of the area. The video editing device described in 1.
前記ダイジェスト動画像生成部は、複数のシーンを同一フレーム内に配置する際に、前記シーン情報で示される各情報に基づいて、主シーンとして切り出す画像領域や、副シーンに空間フィルタを適用する際のフィルタの強度を可変させることを特徴とする、請求項1から4の何れか1項に記載の映像編集装置。The scene information generating unit is information indicating the “number of regions” that is information indicating the number of feature regions in an image frame in units of scenes and the size of a region having the largest area among the feature regions. Generating a `` maximum region size '' and a `` maximum region position '' that is information indicating a position in the image of the region having the largest area among the feature regions, as a part of the scene information;
The digest moving image generation unit applies a spatial filter to an image region to be cut out as a main scene or a sub-scene based on each information indicated by the scene information when a plurality of scenes are arranged in the same frame. 5. The video editing apparatus according to claim 1, wherein the strength of the filter is variable.
前記ダイジェスト動画像生成部は、前記生成方針および前記シーン情報に基づいて、ダイジェスト動画像を生成することを特徴とする、請求項1から5の何れか1項に記載の映像編集装置。The video editing apparatus determines a digest moving image generation policy based on an output condition including characteristics of an output device that outputs a digest moving image, and notifies the digest moving image generation unit of the determined generation policy Further comprising
6. The video editing apparatus according to claim 1, wherein the digest moving image generating unit generates a digest moving image based on the generation policy and the scene information.
イベント単位に分類された画像データから、メタデータが所定の条件に従う画像データで構成される画像データ群をダイジェスト動画像の生成対象として選択するイベント選択部とをさらに備え、
前記ダイジェスト動画像生成部は、前記イベント選択部によって選択された画像データ群を入力としてダイジェスト動画像を生成することを特徴とする、請求項1から6の何れか1項に記載の映像編集装置。The video editing apparatus includes: an image data classification unit that classifies image data in units of events based on metadata indicating image capturing conditions included in the image data;
An event selection unit that selects, from the image data classified into event units, an image data group composed of image data whose metadata conforms to a predetermined condition as a digest moving image generation target;
7. The video editing apparatus according to claim 1, wherein the digest moving image generation unit generates a digest moving image with the image data group selected by the event selection unit as an input. 8. .
前記再生時間候補をユーザに提示し、ユーザイベントに基づいて指定時間を設定する再生時間候補表示部と、
動画像を含む画像データ群を、1つ以上のシーンに分割するシーン情報生成部と、
前記シーンに基づいて、画像クリップを生成し、前記画像クリップを時間的に結合することでダイジェスト動画像を生成するダイジェスト動画像生成部と
を備える映像編集装置であって、
前記ダイジェスト動画像生成部は、
前記ダイジェスト動画像の再生時間が前記指定時間となるような調整を実施すること
を特徴とする、映像編集装置。A playback time candidate derivation unit for deriving a digest video playback time candidate based on the image data group;
A playback time candidate display unit that presents the playback time candidates to a user and sets a designated time based on a user event;
A scene information generation unit that divides an image data group including a moving image into one or more scenes;
A video editing device comprising: a digest moving image generating unit that generates an image clip based on the scene and generates a digest moving image by temporally combining the image clips;
The digest moving image generating unit
An image editing apparatus, wherein adjustment is performed such that a reproduction time of the digest moving image becomes the specified time.
前記指定時間が短くなるにつれて、動きの少ない前記画像クリップの再生時間を短くすること
を特徴とする、請求項8に記載の映像編集装置。The digest moving image generating unit
9. The video editing apparatus according to claim 8, wherein the playback time of the image clip with little motion is shortened as the designated time is shortened.
前記画像クリップのフレームを間引くことで再生時間を短くすること
を特徴とする、請求項9に記載の映像編集装置。The digest moving image generating unit
The video editing apparatus according to claim 9, wherein the playback time is shortened by thinning out frames of the image clip.
前記指定時間が長くなるにつれて、動きの少ない前記画像クリップの再生時間を長くすること
を特徴とする、請求項8に記載の映像編集装置。The digest moving image generating unit
9. The video editing apparatus according to claim 8, wherein the playback time of the image clip with little motion is lengthened as the designated time becomes longer.
前記画像クリップのフレームを補間することで再生時間を長くすること
を特徴とする、請求項11に記載の映像編集装置。The digest moving image generating unit
The video editing apparatus according to claim 11, wherein a reproduction time is extended by interpolating a frame of the image clip.
前記シーンを単独で使用する単独シーンか複数のシーンを組み合わせて使う複数シーンの何れかに分類し、
前記指定時間が短くなるにつれて、前記ダイジェスト動画像を構成する前記複数シーンの割合が大きくなること
を特徴とする、請求項8に記載の映像編集装置。The digest moving image generating unit
Classify the scene as either a single scene using a single scene or a plurality of scenes using a combination of multiple scenes.
The video editing apparatus according to claim 8, wherein a proportion of the plurality of scenes constituting the digest moving image increases as the designated time becomes shorter.
ダイジェスト動画像の生成方針を決定し、決定した生成方針をダイジェスト動画像生成部へ通知する出力制御部と、
前記シーン情報および前記生成方針に基づいて、複数シーンを画面内に空間的に配置したシーン(以下、組合せシーンとする)を含む、前記画像データ群のダイジェスト動画像を生成するダイジェスト動画像生成部と、
映像および操作用の情報を表示する映像表示部と、
前記ダイジェスト動画像を再生して前記映像表示部に出力するダイジェスト動画像編集制御部と、
外部からの操作入力を検出する操作部とを備える映像編集装置であって、
前記操作部により検出された操作入力により前記ダイジェスト動画像の構成を変更することを特徴とする映像編集装置。A scene information generation unit that divides an image data group including a moving image into one or more scenes and generates scene information indicating features of each scene;
An output control unit that determines a digest moving image generation policy, and notifies the digest moving image generation unit of the determined generation policy;
Based on the scene information and the generation policy, a digest moving image generating unit that generates a digest moving image of the image data group including a scene in which a plurality of scenes are spatially arranged in a screen (hereinafter referred to as a combined scene). When,
A video display unit for displaying video and operation information;
A digest video editing control unit that reproduces the digest video and outputs the digest video to the video display unit;
A video editing device including an operation unit for detecting an operation input from the outside,
A video editing apparatus, wherein the configuration of the digest moving image is changed by an operation input detected by the operation unit.
Applications Claiming Priority (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014030430 | 2014-02-20 | ||
JP2014030430 | 2014-02-20 | ||
JP2014061382 | 2014-03-25 | ||
JP2014061382 | 2014-03-25 | ||
JP2014063798 | 2014-03-26 | ||
JP2014063798 | 2014-03-26 | ||
JP2014065062 | 2014-03-27 | ||
JP2014065062 | 2014-03-27 | ||
JP2014181027 | 2014-09-05 | ||
JP2014181027 | 2014-09-05 | ||
PCT/JP2015/054406 WO2015125815A1 (en) | 2014-02-20 | 2015-02-18 | Video image editing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2015125815A1 true JPWO2015125815A1 (en) | 2017-03-30 |
Family
ID=53878315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016504128A Pending JPWO2015125815A1 (en) | 2014-02-20 | 2015-02-18 | Video editing device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2015125815A1 (en) |
WO (1) | WO2015125815A1 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6106772B1 (en) * | 2016-01-20 | 2017-04-05 | ヤフー株式会社 | Information display program, information display device, information display method, and distribution device |
JP1568793S (en) * | 2016-04-27 | 2017-02-06 | ||
JP6807343B2 (en) * | 2018-04-16 | 2021-01-06 | 株式会社デンソーテン | Deposit removal system and deposit removal method |
JP7134082B2 (en) | 2018-12-10 | 2022-09-09 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and content editing method |
JP6917426B2 (en) * | 2019-09-13 | 2021-08-11 | 株式会社デンソーテン | Image display device, image display method, and image display system |
EP4106324A4 (en) * | 2020-02-14 | 2023-07-26 | Sony Group Corporation | Content processing device, content processing method, and content processing program |
JP6830634B1 (en) * | 2020-02-20 | 2021-02-17 | 株式会社エクサウィザーズ | Information processing method, information processing device and computer program |
JP7533066B2 (en) | 2020-09-23 | 2024-08-14 | 株式会社Jvcケンウッド | Highlight video production device |
JP7561040B2 (en) | 2021-01-07 | 2024-10-03 | シャープ株式会社 | Image processing device, program, and image processing method |
JP7118379B1 (en) | 2021-02-19 | 2022-08-16 | 株式会社Gravitas | VIDEO EDITING DEVICE, VIDEO EDITING METHOD, AND COMPUTER PROGRAM |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10112835A (en) * | 1996-10-04 | 1998-04-28 | Matsushita Electric Ind Co Ltd | Video image summarizing method and video image display method |
JP2000115690A (en) * | 1998-10-06 | 2000-04-21 | Nec Corp | Structured display system for video image and structured display method therefor |
JP2000253351A (en) * | 1999-03-01 | 2000-09-14 | Mitsubishi Electric Corp | Animation summarizing device, computer-readable recording medium recording animation sammarizing program, animation reproducing device and computer- readable recording medium recording animation reproducing program |
JP2002262228A (en) * | 2001-03-02 | 2002-09-13 | Sharp Corp | Digest producing device |
JP2005086218A (en) * | 2003-09-04 | 2005-03-31 | Ntt Comware Corp | Method, apparatus and program for processing animation |
JP2007228334A (en) * | 2006-02-24 | 2007-09-06 | Fujifilm Corp | Moving picture control apparatus and method, and program |
JP2007228604A (en) * | 1999-03-12 | 2007-09-06 | Fuji Xerox Co Ltd | Method summarizing video content |
JP2008236729A (en) * | 2007-02-19 | 2008-10-02 | Victor Co Of Japan Ltd | Method and apparatus for generating digest |
JP2010245856A (en) * | 2009-04-07 | 2010-10-28 | Panasonic Corp | Video editing device |
JP2010258768A (en) * | 2009-04-24 | 2010-11-11 | Canon Inc | Image display device and control method thereof, program and storage medium |
-
2015
- 2015-02-18 JP JP2016504128A patent/JPWO2015125815A1/en active Pending
- 2015-02-18 WO PCT/JP2015/054406 patent/WO2015125815A1/en active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10112835A (en) * | 1996-10-04 | 1998-04-28 | Matsushita Electric Ind Co Ltd | Video image summarizing method and video image display method |
JP2000115690A (en) * | 1998-10-06 | 2000-04-21 | Nec Corp | Structured display system for video image and structured display method therefor |
JP2000253351A (en) * | 1999-03-01 | 2000-09-14 | Mitsubishi Electric Corp | Animation summarizing device, computer-readable recording medium recording animation sammarizing program, animation reproducing device and computer- readable recording medium recording animation reproducing program |
JP2007228604A (en) * | 1999-03-12 | 2007-09-06 | Fuji Xerox Co Ltd | Method summarizing video content |
JP2002262228A (en) * | 2001-03-02 | 2002-09-13 | Sharp Corp | Digest producing device |
JP2005086218A (en) * | 2003-09-04 | 2005-03-31 | Ntt Comware Corp | Method, apparatus and program for processing animation |
JP2007228334A (en) * | 2006-02-24 | 2007-09-06 | Fujifilm Corp | Moving picture control apparatus and method, and program |
JP2008236729A (en) * | 2007-02-19 | 2008-10-02 | Victor Co Of Japan Ltd | Method and apparatus for generating digest |
JP2010245856A (en) * | 2009-04-07 | 2010-10-28 | Panasonic Corp | Video editing device |
JP2010258768A (en) * | 2009-04-24 | 2010-11-11 | Canon Inc | Image display device and control method thereof, program and storage medium |
Also Published As
Publication number | Publication date |
---|---|
WO2015125815A1 (en) | 2015-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015125815A1 (en) | Video image editing apparatus | |
CN113767618B (en) | Real-time video special effect system and method | |
WO2007126096A1 (en) | Image processing device and image processing method | |
JP5817400B2 (en) | Information processing apparatus, information processing method, and program | |
US8782563B2 (en) | Information processing apparatus and method, and program | |
US8839110B2 (en) | Rate conform operation for a media-editing application | |
WO2020107297A1 (en) | Video clipping control method, terminal device, system | |
JP5980222B2 (en) | Content processing apparatus, content processing method, and program | |
US8004594B2 (en) | Apparatus, method, and program for controlling display of moving and still images | |
US20100182501A1 (en) | Information processing apparatus, information processing method, and program | |
WO2007126097A1 (en) | Image processing device and image processing method | |
US20060114327A1 (en) | Photo movie creating apparatus and program | |
JP2016537744A (en) | Interactive graphical user interface based on gestures for video editing on smartphone / camera with touchscreen | |
JP2007079641A (en) | Information processor and processing method, program, and storage medium | |
US11792504B2 (en) | Personalized videos | |
JP5524653B2 (en) | Display control apparatus and control method thereof | |
JP2013531843A (en) | Determining key video snippets using selection criteria | |
JP2009529726A (en) | Content access tree | |
JP2009004999A (en) | Video data management device | |
CN104205795B (en) | color grading preview method and device | |
JP2007184869A (en) | Image processor, image processing method, and image processing program | |
US20150348588A1 (en) | Method and apparatus for video segment cropping | |
JP2006101076A (en) | Method and device for moving picture editing and program | |
JP6685700B2 (en) | Display control device, control method thereof, program, and storage medium | |
JP6332864B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190305 |