JP2014006912A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2014006912A
JP2014006912A JP2013154347A JP2013154347A JP2014006912A JP 2014006912 A JP2014006912 A JP 2014006912A JP 2013154347 A JP2013154347 A JP 2013154347A JP 2013154347 A JP2013154347 A JP 2013154347A JP 2014006912 A JP2014006912 A JP 2014006912A
Authority
JP
Japan
Prior art keywords
image
unit
frame
metadata
thumbnail
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013154347A
Other languages
Japanese (ja)
Other versions
JP5630541B2 (en
Inventor
Koji Sato
浩司 佐藤
Yasutaka Fukumoto
康隆 福本
Takashi Ogata
崇 小形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013154347A priority Critical patent/JP5630541B2/en
Publication of JP2014006912A publication Critical patent/JP2014006912A/en
Application granted granted Critical
Publication of JP5630541B2 publication Critical patent/JP5630541B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus and an information processing method for automatically extracting an image and displaying the image so that the details can be easily grasped.SOLUTION: An information processing apparatus according to the present invention includes: an image analysis unit that analyzes image data to generate image meta data that is meta data related to a feature amount that characterizes the image; a frame information determination unit that extracts a plurality of images from the image data on the basis of the image meta data, and determines frame information related to frames for arranging the extracted plurality of images; and image display data generation unit that generates image display data including at least the frame information and data of the extracted images.

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

情報処理技術の発達に伴い、デジタルスチルカメラやデジタルビデオカメラ等のデジタル撮像装置が普及しつつある。これらのデジタル撮像装置に関して、撮像時の利便性を向上させるための技術と、撮像したデータをユーザに表示する際に用いられる技術との双方について、盛んに技術開発が行なわれている。   With the development of information processing technology, digital imaging devices such as digital still cameras and digital video cameras are becoming popular. With regard to these digital imaging devices, technical development has been actively conducted on both a technique for improving convenience during imaging and a technique used when displaying captured data to a user.

撮像時の利便性を向上させるための技術の一例として、例えば以下の特許文献1には、被写体である人物の顔領域を検出し、顔領域の大きさの変化や移動速度に着目して被写体ぶれの発生可能性を検証する技術が開示されている。   As an example of a technique for improving convenience during imaging, for example, in Patent Document 1 below, a face area of a person as a subject is detected, and the subject is focused on the change in the size of the face area and the moving speed. A technique for verifying the possibility of blurring is disclosed.

また、撮像したデータをユーザに表示する際に用いられる技術の一例として、例えば以下の特許文献2に開示されている技術がある。この技術は、ユーザが体験したイベントに関するサムネイル画像を表示画面に表示するとともに、イベントを代表する重要度の高いサムネイル画像に対して、イベントに応じて作成されたセリフを吹き出しとして表示する技術である。   Moreover, as an example of a technique used when displaying captured data to a user, there is a technique disclosed in Patent Document 2 below, for example. This technology displays a thumbnail image related to an event experienced by a user on a display screen, and displays a speech generated according to the event as a balloon for a highly important thumbnail image representing the event. .

特開2008−22300号公報JP 2008-22300 A 特開2005−141297号公報JP 2005-141297 A

ところで、デジタルビデオカメラ等の動画撮影が可能な撮像装置において生成された動画データの内容を把握するためには、技術の発展に伴い撮影可能時間が増加したことで、膨大な時間が必要となる。この際に、上記特許文献2に記載の技術のような、サムネイル画像を複数表示し、重要度の高いサムネイル画像に対しては吹き出しを表示する技術を用いたとしても、吹き出しのついた画像と他の画像との関連性を把握することが困難となる場合も生じうる。そのため、ある動画の内容を把握するために有効な画像を自動的に抽出し、内容把握が容易なように表示する技術が求められていた。   By the way, in order to grasp the contents of moving image data generated by an imaging apparatus capable of moving image shooting such as a digital video camera, the time that can be shot has increased along with the development of technology, which requires enormous time. . At this time, even if a technique for displaying a plurality of thumbnail images and displaying a speech balloon for a highly important thumbnail image, such as the technique described in Patent Document 2, It may be difficult to grasp the relationship with other images. Therefore, there has been a demand for a technique for automatically extracting an effective image for grasping the contents of a certain moving image and displaying the images so that the contents can be easily grasped.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、画像を自動的に抽出し、内容把握が容易なように表示することが可能な、情報処理装置、情報処理方法およびプログラムを提供することにある。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to process information that can automatically extract an image and display it for easy understanding of the contents. To provide an apparatus, an information processing method, and a program.

上記課題を解決するために、本発明のある観点によれば、画像データを解析し、当該画像を特徴付ける特徴量に関するメタデータである画像メタデータを生成する画像解析部と前記画像メタデータに基づいて前記画像データの中から複数の画像を抽出するとともに、抽出した複数の画像を配置するためのコマに関するコマ情報を決定するコマ情報決定部と、前記コマ情報と、前記抽出された画像のデータとを少なくとも含む画像表示データを生成する画像表示データ生成部と、を備える情報処理装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, an image analysis unit that analyzes image data and generates image metadata that is metadata relating to a feature amount that characterizes the image is based on the image metadata. Extracting a plurality of images from the image data and determining frame information regarding a frame for arranging the extracted images; the frame information; and the extracted image data An information processing apparatus is provided that includes an image display data generation unit that generates image display data including at least.

また、上記課題を解決するために、本発明の別の観点によれば、画像データを解析し、当該画像を特徴付ける特徴量に関するメタデータである画像メタデータを生成することと、前記画像メタデータに基づいて前記画像データの中から複数の画像を抽出するとともに、抽出した複数の画像を配置するためのコマに関するコマ情報を決定することと、前記コマ情報と、前記抽出された画像のデータとを少なくとも含む画像表示データを生成することと、を含む情報処理方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, image data is analyzed, image metadata that is metadata relating to a feature amount characterizing the image is generated, and the image metadata Extracting a plurality of images from the image data based on the image data, determining frame information on a frame for arranging the extracted plurality of images, the frame information, and the extracted image data; Generating an image display data including at least the information processing method.

また、上記課題を解決するために、本発明の更に別の観点によれば、コンピュータに、画像データを解析し、当該画像を特徴付ける特徴量に関するメタデータである画像メタデータを生成する画像解析機能と、前記画像メタデータに基づいて前記画像データの中から複数の画像を抽出するとともに、抽出した複数の画像を配置するためのコマに関するコマ情報を決定するコマ情報決定機能と、前記コマ情報と、前記抽出された画像のデータとを少なくとも含む画像表示データを生成する画像表示データ生成機能と、を実現させるためのプログラムが提供される。   In order to solve the above-described problem, according to still another aspect of the present invention, an image analysis function for analyzing image data and generating image metadata that is metadata relating to a feature amount characterizing the image is performed on a computer. A frame information determination function for extracting a plurality of images from the image data based on the image metadata and determining frame information regarding a frame for arranging the extracted plurality of images; There is provided a program for realizing an image display data generation function for generating image display data including at least the extracted image data.

本発明によれば、画像データが解析されて、当該画像を特徴付ける特徴量に関するメタデータである画像メタデータが生成され、前記画像メタデータに基づいて前記画像データの中から複数の画像が抽出されるとともに、抽出された複数の画像を配置するためのコマに関するコマ情報が決定され、前記コマ情報と、前記抽出された画像のデータとを少なくとも含む画像表示データが生成される。   According to the present invention, image data is analyzed to generate image metadata that is metadata related to a feature amount that characterizes the image, and a plurality of images are extracted from the image data based on the image metadata. At the same time, frame information relating to a frame for arranging the plurality of extracted images is determined, and image display data including at least the frame information and the extracted image data is generated.

以上説明したように本発明によれば、画像を特徴付ける特徴量に関する画像メタデータに基づいて複数の画像を抽出し、配置して表示させることで、内容を把握するために有効な画像を自動的に抽出し、内容把握が容易なように表示することが可能となる。   As described above, according to the present invention, a plurality of images are extracted based on the image metadata relating to the feature amount that characterizes the image, arranged, and displayed, so that an image effective for grasping the contents is automatically obtained. And can be displayed so that the contents can be easily grasped.

本発明の第1の実施形態に係る動画のコミック表示について説明するための説明図である。It is explanatory drawing for demonstrating the comic display of the moving image which concerns on the 1st Embodiment of this invention. 同実施形態にかかる情報処理装置の構成について説明するためのブロック図である。It is a block diagram for demonstrating the structure of the information processing apparatus concerning the embodiment. コミック表示データについて説明するための説明図である。It is explanatory drawing for demonstrating comic display data. 同実施形態に係る動画解析部の構成について説明するためのブロック図である。It is a block diagram for demonstrating the structure of the moving image analysis part which concerns on the embodiment. 動画メタデータを説明するための説明図である。It is explanatory drawing for demonstrating moving image metadata. 動画メタデータを説明するための説明図である。It is explanatory drawing for demonstrating moving image metadata. 同実施形態に係るコミック表示変換部の構成について説明するためのブロック図である。It is a block diagram for demonstrating the structure of the comic display conversion part which concerns on the same embodiment. 同実施形態に係るダイジェストスコアの算出方法について説明するための説明図である。It is explanatory drawing for demonstrating the calculation method of the digest score which concerns on the same embodiment. 同実施形態に係る代表フレーム画像の抽出方法について説明するための説明図である。It is explanatory drawing for demonstrating the extraction method of the representative frame image which concerns on the same embodiment. 同実施形態に係るアニメーションフレーム画像について説明するための説明図である。It is explanatory drawing for demonstrating the animation frame image which concerns on the embodiment. 同実施形態に係るカメラワークメタデータ利用部について説明するための説明図である。It is explanatory drawing for demonstrating the camera work metadata utilization part which concerns on the embodiment. 同実施形態に係る画像サイズ決定部について説明するための説明図である。It is explanatory drawing for demonstrating the image size determination part which concerns on the embodiment. 同実施形態に係る画像サイズ決定部について説明するための説明図である。It is explanatory drawing for demonstrating the image size determination part which concerns on the embodiment. 同実施形態に係るコマ画像配置部について説明するための説明図である。It is explanatory drawing for demonstrating the frame image arrangement | positioning part which concerns on the embodiment. 同実施形態に係るコマ画像配置部について説明するための説明図である。It is explanatory drawing for demonstrating the frame image arrangement | positioning part which concerns on the embodiment. 同実施形態に係るコマ画像配置部について説明するための説明図である。It is explanatory drawing for demonstrating the frame image arrangement | positioning part which concerns on the embodiment. 同実施形態に係るコマ画像配置部について説明するための説明図である。It is explanatory drawing for demonstrating the frame image arrangement | positioning part which concerns on the embodiment. カメラワークを考慮した画像配置について説明するための説明図である。It is explanatory drawing for demonstrating the image arrangement | positioning which considered camerawork. カメラワークを考慮した画像配置について説明するための説明図である。It is explanatory drawing for demonstrating the image arrangement | positioning which considered camerawork. 同実施形態に係るエフェクト画像配置部について説明するための説明図である。It is explanatory drawing for demonstrating the effect image arrangement | positioning part which concerns on the embodiment. 同実施形態に係るエフェクト画像配置部について説明するための説明図である。It is explanatory drawing for demonstrating the effect image arrangement | positioning part which concerns on the embodiment. 同実施形態に係るエフェクト画像配置部について説明するための説明図である。It is explanatory drawing for demonstrating the effect image arrangement | positioning part which concerns on the embodiment. 同実施形態に係る情報処理方法の全体的な流れを説明するための流れ図である。It is a flowchart for demonstrating the whole flow of the information processing method which concerns on the embodiment. 同実施形態に係る代表フレーム画像の選択方法を説明するための流れ図である。4 is a flowchart for explaining a method of selecting a representative frame image according to the embodiment. カメラワークに応じたアニメーションフレーム画像の選択方法を説明するための流れ図である。It is a flowchart for demonstrating the selection method of the animation frame image according to camera work. 同実施形態に係る代表フレーム画像の動的配置方法を説明するための流れ図である。4 is a flowchart for explaining a method for dynamically arranging representative frame images according to the embodiment. 同実施形態に係る代表フレーム画像の動的配置方法を説明するための流れ図である。4 is a flowchart for explaining a method for dynamically arranging representative frame images according to the embodiment. カメラワークを考慮した代表フレーム画像の配置方法を説明するための流れ図である。It is a flowchart for demonstrating the arrangement | positioning method of the representative frame image in consideration of camera work. カメラワークを考慮したエフェクト画像の配置方法を説明するための流れ図である。It is a flowchart for demonstrating the arrangement method of the effect image in consideration of camera work. サムネイルアニメーションの再生速度の決定方法を説明するための流れ図である。It is a flowchart for demonstrating the determination method of the reproduction speed of a thumbnail animation. 同実施形態に係る動画解析部の第1変形例について説明するためのブロック図である。It is a block diagram for demonstrating the 1st modification of the moving image analysis part which concerns on the embodiment. 同変形例に係るエフェクト画像の配置方法について説明するための説明図である。It is explanatory drawing for demonstrating the arrangement method of the effect image which concerns on the modification. 同変形例に係るエフェクト画像の配置方法について説明するための説明図である。It is explanatory drawing for demonstrating the arrangement method of the effect image which concerns on the modification. 同変形例に係るエフェクト画像の配置方法について説明するための説明図である。It is explanatory drawing for demonstrating the arrangement method of the effect image which concerns on the modification. 同変形例に係るエフェクト画像の配置方法について説明するための説明図である。It is explanatory drawing for demonstrating the arrangement method of the effect image which concerns on the modification. 同変形例に係るエフェクト画像の配置方法について説明するための説明図である。It is explanatory drawing for demonstrating the arrangement method of the effect image which concerns on the modification. 同変形例に係るエフェクト画像の配置方法について説明するための説明図である。It is explanatory drawing for demonstrating the arrangement method of the effect image which concerns on the modification. 本発明の第2の実施形態に係る情報処理装置の構成について説明するためのブロック図である。It is a block diagram for demonstrating the structure of the information processing apparatus which concerns on the 2nd Embodiment of this invention. 同実施形態に係る静止画解析部の構成について説明するための説明図である。It is explanatory drawing for demonstrating the structure of the still image analysis part which concerns on the same embodiment. 同実施形態に係るコミック表示変換部の構成について説明するための説明図である。It is explanatory drawing for demonstrating the structure of the comic display conversion part which concerns on the same embodiment. 同実施形態に係る情報処理方法の全体的な流れを説明するための流れ図である。It is a flowchart for demonstrating the whole flow of the information processing method which concerns on the embodiment. 静止画の画像サイズの決定方法を説明するための流れ図である。It is a flowchart for demonstrating the determination method of the image size of a still image. 本発明の第3の実施形態に係る情報処理方法の構成について説明するためのブロック図である。It is a block diagram for demonstrating the structure of the information processing method which concerns on the 3rd Embodiment of this invention. 本発明の各実施形態に係る情報処理装置のハードウェア構成を説明するためのブロック図である。It is a block diagram for demonstrating the hardware constitutions of the information processing apparatus which concerns on each embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

なお、説明は、以下の順序で行うものとする。
(1)第1の実施形態
(1−1)コミック表示の概要について
(1−2)情報処理装置の構成について
(1−3)情報処理方法について
(1−4)第1変形例
(2)第2の実施形態
(2−1)情報処理装置の構成について
(2−2)情報処理方法について
(3)第3の実施形態
(3−1)情報処理装置の構成について
(4)本発明の各実施形態に係る情報処理装置のハードウェア構成について
(5)まとめ
The description will be made in the following order.
(1) First Embodiment (1-1) Outline of Comic Display (1-2) Configuration of Information Processing Device (1-3) Information Processing Method (1-4) First Modification (2) Second Embodiment (2-1) Configuration of Information Processing Device (2-2) Information Processing Method (3) Third Embodiment (3-1) Configuration of Information Processing Device (4) Hardware configuration of information processing apparatus according to each embodiment (5) Summary

(第1の実施形態)
<コミック表示の概要について>
まず、本発明の第1の実施形態に係る情報処理装置および情報処理方法について詳細に説明するに先立ち、本実施形態に係る動画のコミック表示の概要について、図1を参照しながら説明する。図1は、本実施形態に係る動画のコミック表示について説明するための説明図である。
(First embodiment)
<About comic display overview>
First, before describing the information processing apparatus and the information processing method according to the first embodiment of the present invention in detail, an outline of comic display of a moving image according to the present embodiment will be described with reference to FIG. FIG. 1 is an explanatory diagram for explaining comic display of a moving image according to the present embodiment.

本実施形態に係る情報処理装置は、単一または複数の任意の動画データが指定されると、動画データに含まれる複数の画像の中から重要なシーンの画像を自動的に抽出する。情報処理装置は、例えば図1に示したように、抽出した画像をマンガ的に配置変換し、表示画面に表示する。   The information processing apparatus according to the present embodiment automatically extracts an image of an important scene from a plurality of images included in moving image data when single or a plurality of arbitrary moving image data is designated. For example, as illustrated in FIG. 1, the information processing apparatus rearranges the extracted image in a manga manner and displays it on the display screen.

図1に示したような表示領域301を考える。この表示領域301は、通常のマンガにおけるページに該当するものである。表示領域301は、複数のコマ303にコマ割りされており、それぞれのコマには、動画データに含まれる画像(例えばサムネイル画像)305が配置される。   Consider a display area 301 as shown in FIG. This display area 301 corresponds to a page in a normal manga. The display area 301 is divided into a plurality of frames 303, and an image (for example, a thumbnail image) 305 included in the moving image data is arranged in each frame.

また、サムネイル画像305には、以下で説明する動画メタデータに基づいて、各種の吹き出し307や、集中線309、効果線311などの画面効果等が自動的に配置される。吹き出し307、集中線309、効果線311等は、通常の紙媒体におけるマンガのように、コマ303の内外に自由に配置される。   In addition, on the thumbnail image 305, various balloons 307, screen effects such as a concentrated line 309, an effect line 311, and the like are automatically arranged based on moving image metadata described below. The balloon 307, the concentrated line 309, the effect line 311 and the like are freely arranged inside and outside the frame 303 like a manga on a normal paper medium.

また、情報処理装置のユーザが、あるサムネイル画像305がどのようなシーンであるのかを把握したいと考える場合も生じうる。この際には、ユーザはマウスやキーボード等の情報処理装置に備えられた入力装置を操作して、マウスポインタ等の位置選択オブジェクト313を希望するサムネイル画像305まで移動させ、いわゆるマウスオーバーと呼ばれる状態にする。すると、情報処理装置は、位置選択オブジェクト313が重ねられたサムネイル画像305について、コマ内でサムネイル画像305を開始画像とするアニメーションを実行する。   In addition, there may be a case where the user of the information processing apparatus wants to understand what kind of scene a certain thumbnail image 305 is. At this time, the user operates an input device provided in the information processing apparatus such as a mouse and a keyboard to move the position selection object 313 such as a mouse pointer to a desired thumbnail image 305, and is in a state called a mouse over. To. Then, the information processing apparatus executes an animation using the thumbnail image 305 as a start image in the frame for the thumbnail image 305 on which the position selection object 313 is superimposed.

図1では、表示領域301は1つのみ示しているが、表示画面等の大きさにより、表示領域301の大きさを変更することも可能であり、1つの表示画面内に複数の表示領域301を配置することも可能である。   Although only one display area 301 is shown in FIG. 1, the size of the display area 301 can be changed depending on the size of the display screen or the like, and a plurality of display areas 301 can be included in one display screen. Can also be arranged.

情報処理装置は、動画を構成する画像を、各画像に関連付けられた時刻情報順に配置していくため、ユーザは、通常のマンガを読むのと同様にして、動画データの内容を容易に把握することが可能である。また、サムネイル画像に関連付けられた動画メタデータに応じて、吹き出し等の画面効果(以下、エフェクトとも称する。)が自動的に配置されるため、動画データを楽しみながら内容確認することができる。   Since the information processing apparatus arranges the images constituting the moving image in the order of the time information associated with each image, the user can easily grasp the contents of the moving image data in the same manner as reading a normal manga. It is possible. Further, since a screen effect such as a balloon (hereinafter also referred to as an effect) is automatically arranged according to the moving image metadata associated with the thumbnail image, the contents can be confirmed while enjoying the moving image data.

<情報処理装置の構成について>
以下では、図2〜図22を参照しながら、上述のような動画のコミック表示を実現することが可能な情報処理装置の構成について、詳細に説明する。
<Configuration of information processing device>
Hereinafter, the configuration of an information processing apparatus capable of realizing comic display of a moving image as described above will be described in detail with reference to FIGS.

[情報処理装置の全体構成について]
まず、図2を参照しながら、本実施形態に係る情報処理装置の全体構成について、詳細に説明する。図2は、本実施形態に係る情報処理装置の構成を説明するためのブロック図である。
[Overall configuration of information processing device]
First, the overall configuration of the information processing apparatus according to the present embodiment will be described in detail with reference to FIG. FIG. 2 is a block diagram for explaining the configuration of the information processing apparatus according to the present embodiment.

本実施形態に係る情報処理装置10は、例えば図2に示したように、動画データ取得部101、動画解析部103、音声抽出部105、コミック表示変換部107、フレーム画像データ生成部109、コミック表示データ生成部111を備える。また、情報処理装置10は、更に、コミック表示実行部113、表示制御部115および記憶部117を備える。なお、情報処理装置10は、これらの各処理部以外にも、例えば任意の通信網を介して任意の装置との間で行なわれる通信を制御する通信制御部(図示せず。)等を有していても良い。   As shown in FIG. 2, for example, the information processing apparatus 10 according to the present embodiment includes a moving image data acquisition unit 101, a moving image analysis unit 103, an audio extraction unit 105, a comic display conversion unit 107, a frame image data generation unit 109, a comic A display data generation unit 111 is provided. The information processing apparatus 10 further includes a comic display execution unit 113, a display control unit 115, and a storage unit 117. In addition to these processing units, the information processing apparatus 10 includes a communication control unit (not shown) that controls communication performed with an arbitrary device via an arbitrary communication network, for example. You may do it.

動画データ取得部101は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信装置等から構成されている。動画データ取得部101は、情報処理装置10に対してなされたユーザ操作に応じて、ユーザが指定した動画に対応する動画データを後述する記憶部117や、情報処理装置10に挿入された各種の記録媒体等から取得する。ここで、動画データとは、時刻情報が関連付けられた複数の画像および音声からなる動画のデータを意味する。また、動画データ取得部101は、情報処理装置10に接続された他の装置から動画データを取得したり、インターネット等の通信網を介して接続された各種のサーバから動画データを取得したりすることが可能である。動画データ取得部101は、取得した動画データを、動画解析部103と、音声抽出部105とにそれぞれ伝送する。   The moving image data acquisition unit 101 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a communication device, and the like. The video data acquisition unit 101 stores video data corresponding to a video specified by the user in response to a user operation performed on the information processing device 10. Obtained from recording media. Here, the moving image data means moving image data composed of a plurality of images and sounds associated with time information. In addition, the moving image data acquisition unit 101 acquires moving image data from another device connected to the information processing device 10, or acquires moving image data from various servers connected via a communication network such as the Internet. It is possible. The moving image data acquisition unit 101 transmits the acquired moving image data to the moving image analysis unit 103 and the audio extraction unit 105, respectively.

動画解析部103は、例えば、CPU、ROM、RAM等から構成されている。動画解析部103は、伝送された動画データを解析して、動画を特徴付ける特徴量を抽出する。また、動画解析部103は、抽出された特徴量を用いて、特徴量に関するメタデータである動画メタデータを生成する。特徴量の抽出は、動画データを構成する画像データと音声データの双方について行なわれ、生成される動画メタデータには、画像データに関する特徴量メタデータと、音声データに関する特徴量メタデータとが含まれる。動画解析部103は、生成した動画メタデータを、後述するコミック表示変換部107に伝送する。なお、動画解析部103は、動画を解析して生成される動画メタデータ以外にも、カムコーダなどの撮像装置上で取得可能なメタデータを、後述するコミック表示変換部107で用いられる動画メタデータとして利用することも可能である。ここで、撮像装置上で取得可能なメタデータとして、例えば、録画中の撮影、お気に入りボタン、ズームイン、ズームアウトボタン等の操作履歴等を挙げることができる。また、動画解析部103は、動画データ取得部101より伝送された動画データに含まれる画像データを、後述するフレーム画像データ生成部109に伝送する。   The moving image analysis unit 103 includes, for example, a CPU, a ROM, a RAM, and the like. The moving image analysis unit 103 analyzes the transmitted moving image data and extracts a feature amount that characterizes the moving image. In addition, the moving image analysis unit 103 generates moving image metadata, which is metadata related to the feature amount, using the extracted feature amount. Feature amount extraction is performed for both image data and audio data constituting the moving image data, and the generated moving image metadata includes feature amount metadata relating to image data and feature amount metadata relating to audio data. It is. The moving image analysis unit 103 transmits the generated moving image metadata to the comic display conversion unit 107 described later. In addition to the moving image metadata generated by analyzing the moving image, the moving image analysis unit 103 converts the metadata that can be acquired on an imaging device such as a camcorder into moving image metadata used by the comic display conversion unit 107 described later. It is also possible to use as. Here, examples of metadata that can be acquired on the imaging device include shooting during recording, operation history of favorite buttons, zoom-in buttons, zoom-out buttons, and the like. In addition, the moving image analysis unit 103 transmits the image data included in the moving image data transmitted from the moving image data acquisition unit 101 to the frame image data generation unit 109 described later.

なお、この動画解析部103については、以下で改めて詳細に説明する。   The moving image analysis unit 103 will be described in detail later.

音声抽出部105は、例えば、CPU、ROM、RAM等から構成されている。音声抽出部105は、動画データ取得部101から伝送された動画データの中から、音声データを抽出する。音声抽出部105は、音声データの抽出に際して、ROMや記憶部117等に格納されている動画データのフォーマット等に関するデータベース等を参照することが可能である。なお、音声抽出部105は、必要に応じて、抽出した音声データを圧縮するなどの変換処理を行ってもよい。音声抽出部105は、抽出した動画の音声データを、後述するコミック表示データ生成部111に伝送する。   The voice extraction unit 105 is constituted by, for example, a CPU, a ROM, a RAM, and the like. The audio extraction unit 105 extracts audio data from the moving image data transmitted from the moving image data acquisition unit 101. When extracting the audio data, the audio extraction unit 105 can refer to a database regarding the format of the moving image data stored in the ROM, the storage unit 117, or the like. Note that the voice extraction unit 105 may perform a conversion process such as compressing the extracted voice data as necessary. The audio extraction unit 105 transmits the extracted audio data of the moving image to the comic display data generation unit 111 described later.

コミック表示変換部107は、例えば、CPU、ROM、RAM等から構成されている。コミック表示変換部107は、動画メタデータに基づいて動画データの中から複数の画像を抽出するとともに、所定の表示領域をコマ割りして抽出した複数の画像をマンガ的に配置変換し、それぞれのコマに配置された画像に関する情報を含むコマ情報を生成する。コミック表示変換部107は、生成したコマ情報を、後述するフレーム画像データ生成部109およびコミック表示データ生成部111に伝送する。   The comic display conversion unit 107 includes, for example, a CPU, a ROM, a RAM, and the like. The comic display conversion unit 107 extracts a plurality of images from the moving image data based on the moving image metadata, and arranges and converts the plurality of images extracted by dividing a predetermined display area into frames, Frame information including information related to an image arranged on the frame is generated. The comic display conversion unit 107 transmits the generated frame information to a frame image data generation unit 109 and a comic display data generation unit 111 described later.

なお、このコミック表示変換部107については、以下で改めて詳細に説明する。   The comic display conversion unit 107 will be described in detail later.

フレーム画像データ生成部109は、例えば、CPU、ROM、RAM等から構成されている。フレーム画像データ生成部109は、動画解析部103から伝送された画像データと、コミック表示変換部107から伝送されたコマ情報とに基づいて、フレーム画像データを生成する。より詳細には、フレーム画像データ生成部109は、動画を構成する複数のフレーム画像の中からコマ情報に記載されているフレーム画像を抽出する。また、フレーム画像データ生成部109は、抽出したフレーム画像を、コマ情報に記載されている情報に基づいて拡大・縮小処理を行い、コマの大きさにあったサムネイル画像とする。さらに、フレーム画像データ生成部109は、アニメーション再生のための画像を、コマ情報に基づいて生成する。フレーム画像データ生成部109は、生成したフレーム画像データ(すなわち、サムネイル画像データと、アニメーション再生のための画像データ)を、コミック表示データ生成部111に伝送する。   The frame image data generation unit 109 includes, for example, a CPU, a ROM, a RAM, and the like. The frame image data generation unit 109 generates frame image data based on the image data transmitted from the moving image analysis unit 103 and the frame information transmitted from the comic display conversion unit 107. More specifically, the frame image data generation unit 109 extracts a frame image described in the frame information from a plurality of frame images constituting the moving image. Further, the frame image data generation unit 109 performs an enlargement / reduction process on the extracted frame image based on the information described in the frame information to obtain a thumbnail image that matches the size of the frame. Further, the frame image data generation unit 109 generates an image for animation reproduction based on the frame information. The frame image data generation unit 109 transmits the generated frame image data (that is, thumbnail image data and image data for animation reproduction) to the comic display data generation unit 111.

コミック表示データ生成部111は、例えば、CPU、ROM、RAM等から構成されている。コミック表示データ生成部111は、音声抽出部105、コミック表示変換部107およびフレーム画像データ生成部109から伝送された各種情報と、記憶部117等から取得したエフェクトデータとを用いて、コミック表示データを生成する。コミック表示データは、例えば図3に示したように、例えばXML形式で記述されているコマ情報と、フレーム画像データと、音声データと、エフェクトデータとを少なくとも含むように構成されている。情報処理装置10や他の装置は、XML形式で記述されているコマ情報を読み込んで表示することで、様々なアプリケーションにおいてコミック表示画面を生成することができる。   The comic display data generation unit 111 includes, for example, a CPU, a ROM, a RAM, and the like. The comic display data generation unit 111 uses the various information transmitted from the voice extraction unit 105, the comic display conversion unit 107, and the frame image data generation unit 109, and the effect data acquired from the storage unit 117 and the like, and uses the comic display data. Is generated. For example, as shown in FIG. 3, the comic display data is configured to include at least frame information described in, for example, an XML format, frame image data, audio data, and effect data. The information processing apparatus 10 and other apparatuses can generate comic display screens in various applications by reading and displaying the frame information described in the XML format.

例えば、Visual C++(登録商標)等を利用したスタンドアロンのネットワークアプリケーション、Java・Brew等の携帯アプリケーション、FlashやJavaScript等を利用したブラウザアプリケーション等でコミック表示を実現できる。例えば、Action Scriptを利用してFlash用のファイル(SWFファイル)を作成し、コミック画像の配置情報XMLであるコマ情報を読み込ませることで、一般的なWebブラウザを用いてコミック表示画面を閲覧することが可能である。   For example, comic display can be realized by a stand-alone network application using Visual C ++ (registered trademark), a mobile application such as Java / Brew, a browser application using Flash, Javascript, or the like. For example, a Flash file (SWF file) is created using Action Script, and the frame information that is the arrangement information XML of the comic image is read to view the comic display screen using a general Web browser. It is possible.

また、Flashによりコミック表示データを作成することで、よりインタラクティブなコンテンツ表現が可能となる。例えば、ボタンによってページをめくったり、マウスホイールによるスクロールによりページをめくったりするような実装が可能となる。また、コマを時系列順にアニメーション表示することにより、多くのコマが存在した場合であっても、迷うことなくスムーズに読み進めることが可能である。また、サムネイル画像をクリックして音声を再生した際に、クリックされたコマ以外の全てのコマの透明度を上昇させることにより、現在再生中のコマをより分かりやすく強調することができる。このように、コマ情報をXML形式のファイルとして出力することで、Flashをはじめとする様々なアプリケーションから参照可能となる。   Further, by creating comic display data with Flash, more interactive content expression is possible. For example, it is possible to implement such as turning a page by a button or turning a page by scrolling with a mouse wheel. Also, by displaying animations in time-series order, even if there are many frames, it is possible to read them smoothly without getting lost. Further, when a thumbnail image is clicked and audio is reproduced, the currently reproduced frame can be emphasized more clearly by increasing the transparency of all the frames other than the clicked frame. Thus, by outputting the frame information as an XML format file, it can be referred to from various applications including Flash.

コミック表示データ生成部111は、生成したコミック表示データをコミック表示実行部113に伝送する。また、コミック表示データ生成部111は、生成したコミック表示データを、CD−ROMやDVD−ROMといった各種の記録媒体や、インターネット等の通信網を介して、他の情報処理装置に提供することも可能である。   The comic display data generation unit 111 transmits the generated comic display data to the comic display execution unit 113. Further, the comic display data generation unit 111 may provide the generated comic display data to other information processing apparatuses via various recording media such as CD-ROM and DVD-ROM, and communication networks such as the Internet. Is possible.

コミック表示実行部113は、例えば、CPU、ROM、RAM等から構成されている。コミック表示実行部113は、コミック表示データ生成部111から伝送されたコミック表示データを実行するためのアプリケーションを実行することで、例えば図1に示したようなコミック表示を実行する。コミック表示データを実行するためのアプリケーションは、コミック表示実行用の専用アプリケーションであってもよく、Webブラウザのような一般的なアプリケーションであってもよい。コミック表示実行部113は、コミック表示データを実行して、後述する表示制御部115を介してコミック表示を表示部(図示せず。)に表示させる。   The comic display execution unit 113 includes, for example, a CPU, a ROM, a RAM, and the like. The comic display execution unit 113 executes the comic display as shown in FIG. 1, for example, by executing an application for executing the comic display data transmitted from the comic display data generation unit 111. The application for executing the comic display data may be a dedicated application for executing comic display or a general application such as a Web browser. The comic display execution unit 113 executes the comic display data and causes the display unit (not shown) to display the comic display via the display control unit 115 described later.

表示制御部115は、例えば、CPU、ROM、RAM等から構成されている。表示制御部115は、記憶部117等に記録されている表示画面に表示すべき内容に対応するデータを取得して、表示画面に表示する。また、情報処理装置10に備えられた入力部から、マウスポインタ等の位置選択オブジェクトの移動を表す信号が伝送された場合には、伝送された信号にあわせて位置選択オブジェクトの移動を表示画面に表示させる。また、表示制御部115は、コミック表示実行部113から表示内容の変更を要請された場合には、コミック表示実行部113からの要請に基づいて表示画面に表示されている表示内容の変更を行なう。   The display control unit 115 includes, for example, a CPU, a ROM, a RAM, and the like. The display control unit 115 acquires data corresponding to the contents to be displayed on the display screen recorded in the storage unit 117 and displays the data on the display screen. When a signal indicating movement of the position selection object such as a mouse pointer is transmitted from the input unit provided in the information processing apparatus 10, the movement of the position selection object is displayed on the display screen in accordance with the transmitted signal. Display. In addition, when requested to change the display content from the comic display execution unit 113, the display control unit 115 changes the display content displayed on the display screen based on the request from the comic display execution unit 113. .

記憶部117には、ビデオカメラや携帯電話等で撮影された動画データや、TVコンテンツ等の動画コンテンツ等の各種の動画データが格納されている。また、記憶部117には、表示画面に表示されるオブジェクトデータが格納されている。ここで言うオブジェクトデータには、例えば、アイコン、ボタン、サムネイル等のグラフィカルユーザインターフェース(GUI)を構成する任意のパーツ類が含まれる。   The storage unit 117 stores various types of moving image data such as moving image data shot by a video camera, a mobile phone, and the like, and moving image content such as TV content. The storage unit 117 stores object data displayed on the display screen. The object data referred to here includes, for example, arbitrary parts constituting a graphical user interface (GUI) such as icons, buttons, and thumbnails.

また、記憶部117には、本実施形態に係る情報処理装置10が、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、または、各種のデータベース等が、適宜記録されてもよい。この記憶部117は、動画データ取得部101、動画解析部103、音声抽出部105、コミック表示変換部107、フレーム画像データ生成部109、コミック表示データ生成部111、コミック表示実行部113、表示制御部115等が自由に読み書きできる。   In addition, the storage unit 117 stores various parameters, intermediate progress of processing, and various databases that need to be saved when the information processing apparatus 10 according to the present embodiment performs some processing, as appropriate. It may be recorded. The storage unit 117 includes a moving image data acquisition unit 101, a moving image analysis unit 103, an audio extraction unit 105, a comic display conversion unit 107, a frame image data generation unit 109, a comic display data generation unit 111, a comic display execution unit 113, and display control. The unit 115 and the like can freely read and write.

[動画解析部103の構成について]
続いて、図4〜図6を参照しながら、本実施形態に係る動画解析部103の構成について、詳細に説明する。図4は、本実施形態に係る動画解析部103の構成を説明するためのブロック図であり、図5および図6は、動画メタデータを説明するための説明図である。
[Configuration of Movie Analysis Unit 103]
Next, the configuration of the moving image analysis unit 103 according to the present embodiment will be described in detail with reference to FIGS. 4 to 6. FIG. 4 is a block diagram for explaining the configuration of the moving image analysis unit 103 according to this embodiment, and FIGS. 5 and 6 are explanatory views for explaining moving image metadata.

動画解析部103は、例えば図4に示したように、動画データ分割部131と、顔検出部133と、シーン遷移検出部135と、カメラワーク検出部137と、音声解析部139と、動画メタデータ生成部141と、を主に備える。   For example, as illustrated in FIG. 4, the moving image analysis unit 103 includes a moving image data division unit 131, a face detection unit 133, a scene transition detection unit 135, a camera work detection unit 137, an audio analysis unit 139, and a moving image meta unit. A data generation unit 141.

動画データ分割部131は、例えば、CPU、ROM、RAM等から構成されている。動画データ分割部131は、動画データ取得部101から伝送された動画データを、画像データと、音声データとに分割する。動画データ分割部131は、得られた動画データを、フレーム画像生成部109、顔検出部133、シーン遷移検出部135、および、カメラワーク検出部137に伝送する。また、動画データ分割部131は、得られた音声データを、音声解析部139に伝送する。   The moving image data dividing unit 131 is constituted by, for example, a CPU, a ROM, a RAM, and the like. The moving image data dividing unit 131 divides the moving image data transmitted from the moving image data acquiring unit 101 into image data and audio data. The moving image data division unit 131 transmits the obtained moving image data to the frame image generation unit 109, the face detection unit 133, the scene transition detection unit 135, and the camera work detection unit 137. In addition, the moving image data division unit 131 transmits the obtained audio data to the audio analysis unit 139.

顔検出部133は、例えば、CPU、ROM、RAM等から構成されている。顔検出部133は、動画を構成する全てのフレーム画像について、当該フレーム画像中に存在する人物の顔を検出する。また、顔検出部133は、フレーム画像中に人物の顔が存在している場合には、画像中に存在する顔の数、存在する顔が笑顔かどうか、顔の位置、顔が向いている方向、顔のズームアップがあるか、といった顔に関連する様々な情報について、更に検出を行なう。顔検出部133は、上述のような検出を行なうにあたって、例えば、記憶部117等に予め格納されている検出用データベース等を参照したり、検出用のプログラム等を実行したりすることが可能である。   The face detection unit 133 is configured by, for example, a CPU, a ROM, a RAM, and the like. The face detection unit 133 detects the face of a person existing in the frame image for all the frame images constituting the moving image. Further, when a human face is present in the frame image, the face detection unit 133 determines the number of faces present in the image, whether the existing face is a smile, the position of the face, and the face. Further detection is performed for various information related to the face, such as the direction and whether the face is zoomed up. When performing the detection as described above, the face detection unit 133 can refer to, for example, a detection database stored in advance in the storage unit 117 or the like, or can execute a detection program or the like. is there.

上述のような検出結果のうち、顔の有無、笑顔か否か、ズームアップがあるかといった「あり・なし」の2値で結果を表すことが可能な場合には、顔検出部133は、「あり」の場合には値「1」を出力し、「なし」の場合には値「0」を出力する。また、顔が向いている方向や、画像中に存在する顔の数といったものについては、顔検出部133は、これらの検出結果そのものを出力してもよく、予め規定された変換方法に則って検出結果をある値へと変換したものを検出結果として出力してもよい。   Among the detection results as described above, when the result can be expressed by binary values of “presence / absence” such as presence / absence of a face, smile / no smile, and zoom-up, the face detection unit 133 The value “1” is output when “present”, and the value “0” is output when “not present”. In addition, the face detection unit 133 may output these detection results themselves, such as the direction in which the face is facing or the number of faces present in the image, and in accordance with a predetermined conversion method. The detection result converted into a certain value may be output as the detection result.

顔検出部133は、これらの検出結果を、後述する動画メタデータ生成部141へと伝送する。   The face detection unit 133 transmits these detection results to the moving image metadata generation unit 141 described later.

シーン遷移検出部135は、例えば、CPU、ROM、RAM等から構成されている。シーン遷移検出部135は、動画を構成する全てのフレーム画像について、シーンの移り変わりが生じているか否かを検出し、検出結果をシーンチェンジスコアという値として出力する。シーンチェンジスコアとは、現在着目しているフレーム画像が、一つ前のフレーム画像からどの程度異なっているかを表した数値である。換言すれば、シーンチェンジスコアとは、現在着目しているフレーム画像と一つ前のフレーム画像との類似度ともいえる。このシーンチェンジスコアは、例えば、色ヒストグラムによって定義することができる。シーン遷移検出部135は、上述のような検出を行なうにあたって、例えば、記憶部117等に予め格納されているシーン遷移検出用データベース等を参照したり、検出用のプログラム等を実行したりすることが可能である。   The scene transition detection unit 135 is constituted by, for example, a CPU, a ROM, a RAM, and the like. The scene transition detection unit 135 detects whether or not a scene transition has occurred for all the frame images constituting the moving image, and outputs the detection result as a value called a scene change score. The scene change score is a numerical value indicating how much the currently focused frame image differs from the previous frame image. In other words, the scene change score can be said to be the degree of similarity between the currently focused frame image and the previous frame image. This scene change score can be defined by a color histogram, for example. In performing the detection as described above, the scene transition detection unit 135 refers to, for example, a scene transition detection database stored in advance in the storage unit 117 or the like, or executes a detection program or the like. Is possible.

シーン遷移検出部135は、得られたシーンチェンジスコアを、後述する動画メタデータ生成部141に伝送する。   The scene transition detection unit 135 transmits the obtained scene change score to the moving image metadata generation unit 141 described later.

カメラワーク検出部137は、例えば、CPU、ROM、RAM等から構成されている。カメラワーク検出部137は、動画を構成する全てのフレーム画像について、動画を撮像する際にビデオカメラ等の撮像装置をどのように動かしたかを表すカメラワークを検出する。より具体的には、カメラワーク検出部137は、例えば、現在着目しているフレーム画像と、一つ前のフレーム画像とを比較して、撮像装置が移動した方向と距離とを検出する。この際に、カメラワーク検出部137は、シーン遷移検出部135の検出結果に基づいて、カメラワークの検出処理を行ってもよい。また、カメラワーク検出部137は、例えば、記憶部117等に予め格納されているカメラワーク検出用データベース等を参照したり、検出用のプログラム等を実行したりすることが可能である。   The camera work detection unit 137 includes, for example, a CPU, a ROM, a RAM, and the like. The camera work detection unit 137 detects camera work indicating how an imaging device such as a video camera is moved when capturing a moving image for all frame images constituting the moving image. More specifically, the camera work detection unit 137 detects, for example, the direction and distance in which the imaging apparatus has moved by comparing the currently focused frame image with the previous frame image. At this time, the camera work detection unit 137 may perform a camera work detection process based on the detection result of the scene transition detection unit 135. The camera work detection unit 137 can refer to a camera work detection database or the like stored in advance in the storage unit 117 or execute a detection program or the like, for example.

ここで、撮像装置が移動した距離は、例えば、フレーム間に移動する画像のピクセル数として表すことが可能である。このようにして検出されるカメラワークとして、例えば、フィックス、パン、ティルト、ロール、ズームイン・ズームアウト等がある。ここで、フィックスとは、撮像装置を固定して撮像したことを意味する。また、パン(Panoramic Viewing)は、撮像装置を水平方向に移動して撮像したことを意味し、ティルト(Tilt)は、撮像装置を垂直方向に振って撮像したことを意味する。また、ロールとは、ある軸を中心として撮像装置を回転させて撮像したことを意味する。   Here, the distance traveled by the imaging device can be expressed as, for example, the number of pixels of an image that moves between frames. Examples of camera work detected in this way include fix, pan, tilt, roll, zoom in / zoom out, and the like. Here, the term “fix” means that an image is taken with the imaging device fixed. Further, pan (panoramic viewing) means that the image pickup apparatus is moved in the horizontal direction and the image is picked up, and tilt means that the image pickup apparatus is shaken in the vertical direction and picked up. In addition, the roll means that an image is picked up by rotating the imaging device around a certain axis.

カメラワーク検出部137は、上述のようなカメラワークの検出結果を、後述する動画メタデータ生成部141に伝送する。   The camera work detection unit 137 transmits the camera work detection result as described above to the moving image metadata generation unit 141 described later.

音声解析部139は、例えば、CPU、ROM、RAM等から構成されている。音声解析部139は、動画データ分割部131から伝送された音声データを解析し、動画に付随している音声データに関する特徴量を算出する。より具体的には、音声解析部139は、動画を構成する全てのフレーム画像に対応付けられた音声データの中に、以下のような音声が存在するか否かを解析する。すなわち、音声解析部139は、音声データが、会話なのか、笑い声なのか、「おおー」のような歓声なのか、「パーン」などといった破裂音(擬音語)なのか、拍手のような称賛を表す音なのか、音楽なのかなどといった、音声データの分類処理を行う。このような音声データの分類処理は、例えば、記憶部117等に予め格納されている音声解析用データベース等を参照したり、音声解析用のプログラム等を実行したりすることで実行可能である。   The voice analysis unit 139 includes, for example, a CPU, a ROM, a RAM, and the like. The audio analyzing unit 139 analyzes the audio data transmitted from the moving image data dividing unit 131 and calculates a feature amount related to the audio data attached to the moving image. More specifically, the sound analysis unit 139 analyzes whether or not the following sound exists in the sound data associated with all the frame images constituting the moving image. In other words, the voice analysis unit 139 praises the applause as to whether the voice data is conversation, laughter, cheers like “Oo”, plosives such as “Phan”, etc. Audio data classification processing, such as whether the sound represents music or music. Such voice data classification processing can be executed, for example, by referring to a voice analysis database or the like stored in advance in the storage unit 117 or by executing a voice analysis program or the like.

また、音声解析部139は、音声データの音量についても解析を行い、例えば音量を数値化して出力してもよい。また、音声解析部139は、音声データが会話や笑い声などのように、人間によって生じたものであれば、声を発した人物が、男性なのか、女性なのか、子供なのか、といった点についても解析を行うことが可能である。これらの解析は、例えば、音声を表したスペクトル等を参照して、該当する波形の振幅や、音声データの周波数等を解析することで行なうことが可能である。   The voice analysis unit 139 may also analyze the volume of the voice data, for example, convert the volume into a numerical value and output it. In addition, the voice analysis unit 139 determines whether the voiced person is a man, a woman, or a child if the voice data is generated by a person such as a conversation or a laughter. Can also be analyzed. These analyzes can be performed, for example, by analyzing the amplitude of the corresponding waveform, the frequency of the audio data, etc. with reference to a spectrum representing the audio.

音声解析部139は、上述のような解析結果を、動画メタデータ生成部141に伝送する。   The audio analysis unit 139 transmits the analysis result as described above to the moving image metadata generation unit 141.

動画メタデータ生成部141は、例えば、CPU、ROM、RAM等から構成されている。動画メタデータ生成部141は、顔検出部133、シーン遷移検出部135、カメラワーク検出部137、音声解析部139等から伝送されたそれぞれの検出結果や解析結果を取りまとめて、動画を特徴付ける特徴量に関する動画メタデータを生成する。   The moving image metadata generation unit 141 includes, for example, a CPU, a ROM, a RAM, and the like. The moving image metadata generation unit 141 collects the detection results and analysis results transmitted from the face detection unit 133, the scene transition detection unit 135, the camera work detection unit 137, the audio analysis unit 139, etc., and characterizes the moving image Generate video metadata for.

図5は、動画メタデータ生成部141により生成される動画メタデータに含まれる検出結果や解析結果の一例を図示したものである。図5に示したように、動画メタデータには、画像データから抽出された特徴量に関するメタデータと、音声データから抽出された特徴量に関するメタデータとが含まれる。図6は、動画メタデータに含まれる複数の特徴量のうち、「顔の有無」、「顔の多少」、「会話の有無」、「笑い声の有無」に関する特徴量について、図示したものである。図6では、各特徴量の値を、グラフで図示している。図6に示した各グラフにおいて、横軸は動画データに関連付けられた時刻、または、動画を構成するフレーム画像に便宜的に付与された番号を表し、縦軸は特徴量を現している。なお、図6においては、各特徴量が1または0である場合について図示しているが、各特徴量が0または1以外の連続値となる場合であっても、同様に適用することが可能である。   FIG. 5 illustrates an example of detection results and analysis results included in the moving image metadata generated by the moving image metadata generation unit 141. As shown in FIG. 5, the moving image metadata includes metadata relating to feature amounts extracted from image data and metadata relating to feature amounts extracted from audio data. FIG. 6 illustrates the feature quantities related to “face presence / absence”, “some face”, “conversation presence / absence”, and “laughing voice presence / absence” among a plurality of feature quantities included in the moving image metadata. . In FIG. 6, the value of each feature amount is illustrated in a graph. In each graph shown in FIG. 6, the horizontal axis represents the time associated with the moving image data or the number assigned for convenience to the frame image constituting the moving image, and the vertical axis represents the feature amount. Although FIG. 6 illustrates the case where each feature amount is 1 or 0, the present invention can be similarly applied even when each feature amount is a continuous value other than 0 or 1. It is.

図6に示したように、動画メタデータには、動画を構成する全ての画像と、画像に対応付けられた音声について、各特徴量の値が時系列に沿って個別に記載されている。また、動画メタデータは、図6に示したようなグラフ状になっている必要はなく、動画を構成するフレーム画像に便宜的に付与された番号を見出し(カラム)として、表の形式で各特長量が記載されていてもよい。   As shown in FIG. 6, in the moving image metadata, the values of the feature amounts are individually described in time series for all the images constituting the moving image and the sound associated with the images. In addition, the moving image metadata does not need to be in the form of a graph as shown in FIG. 6, and each number is given in the form of a table with headings (columns) given as numbers for convenience to the frame images constituting the moving image. The feature amount may be described.

動画メタデータ生成部141は、上述のようにして生成された動画メタデータを、コミック表示変換部107に伝送する。   The moving image metadata generation unit 141 transmits the moving image metadata generated as described above to the comic display conversion unit 107.

なお、上述のような各処理部が行う解析方法はあくまでも一例であって、上述の例に限定されるわけではない。また、動画解析部103は、上述の処理部以外にも、生成したい動画メタデータに応じて、様々な解析部を更に備えても良い。   The analysis method performed by each processing unit as described above is merely an example, and is not limited to the above example. In addition to the above-described processing unit, the moving image analysis unit 103 may further include various analysis units according to moving image metadata to be generated.

[コミック表示変換部107の構成について]
次に、図7〜22を参照しながら、本実施形態に係るコミック表示変換部107の構成について、詳細に説明する。まず、図7を参照しながら、コミック表示変換部107の全体構成について、詳細に説明する。図7は、本実施形態に係るコミック表示変換部107の構成を説明するためのブロック図である。
[Composition of comic display conversion unit 107]
Next, the configuration of the comic display conversion unit 107 according to the present embodiment will be described in detail with reference to FIGS. First, the overall configuration of the comic display conversion unit 107 will be described in detail with reference to FIG. FIG. 7 is a block diagram for explaining the configuration of the comic display conversion unit 107 according to the present embodiment.

コミック表示変換部107は、例えば図7に示したように、ダイジェストスコア算出部151と、サムネイル枚数決定部153と、カメラワークメタデータ利用部155と、画像サイズ決定部157と、コマ画像配置部159と、エフェクト画像配置部161とを備える。また、コミック表示変換部107は、上述の処理部によって生成された各種の情報を取りまとめ、コマ情報を生成するコマ情報生成部163を更に備える。   For example, as shown in FIG. 7, the comic display conversion unit 107 includes a digest score calculation unit 151, a thumbnail number determination unit 153, a camera work metadata use unit 155, an image size determination unit 157, and a frame image arrangement unit. 159 and an effect image arrangement unit 161. The comic display conversion unit 107 further includes a frame information generation unit 163 that collects various types of information generated by the above-described processing unit and generates frame information.

ダイジェストスコア算出部151は、例えば、CPU、ROM、RAM等から構成されている。ダイジェストスコア算出部151は、伝送された動画メタデータに基づき、動画を構成する複数の画像それぞれに対して、複数の特徴量を重み付け加算した値であるダイジェストスコア(以下、DSと略記することもある。)を算出する。   The digest score calculation unit 151 includes, for example, a CPU, a ROM, a RAM, and the like. The digest score calculation unit 151 is a digest score (hereinafter abbreviated as DS), which is a value obtained by weighting and adding a plurality of feature amounts to each of a plurality of images constituting a movie based on the transmitted movie metadata. Yes.)

例えば図8に示したように、ダイジェストスコアの算出に用いられる動画メタデータ中の特徴量に対して、予め重み付け係数が設定されている。図8では、顔の有無に関する特徴量Faceには、重み付け係数0.7が設定されており、顔の個数の多少に関する特徴量FaceCountsには、重み付け係数1.2が設定されている。また、顔のズームの有無に関する特徴量FaceZoomには、重み付け係数1.5が設定されており、笑顔の有無に関する特徴量FaceSmileには、重み付け係数1.0が設定されている。   For example, as shown in FIG. 8, a weighting coefficient is set in advance for the feature amount in the moving image metadata used for calculating the digest score. In FIG. 8, a weighting coefficient 0.7 is set for the feature value Face relating to the presence or absence of a face, and a weighting factor 1.2 is set for the feature value FaceCounts relating to the number of faces. A weighting factor of 1.5 is set for the feature value FaceZoom related to the presence or absence of the face zoom, and a weighting factor of 1.0 is set to the feature value FaceSmile related to the presence or absence of a smile.

また、上述のような画像データに関する動画メタデータだけでなく、音声データに関する動画メタデータに対しても、同様に重み付け係数が設定されている。例えば図8では、会話の有無に関する特徴量Speechには、重み付け係数1.0が設定されており、笑い声の有無に関する特徴量Laughterには、重み付け係数2.2が設定されている。また、歓声の有無に関する特徴量Cheeringには、重み付け係数3.6が設定されており、破裂音の有無に関する特徴量Clappingには、重み付け係数1.8が設定されている。また、称賛の有無に関する特徴量Applauseには、重み付け係数2.7が設定されており、音楽の有無に関する特徴量Musicには、重み付け係数1.2が設定されている。   Further, not only the moving image metadata related to the image data as described above, but also the moving image metadata related to the audio data is set with the same weighting coefficient. For example, in FIG. 8, the weighting coefficient 1.0 is set for the feature amount Speech regarding the presence / absence of conversation, and the weighting factor 2.2 is set for the feature amount Laughter regarding the presence / absence of laughter. In addition, a weighting coefficient 3.6 is set for the feature amount Cheering regarding the presence or absence of cheers, and a weighting factor 1.8 is set for the feature amount Clapping regarding the presence or absence of a plosive sound. In addition, a weighting coefficient 2.7 is set for the feature quantity Applase regarding the presence / absence of praise, and a weighting coefficient 1.2 is set for the feature quantity Musical regarding the presence / absence of music.

これらの重み付け係数と、動画メタデータに含まれるそれぞれの特徴量とを用いて、ダイジェストスコアDSは、特徴量に当該特徴量に関する重み付け係数をかけたものを、DSの算出に用いられる特徴量全てについて足し合わせたものとして算出される。   Using these weighting coefficients and each feature quantity included in the moving image metadata, the digest score DS is obtained by multiplying the feature quantity by the weighting coefficient related to the feature quantity, and all the feature quantities used for calculating the DS. It is calculated as the sum of.

ここで、図8に示した重み付け係数は、各特徴量が映像シーンでの盛上りにどれだけ寄与するかを示す係数である。図8の例では、顔のズームの有無に関する特徴量、笑い声の有無に関する特徴量、歓声の有無に関する特徴量、破裂音の有無に関する特徴量、称賛の有無に関する特徴量それぞれに対する重み付け係数が、相対的に大きな値に設定されている。これは、これらの音声がある映像シーンや、人がズームアップされている映像シーン等は、「面白い」または「盛り上がっている」ことが多いという経験則に基づくものである。また、統計的な学習によって求められたパラメータを重み付け係数として用いるようにしてもよく、ユーザがそれぞれの重み付け係数を自身で入力して設定するようにしてもよい。また、これらの重み付け係数は、ユーザからのフィードバックにより更新されるようにしてもよい。   Here, the weighting coefficient shown in FIG. 8 is a coefficient indicating how much each feature amount contributes to the climax in the video scene. In the example of FIG. 8, the weighting coefficients for the feature amount regarding the presence / absence of the zoom of the face, the feature amount regarding the presence / absence of the laughing voice, the feature amount regarding the presence / absence of the cheer, the feature amount regarding the presence / absence of the plosive, Is set to a large value. This is based on an empirical rule that video scenes with these sounds and video scenes in which a person is zoomed in are often “interesting” or “exciting”. Further, a parameter obtained by statistical learning may be used as a weighting coefficient, or a user may input and set each weighting coefficient by himself / herself. Further, these weighting coefficients may be updated by feedback from the user.

このように、様々な動画メタデータに重み付けすることによって、多様な特徴が生じているシーンを盛り上がりシーンとして抽出することができ、盛り上がりシーンを、動画の特徴を反映させながら自動的に検出することが可能となる。   In this way, by weighting various video metadata, it is possible to extract scenes with various characteristics as exciting scenes, and automatically detect the exciting scenes while reflecting the characteristics of the animation Is possible.

ダイジェストスコア算出部151は、このようにして算出されたダイジェストスコアDSを、後述するサムネイル枚数決定部153に伝送する。   The digest score calculation unit 151 transmits the digest score DS calculated in this way to the thumbnail number determination unit 153 described later.

サムネイル枚数決定部153は、例えば、CPU、ROM、RAM等から構成されている。サムネイル枚数決定部153は、伝送されたダイジェストスコアに基づいて動画データを構成する複数の画像の中からコマに配置するサムネイル画像を抽出し、当該サムネイル画像の枚数を決定する。以下、サムネイル画像の抽出方法について、図9を参照しながら、詳細に説明する。   The thumbnail number determination unit 153 includes, for example, a CPU, a ROM, a RAM, and the like. The number-of-thumbnail determination unit 153 extracts thumbnail images to be arranged in a frame from a plurality of images constituting the moving image data based on the transmitted digest score, and determines the number of thumbnail images. Hereinafter, a method for extracting thumbnail images will be described in detail with reference to FIG.

上述のように、動画を構成する全てのフレーム画像に対して、ダイジェストスコア算出部151によりダイジェストスコアが算出されている。そこで、サムネイル枚数決定部153は、動画を構成する全てのフレーム画像について、ダイジェストスコアの分布と、着目している動画データにおけるダイジェストスコアの中央値(Median)を算出する。その後、サムネイル枚数決定部153は、例えば図9に示したように、算出した中央値以上のダイジェストスコアを有するフレーム画像を、サムネイル画像の候補として抽出する。このようにサムネイル画像の候補を抽出することで、ダイジェストスコアが低く、盛り上がっていないと思われるフレーム画像をカットしつつ、盛り上がりシーンを抽出することが可能となる。   As described above, the digest score is calculated by the digest score calculation unit 151 for all the frame images constituting the moving image. Therefore, the thumbnail number determination unit 153 calculates the distribution of the digest score and the median (Median) of the digest score in the moving image data of interest for all frame images constituting the moving image. Thereafter, as shown in FIG. 9, for example, the thumbnail number determination unit 153 extracts a frame image having a digest score equal to or greater than the calculated median value as a thumbnail image candidate. By extracting thumbnail image candidates in this manner, it is possible to extract a rising scene while cutting a frame image that has a low digest score and is not likely to be rising.

以下に、サムネイル枚数決定部153が、ダイジェストスコアが中央値以上のフレーム画像の中でどのコマをサムネイル画像として採用するかを、順を追って具体的に説明する。この際、単純にダイジェストスコアが中央値以上のフレーム画像を全て採用してしまうと、同じような画像のコマが大量に並んでしまい、コマの配置が単調になってしまうという問題が生じる。また、単純にダイジェストスコアが大きい順に採用するだけでは、同じようなサイズの大きなコマが並ぶだけで、ダイナミックなコマ割りにならない。そのため、なるべくそのような状況を避けるように、以下のようにしてサムネイル画像を選択する。   In the following, the thumbnail number determining unit 153 will be described in detail step by step which frame is used as a thumbnail image among frame images having a digest score greater than or equal to the median value. At this time, if all frame images having a digest score equal to or higher than the median value are simply adopted, a large number of frames with similar images are arranged, resulting in a problem that the arrangement of the frames becomes monotonous. Also, simply adopting the digest scores in the descending order only arranges large frames of the same size, and does not provide dynamic frame allocation. Therefore, in order to avoid such a situation as much as possible, a thumbnail image is selected as follows.

まず、サムネイル枚数決定部153は、動画メタデータに含まれるシーンチェンジスコアが、所定の閾値以上であるかどうかを判断する。シーンチェンジスコアが大きい場合、シーンが切り替わって別のシーンになったものとして、シーン切り替えを検出することが可能である。ここで、サムネイル枚数決定部153は、シーンチェンジスコアが閾値より大きい場合、カメラが大きく動いたことによるぶれた画像であると考え、サムネイル画像には採用せずに除去する。特に、プライベートビデオコンテンツでは、カメラが急激に動く場合、シーンチェンジスコアが急激に高くなる。このときの画像は、ぶれてしまってうまく映っていないことが多いため、サムネイル画像には使用しない。   First, the thumbnail number determination unit 153 determines whether or not the scene change score included in the moving image metadata is equal to or greater than a predetermined threshold. When the scene change score is large, it is possible to detect a scene change as if the scene has changed to another scene. Here, when the scene change score is larger than the threshold value, the thumbnail number determination unit 153 considers that the image is blurred due to a large movement of the camera, and removes it without adopting it as a thumbnail image. In particular, in private video content, when the camera moves suddenly, the scene change score increases rapidly. Since the image at this time is often blurred and does not appear well, it is not used for the thumbnail image.

次に、サムネイル枚数決定部153は、ダイジェストスコアの分布及び中央値を算出する。中央値は、上述のように、フレーム画像をサムネイル画像に採用するか判断するために用いられる。   Next, the thumbnail number determination unit 153 calculates the distribution and median of the digest scores. As described above, the median value is used to determine whether to adopt a frame image as a thumbnail image.

そして、サムネイル枚数決定部153は、サムネイル画像候補のフレーム画像数が所定の設定値m個以上ならば、閾値T=中央値とし、m個未満なら閾値T=ダイジェストスコアの最小値とする。ここで、上記設定値mは、例えば100程度に設定可能である。これは、再生時間が余りに短いビデオの場合に、表示フレーム数が極端に少なくなってしまうことを防止するための処理である。   Then, the thumbnail number determination unit 153 sets the threshold value T = the median value if the number of frame images of the thumbnail image candidates is equal to or larger than the predetermined setting value m, and sets the threshold value T = the minimum digest score if the number is less than m. Here, the set value m can be set to about 100, for example. This is a process for preventing the number of display frames from becoming extremely small in the case of a video whose playback time is too short.

次に、ダイジェストスコアがT未満か、同じ値が連続している候補については、サムネイル枚数決定部153は、採用しない。これは、ダイジェストスコアが高いフレームを盛り上がりシーンとして採用しており、さらに同じシーン内で盛り上がり度が同じフレームが連続して採用されてしまう状況を防ぐための処理である。盛り上がり度が同じフレームが連続してしまうと、同じ大きさの似たようなコマが連続して並んでしまい、単調な印象を与えるため、そのようなフレームは採用しない。   Next, the thumbnail number determination unit 153 does not employ a candidate whose digest score is less than T or the same value is continuous. This is a process for preventing a situation in which a frame with a high digest score is adopted as a climax scene and frames with the same climax are continuously adopted in the same scene. If frames with the same excitement level continue, similar frames of the same size will be lined up continuously, giving a monotonous impression, so such frames are not adopted.

その後、サムネイル枚数決定部153は、採用されたフレーム画像の総数を計算し、この総数が所定の閾値以上の場合は、間引き処理を行う。この際の閾値は、表示したいページ数に応じて決定される。採用されたフレームのうち、ページに入り切る分のみをサムネイル画像に採用する。例えば、サムネイル枚数決定部153は、フレーム画像をダイジェストスコアの大きさ順にソートして、一定間隔で間引くようにしてもよい。これにより、ダイジェストスコアの分布を保持しつつ間引き処理を行うことが可能である。   Thereafter, the thumbnail number determination unit 153 calculates the total number of adopted frame images, and performs a thinning process when the total number is equal to or greater than a predetermined threshold. The threshold value at this time is determined according to the number of pages to be displayed. Of the adopted frames, only the part that fits in the page is adopted for the thumbnail image. For example, the thumbnail number determination unit 153 may sort the frame images in the order of the digest score and thin them out at regular intervals. Thus, it is possible to perform the thinning process while maintaining the digest score distribution.

最後に、サムネイル枚数決定部153は、ダイジェストスコアが小さいコマが連続する場合の間引き処理を行う。動画のコミック表示を行う際、小さな似たようなコマが連続してしまうと、コマ割りが整然としてしまい、とても単調な印象を受けてしまう。サイズが小さいコマはダイジェストスコアも小さいため、このような部分を優先的に間引くことによって、よりコミックらしいコマ割りが可能になる。このようにして残ったフレーム画像を、サムネイル枚数決定部153は、コミック表示におけるコマ(すなわちサムネイル画像)として採用する。以下、このサムネイル画像のことを、代表フレーム(または代表フレーム画像)とも称することとする。   Finally, the thumbnail number determination unit 153 performs a thinning process when frames having a small digest score continue. When comics are displayed on a moving image, if similar frames appear in succession, the frame division becomes tidy and a very monotonous impression is received. Since frames with a small size also have a small digest score, it is possible to divide frames more like a comic by preferentially thinning out such portions. The frame number remaining in this manner is used by the thumbnail number determination unit 153 as a frame (that is, a thumbnail image) in comic display. Hereinafter, this thumbnail image is also referred to as a representative frame (or representative frame image).

また、サムネイル枚数決定部153は、上述のようにしてサムネイル画像として利用するフレーム画像を選択すると、続いて、コマ内におけるサムネイル画像のアニメーション用に利用する画像(以下、アニメーションフレーム画像とも称する。)を選択する。より詳細には、サムネイル枚数決定部153は、例えば図10に示したように、抽出されたサムネイル画像(代表フレーム画像)に時間的に連続する所定の時間分のフレーム画像を、アニメーションフレーム画像として抽出する。また、アニメーションフレーム画像の抽出に際しては、ダイジェストスコアの大きさには着目しない。抽出に利用される「所定の時間」は、任意の値に設定することが可能であるが、例えば、代表フレームとあわせてアニメーション時間が1秒程度となるような値に設定する。例えば、動画データのフレームレートが30FPS(Flames Per Second)である場合には、1秒分のフレーム画像の個数は、約30フレームとなる。   In addition, when the thumbnail number determination unit 153 selects a frame image to be used as a thumbnail image as described above, an image used for animation of the thumbnail image in the frame (hereinafter also referred to as an animation frame image). Select. More specifically, as shown in FIG. 10, for example, the thumbnail number determination unit 153 uses, as animation frame images, frame images for a predetermined time that are temporally continuous to the extracted thumbnail images (representative frame images). Extract. Further, when extracting the animation frame image, attention is not paid to the size of the digest score. The “predetermined time” used for the extraction can be set to an arbitrary value. For example, the “predetermined time” is set to a value such that the animation time is about 1 second together with the representative frame. For example, when the frame rate of the moving image data is 30 FPS (Frames Per Second), the number of frame images for one second is about 30 frames.

サムネイル枚数決定部153は、上述のようにして抽出したサムネイル画像(代表フレーム)およびサムネイル画像の枚数に関する情報と、アニメーションフレーム画像とに関する情報を、枚数情報とする。ここで、サムネイル画像およびサムネイル画像の枚数に関する情報には、例えば、動画フレームにおいて先頭から何番目に位置するフレーム画像がサムネイル画像として選択され、サムネイル画像の枚数が全体で何枚なのかといった情報が記載されている。サムネイル枚数決定部153は、この枚数情報を、後述する画像サイズ決定部157と、コマ情報生成部163とに伝送する。   The number-of-thumbnail determination unit 153 uses the information regarding the thumbnail image (representative frame) and the number of thumbnail images extracted as described above and the information regarding the animation frame image as the number-of-images information. Here, the information on the number of thumbnail images and the number of thumbnail images includes, for example, information such as how many frame images from the top of the moving image frame are selected as thumbnail images, and how many thumbnail images are in total. Have been described. The thumbnail number determination unit 153 transmits this number information to an image size determination unit 157 and a frame information generation unit 163 described later.

また、上述の説明では、サムネイル枚数決定部153が、アニメーションフレーム画像を、予め設定された時間分となるように選択する場合について説明した。しかしながら、選択されるアニメーションフレーム画像の枚数を、動画メタデータに含まれるカメラワークに関する特徴量を用いて、動的に変化させることも可能である。この処理は、例えば、以下で説明するカメラワークメタデータ利用部155において実行される。   Further, in the above description, the case where the thumbnail number determination unit 153 selects the animation frame image so as to be a preset time has been described. However, it is also possible to dynamically change the number of animation frame images to be selected by using the feature amount relating to camera work included in the moving image metadata. This process is executed, for example, in the camera work metadata utilization unit 155 described below.

カメラワークメタデータ利用部155は、例えば、CPU、ROM、RAM等から構成されている。カメラワークメタデータ利用部155は、カメラワークに関する動画メタデータに基づいて、サムネイル枚数決定部153によりアニメーションフレーム画像として抽出される画像の枚数を決定する。   The camera work metadata usage unit 155 is constituted by, for example, a CPU, a ROM, a RAM, and the like. The camera work metadata utilization unit 155 determines the number of images extracted as an animation frame image by the thumbnail number determination unit 153 based on moving image metadata related to camera work.

まず、カメラワークメタデータ利用部155の説明をするに先立ち、カメラワークを考慮しないでアニメーションフレーム画像を選択した場合に、どのような現象が生じるのかを簡単に説明する。   First, prior to the description of the camerawork metadata usage unit 155, a brief description will be given of what phenomenon occurs when an animation frame image is selected without considering camerawork.

例えば図1に示したように、マウスポインタ等の位置選択オブジェクトを画像に重ねることによって開始されるアニメーション(サムネイルアニメーション)は、動画全体の内容把握に有用であり、動画内容のインデックスや要約として利用可能である。しかし、カメラワークを考慮せずに単純にアニメーションを再生した場合には、カメラが大きく動いて画面が大幅に切り替わると、画面(すなわちコマ)が小さいために見づらくなり、アニメーション自体が不自然に見えてしまう可能性がある。また、画像が急激に変化する場合(例えば、画面に映る人物が急に切り替わってしまう場合)には、動画内容の要約としてのアニメーションのストーリー自体が破綻する可能性もある。また、単純にアニメーションを再生するだけでは、アニメーションが単調に見える可能性もある。そのため、カメラが大きく動いている部分はアニメーションからカットし、シーンが切り替わったら再生も切り替えるといった工夫が必要となる。そこで、本実施形態では、以下で説明するようなカメラワークメタデータ利用部155を設けることで、カメラワークを考慮したアニメーションフレーム画像の選択が可能となる。   For example, as shown in FIG. 1, an animation (thumbnail animation) that is started by overlaying a position selection object such as a mouse pointer on an image is useful for grasping the content of the entire video, and is used as an index or summary of the video content. Is possible. However, if you simply play the animation without taking camerawork into consideration, if the camera moves greatly and the screen changes significantly, the screen (that is, the frame) becomes small and difficult to see, and the animation itself looks unnatural. There is a possibility that. In addition, when the image changes abruptly (for example, when a person on the screen suddenly changes), there is a possibility that the animation story itself as a summary of the moving image content fails. Also, simply playing the animation can make the animation appear monotonous. For this reason, it is necessary to devise a method in which a portion where the camera is moving greatly is cut from the animation and playback is switched when the scene is switched. Therefore, in the present embodiment, by providing a camera work metadata utilization unit 155 as described below, it is possible to select an animation frame image considering camera work.

カメラワークメタデータ利用部155には、サムネイル枚数決定部153から枚数情報が伝送される。カメラワークメタデータ利用部155は、枚数情報に記載されているアニメーションフレーム画像に関する動画メタデータに記載されているカメラワークに関する特徴量に基づいて、カメラワークの積分値を算出する。ここで、カメラワークの積分値は、カメラワークの絶対値を積分して得られるものと、カメラワークの値そのものを(絶対値を考慮せずに)積分して得られるものの2種類が存在するが、本実施形態では、いずれの積分値も利用することが可能である。なお、カメラワークの絶対値の積分値は、カメラが移動した距離の総和を意味する。絶対値を考慮しない積分値を用いる場合には、カメラが移動元の位置・向きに戻ると、カメラワークの積分値は0となってしまい、初期位置からの相対値でしかカメラワーク量を評価できない。しかしながら、手振れやノイズによる影響に強いという特長がある。また、カメラワークの絶対値の積分値を用いる場合には、手振れやノイズによる影響を受ける場合があるものの、カメラがどのような方向に動いたとしても積分値は常に増加することとなり、カメラの総移動距離から容易に積分値を評価できるという特長がある。   The number information is transmitted from the thumbnail number determination unit 153 to the camera work metadata utilization unit 155. The camera work metadata utilization unit 155 calculates an integrated value of the camera work based on the feature amount related to the camera work described in the moving image metadata related to the animation frame image described in the number information. Here, there are two types of integral values of camera work, one obtained by integrating the absolute value of camera work and one obtained by integrating the camera work value itself (without considering the absolute value). However, in the present embodiment, any integral value can be used. Note that the integral value of the absolute value of camera work means the sum of distances moved by the camera. When using an integral value that does not take into account the absolute value, when the camera returns to the original position / orientation, the camera work integral value becomes 0, and the camera work amount is evaluated only with the relative value from the initial position. Can not. However, it has a feature that it is strong against the effects of camera shake and noise. In addition, when using the integral value of the absolute value of camera work, it may be affected by camera shake or noise, but the integral value will always increase no matter what direction the camera moves. The feature is that the integrated value can be easily evaluated from the total moving distance.

カメラワークメタデータ利用部155は、算出したカメラワークの積分値と、予め設定されている閾値THとを用いて、アニメーションフレーム画像の枚数を決定する。以下では、図11を参照しながら、カメラワークメタデータ利用部155によるアニメーションフレーム画像の枚数の決定方法について、詳細に説明する。なお、図11は、カメラワークの絶対値の積分値を用いてアニメーションフレーム画像の枚数を決定する方法について図示している。絶対値を考慮しないカメラワークの積分値を用いる場合には、積分値が負の値となる可能性があるため、閾値THを正負両方に絶対値が等しくなるように設定する(すなわち、閾値+THと−THとを設定する)ことで、枚数を決定可能である。   The camera work metadata utilization unit 155 determines the number of animation frame images using the calculated integral value of camera work and a preset threshold value TH. Hereinafter, a method for determining the number of animation frame images by the camera work metadata using unit 155 will be described in detail with reference to FIG. FIG. 11 illustrates a method of determining the number of animation frame images using the integral value of the absolute value of camera work. When using an integrated value of camera work that does not consider the absolute value, the integrated value may be a negative value. Therefore, the threshold value TH is set so that the absolute value is equal to both positive and negative values (that is, the threshold value + TH). And -TH) can be determined.

カメラワークメタデータ利用部155は、例えば図11に示したように、カメラワークの絶対値の積分値が所定の閾値TH以上となるフレームiを検出し、区間0〜iを所定の設定値nでn等分する。その後、カメラワークメタデータ利用部155は、i/nの値を利用して、アニメーションフレーム画像を選択する。例えば図11において、原点0が代表フレームの位置であるとすると、(i/n)、2×(i/n)、・・・、n×(i/n)=iの値に一番近いフレーム番号を有するフレーム画像が、アニメーションフレーム画像として選択される。   For example, as shown in FIG. 11, the camera work metadata utilization unit 155 detects a frame i in which the integral value of the absolute value of the camera work is equal to or greater than a predetermined threshold value TH, and sets a section 0 to i to a predetermined set value n. Divide into n equal parts. Thereafter, the camera work metadata utilization unit 155 selects an animation frame image using the value of i / n. For example, in FIG. 11, if the origin 0 is the position of the representative frame, (i / n), 2 × (i / n),..., N × (i / n) = i is closest to the value. A frame image having a frame number is selected as an animation frame image.

ここで、設定値nは、カメラワークの積分値に応じて決定される、アニメーションフレーム画像の枚数に対応する値であり、例えば、n=2〜12とし、積分値の値に応じて、n=2、4、8、12などの値に設定される。より詳細には、カメラワークの積分値が大きい場合には、nの値を小さな値とし、カメラワークの積分値が小さい場合には、nの値が大きな値に設定する。設定値nは、カメラワークの積分値を用いて任意の方法で決定することが可能であるが、例えば、以下のような基準でnを決定することができる。なお、以下の表記で、FPSは動画データのフレームレートを表す。   Here, the set value n is a value corresponding to the number of animation frame images determined according to the integrated value of camera work. For example, n = 2 to 12, and n is set according to the value of the integrated value. = 2, 4, 8, 12, etc. More specifically, when the integrated value of camera work is large, the value of n is set to a small value, and when the integrated value of camera work is small, the value of n is set to a large value. The set value n can be determined by an arbitrary method using the integrated value of camera work. For example, n can be determined based on the following criteria. In the following notation, FPS represents the frame rate of moving image data.

(1)カメラワークの積分値>(0.1×FPS×2)の場合:n=2
(2)(0.1×FPS×2)≧カメラワークの積分値>(0.1×FPS×1)の場合:n=4
(3)(0.1×FPS×1)≧カメラワークの積分値>(0.1×FPS×0.5)の場合:n=8
(4)(0.1×FPS×0.5)≧カメラワークの積分値の場合:n=12
(1) When integral value of camera work> (0.1 × FPS × 2): n = 2
(2) When (0.1 × FPS × 2) ≧ integral value of camera work> (0.1 × FPS × 1): n = 4
(3) When (0.1 × FPS × 1) ≧ camera work integral value> (0.1 × FPS × 0.5): n = 8
(4) (0.1 × FPS × 0.5) ≧ camera work integral value: n = 12

このように、アニメーションフレーム画像の枚数に相当する設定値nを決定することにより、カメラワークの大小に応じて、アニメーションフレーム画像を動的に決定することができる。すなわち、図11(a)に示したようにカメラワークが相対的に小さな場合には、カメラワークの積分値は、なかなか閾値THには達しない。そのため、カメラワークの積分値が閾値THに達した時点では、フレーム数は、30に近い値となる傾向にある。また、カメラワークの積分値が相対的に小さい場合には、設定値nは大きく設定されるため、相対的に広い区間0〜iから多くの画像が選択されることとなる。カメラワークが小さい画像は、画像自体があまり変化しないため、アニメーションフレーム画像の枚数を多くすることにより、より滑らかなアニメーション再生を行なうことができる。   In this way, by determining the set value n corresponding to the number of animation frame images, the animation frame image can be dynamically determined according to the size of the camera work. That is, as shown in FIG. 11A, when the camera work is relatively small, the integrated value of the camera work does not readily reach the threshold value TH. Therefore, the number of frames tends to be close to 30 when the integrated value of the camera work reaches the threshold value TH. Further, when the integral value of camera work is relatively small, the set value n is set to be large, so that many images are selected from relatively wide sections 0 to i. Since an image with a small camera work does not change much, the animation reproduction can be performed more smoothly by increasing the number of animation frame images.

また、図11(b)に示したようにカメラワークが相対的に大きな場合には、カメラワークの積分値は、容易に閾値THに達しうる。そのため、カメラワークの積分値が閾値THに達した時点では、値iは小さな値となる傾向にある。また、カメラワークの積分値が相対的に大きい場合には、設定値nは小さく設定されるため、相対的に狭い区間0〜iから選択される画像は少ない。カメラワークが大きな画像は、画像が大きく変化してしまうため、アニメーションの枚数nを小さくすることで、近接する(すなわち、類似度が高い)フレーム画像を選択することが可能となる。   When the camera work is relatively large as shown in FIG. 11B, the integrated value of the camera work can easily reach the threshold value TH. Therefore, when the integrated value of camera work reaches the threshold value TH, the value i tends to be small. When the integral value of camera work is relatively large, the set value n is set to be small, so that there are few images selected from the relatively narrow sections 0 to i. Since an image with a large camera work changes greatly, it is possible to select adjacent frame images (that is, a high similarity) by reducing the number n of animations.

また、カメラワークメタデータ利用部155は、カメラワークの積分値の大きさに応じて、サムネイル画像およびアニメーションフレーム画像からなるアニメーションの再生速度を設定する。より詳細には、カメラワークメタデータ利用部155は、選択されたアニメーションフレーム画像の枚数が多い場合には、再生速度を大きな値に設定して、アニメーションを速く再生する。また、カメラワークメタデータ利用部155は、選択されたアニメーションフレーム画像の枚数が少ない場合には、再生速度を小さな値に設定して、アニメーションをゆっくり再生する。具体的には、アニメーションの再生速度は、例えば以下のように設定される。   Also, the camera work metadata utilization unit 155 sets the playback speed of the animation composed of the thumbnail image and the animation frame image according to the magnitude of the integrated value of the camera work. More specifically, when the number of selected animation frame images is large, the camera work metadata utilization unit 155 sets the reproduction speed to a large value and reproduces the animation quickly. Further, when the number of selected animation frame images is small, the camera work metadata utilization unit 155 sets the reproduction speed to a small value and reproduces the animation slowly. Specifically, the animation playback speed is set as follows, for example.

(1)アニメーション枚数(n)が2枚以下の場合:再生速度=1(FPS)
(2)アニメーション枚数(n)が2枚超過4枚以下の場合:再生速度=2(FPS)
(3)アニメーション枚数(n)が4枚超過8枚以下の場合:再生速度=8(FPS)
(4)アニメーション枚数(n)が8枚超過の場合:再生速度=24(FPS)
(1) When the number of animations (n) is 2 or less: Playback speed = 1 (FPS)
(2) When the number of animations (n) is more than 2 and 4 or less: Playback speed = 2 (FPS)
(3) When the number of animations (n) is greater than 4 and less than or equal to 8: Playback speed = 8 (FPS)
(4) When the number of animations (n) exceeds eight: playback speed = 24 (FPS)

カメラワークメタデータ利用部155は、以上説明したような処理を行うことにより、複数のアニメーションフレーム画像の候補の中から類似するフレーム画像を採用することができ、急激なシーン切り替えを防止して自然なアニメーションを生成することができる。   The camerawork metadata utilization unit 155 can employ a similar frame image from among a plurality of animation frame image candidates by performing the processing as described above, and can prevent natural scene switching. Can produce simple animations.

次に、図7に戻って、画像サイズ決定部157について説明する。画像サイズ決定部157は、例えば、CPU、ROM、RAM等から構成されている。画像サイズ決定部157は、所定の表示領域に配置されるサムネイル画像の大きさを、ダイジェストスコアに基づいて決定する。   Next, returning to FIG. 7, the image size determination unit 157 will be described. The image size determination unit 157 is constituted by, for example, a CPU, a ROM, a RAM, and the like. The image size determination unit 157 determines the size of the thumbnail image arranged in the predetermined display area based on the digest score.

より詳細には、画像サイズ決定部157は、動画を構成する全ての画像について、例えば図12に示したように、ダイジェストスコア順にソートしなおす。その上で、画像サイズ決定部157は、ダイジェストスコアの上位数%(例えば、上位3%)は、外れ値(outlier)であるとして、画像サイズの決定には使用しない。その後、画像サイズ決定部157は、ダイジェストスコアが中央値以上かつ外れ値未満であるものを、ダイジェストスコアの大きさに応じてm分割し、画像のサイズをm段階生成する。ここで、設定値mの値は、画面上に表示させる表示領域の大きさ等に応じて任意の値に設定可能であるが、例えば、m=2,3程度とする。   More specifically, the image size determination unit 157 sorts all the images constituting the moving image in the order of the digest score as shown in FIG. 12, for example. In addition, the image size determination unit 157 determines that the upper number% (for example, upper 3%) of the digest score is an outlier, and does not use it for determining the image size. Thereafter, the image size determination unit 157 divides the digest score that is greater than or equal to the median value and less than the outlier value into m according to the digest score, and generates m stages of image sizes. Here, the value of the set value m can be set to an arbitrary value according to the size of the display area to be displayed on the screen.

図12には、画像のサイズを2段階に設定する場合について、図示している。ここで、図12における画像サイズBは、画像サイズAよりも小さい。画像サイズ決定部157は、サムネイル枚数決定部153から伝送された枚数情報に記載されているサムネイル画像について、当該画像のダイジェストスコアが、図12に示した画像サイズAの領域と、画像サイズBの領域のいずれに属しているかを判断する。画像サイズ決定部157は、この判断結果に応じて、枚数情報に記載されている全てのサムネイル画像について、画像サイズを決定する。このようにして画像サイズを決定することで、ダイジェストスコアが相対的に大きな画像は画像サイズが大きくなり、ダイジェストスコアが相対的に小さな画像は画像サイズが小さくなる。これにより、本実施形態に係る情報処理装置10では、盛り上がり度合いに応じて、画像サイズを自動的に決定することが可能である。   FIG. 12 illustrates the case where the image size is set in two stages. Here, the image size B in FIG. 12 is smaller than the image size A. For the thumbnail image described in the number information transmitted from the thumbnail number determination unit 153, the image size determination unit 157 has the digest score of the image of the area of the image size A shown in FIG. Determine which of the areas it belongs to. The image size determination unit 157 determines the image size for all the thumbnail images described in the number information in accordance with the determination result. By determining the image size in this way, an image having a relatively large digest score has a large image size, and an image having a relatively small digest score has a small image size. Thereby, in the information processing apparatus 10 according to the present embodiment, the image size can be automatically determined according to the degree of excitement.

また、画像サイズ決定部157は、選択されたサムネイル画像に対して、画像中に顔が存在することを表す動画メタデータが存在している場合には、顔が表示されている領域である顔領域を拡大表示するように、画像サイズを設定する。また、画像中に複数の顔領域が存在する場合には、画像サイズ決定部157は、全ての顔領域を含むように画像データのサイズを拡大処理する。   In addition, when there is moving image metadata indicating that a face exists in the image for the selected thumbnail image, the image size determination unit 157 determines the face that is the area in which the face is displayed. Set the image size so that the area is enlarged. When there are a plurality of face areas in the image, the image size determination unit 157 enlarges the size of the image data so as to include all the face areas.

例えば図13に示したように、顔領域が1つだけ存在するフレーム画像aがサムネイル画像として選択された場合には、画像サイズ決定部157は、顔領域を拡大表示するように、コミック表示画面における画像サイズを決定する。また、顔領域が2つ存在するフレーム画像bがサムネイル画像として選択された場合には、画像サイズ決定部157は、2つの顔領域を含むように画像を拡大処理する。   For example, as illustrated in FIG. 13, when the frame image a having only one face area is selected as the thumbnail image, the image size determination unit 157 displays the comic area so that the face area is enlarged. Determine the image size at. When the frame image b having two face areas is selected as the thumbnail image, the image size determination unit 157 enlarges the image so as to include the two face areas.

画像サイズ決定部157は、このようにして設定されたサムネイル画像のサイズ(ひいては、アニメーションフレーム画像のサイズ)に関する情報をコマ画像情報とし、後述するコマ画像配置部159およびコマ情報生成部163に伝送する。   The image size determination unit 157 uses the information related to the thumbnail image size (and thus the size of the animation frame image) set in this way as frame image information, and transmits the frame image information to the frame image arrangement unit 159 and the frame information generation unit 163 described later. To do.

続いて、図7に戻って、コマ画像配置部159について説明する。コマ画像配置部159は、例えば、CPU、ROM、RAM等から構成されている。コマ画像配置部159は、画像サイズが決定されたサムネイル画像を、所定の順序でコマに配置する。以下に、図14〜図17を参照しながら、コマ画像配置部159が行うコマ配置処理について、詳細に説明する。   Next, returning to FIG. 7, the frame image arrangement unit 159 will be described. The frame image arrangement unit 159 includes, for example, a CPU, a ROM, a RAM, and the like. The frame image arrangement unit 159 arranges the thumbnail images whose image sizes have been determined on the frames in a predetermined order. Hereinafter, the frame arrangement process performed by the frame image arrangement unit 159 will be described in detail with reference to FIGS. 14 to 17.

上述のように、コマ画像配置部159は、画像サイズが決定されたサムネイル画像を、表示領域上に動的に配置していく。この際、コマ画像配置部159は、ビデオの時系列順にサムネイル画像を配置していくことで、ビデオの内容を反映したコマ割りを実現する。一般のコミックにおいては、基本的に1ページ中に複数の行が存在し、それぞれの行には、複数のコマが含まれている。コミックの読者は、一行中に含まれるコマを左右に読み進め、一番端まで読んだら次の行に進んで、コミックの内容を把握していく。本手法では、実際のコミックと同様に、サムネイル画像を一行ごとに左右に配置していき、この行を上から下に向けて配置していく。   As described above, the frame image arrangement unit 159 dynamically arranges thumbnail images whose image sizes have been determined on the display area. At this time, the frame image arrangement unit 159 implements frame division that reflects the content of the video by arranging thumbnail images in chronological order of the video. In a general comic, a plurality of lines basically exist in one page, and each line includes a plurality of frames. Comic readers read the frames contained in one line to the left and right, read to the very end, go to the next line, and understand the contents of the comic. In this method, as in an actual comic, thumbnail images are arranged on the left and right for each line, and the lines are arranged from top to bottom.

なお、右綴じの本と同様のページめくり方向を実現する場合には、コマ画像配置部159は、ある行の中へサムネイル画像を配置していく際に、右側から左側へとサムネイル画像を配置していく。逆に、左綴じの本と同様のページめくり方向を実現する場合には、コマ画像配置部159は、ある行の中へサムネイル画像を配置していく際に、左側から右側へとサムネイル画像を配置していく。   When realizing the same page turning direction as a right-bound book, the frame image arrangement unit 159 arranges thumbnail images from the right side to the left side when arranging thumbnail images in a certain row. I will do it. Conversely, when realizing the same page turning direction as a left-bound book, the frame image arrangement unit 159 displays thumbnail images from the left side to the right side when arranging thumbnail images in a certain row. Place it.

図14は、サムネイル画像の配置例を示した説明図である。図14では、右綴じの本と同様のページめくり方向を想定し、表示領域301に16枚のサムネイル画像(図中では、Pic.1〜Pic.16で表記している。)が配置されている。なお、図14において、Pic.1〜Pic.16という番号付けは、動画の時系列に沿ったものであるとする。   FIG. 14 is an explanatory view showing an arrangement example of thumbnail images. 14, assuming the same page turning direction as a right-bound book, 16 thumbnail images (indicated as Pic. 1 to Pic. 16 in the drawing) are arranged in the display area 301. Yes. In FIG. 14, Pic. 1-Pic. The numbering of 16 is assumed to be along the time series of moving images.

この際、コマ画像配置部159は、サムネイル画像の最小の画像サイズの高さと同じ高さの領域を、配置単位枠501として設定する。この配置単位枠501が、サムネイル画像を配置する際の行となる。コマ画像配置部159は、この配置単位枠501を拡大しつつサムネイル画像を配置していくことで、図14に示したような画像配置を実現することが可能である。また、サムネイル画像を単純に配置しただけでは、画像と画像との間に隙間が生じてしまうことがある。そのため、そのような場合には、サムネイル画像を拡大表示して、コミックらしいコマ割りを実現する。   At this time, the frame image arrangement unit 159 sets an area having the same height as the minimum image size of the thumbnail image as the arrangement unit frame 501. This arrangement unit frame 501 is a line for arranging thumbnail images. The frame image arrangement unit 159 can realize the image arrangement as shown in FIG. 14 by arranging the thumbnail images while enlarging the arrangement unit frame 501. Further, if the thumbnail images are simply arranged, a gap may be generated between the images. Therefore, in such a case, the thumbnail image is enlarged and displayed, and a comic-like frame division is realized.

以下、図15〜図17を参照しながら、具体的に説明する。まず、コマ画像配置部159は、配置する画像の最小サイズ(最小の高さ)を基準として、配置単位枠501(以下、単位枠501とも称する。)を設定する。コマ画像配置部159は、この単位枠501を用いて、サムネイル画像を配置していく。   Hereinafter, a specific description will be given with reference to FIGS. First, the frame image arrangement unit 159 sets an arrangement unit frame 501 (hereinafter also referred to as a unit frame 501) based on the minimum size (minimum height) of an image to be arranged. The frame image arrangement unit 159 arranges thumbnail images using this unit frame 501.

図15(a)に示したように、コマ画像配置部159は、単位枠501よりサムネイル画像が小さいかどうか確認し、時系列に沿った最初のサムネイル画像である画像Pic.1を配置する。次に、コマ画像配置部159は、次のサムネイル画像Pic.2を配置する際に、単位枠501の高さと、サムネイル画像Pic.2の高さとを比較し、画像が配置できるかどうか確認する。図15(a)に示した例では、サムネイル画像Pic.1の高さとPic.2の高さは同一であるため、コマ画像配置部159は、サムネイル画像Pic.2を、Pic.1の右隣に配置する。   As shown in FIG. 15A, the frame image arrangement unit 159 confirms whether the thumbnail image is smaller than the unit frame 501, and the image Pic. 1 is placed. Next, the frame image arrangement unit 159 displays the next thumbnail image Pic. 2 is arranged, the height of the unit frame 501 and the thumbnail image Pic. Compare with the height of 2 to see if the image can be placed. In the example shown in FIG. 15A, the thumbnail image Pic. 1 and Pic. 2 have the same height, the frame image arrangement unit 159 displays the thumbnail image Pic. 2, Pic. 1 next to the right.

次に、図15(b)に示したように、単位枠501よりも大きな高さを有するサムネイル画像Pic.3を配置する場合について説明する。コマ画像配置部159は、単位枠501の高さと、サムネイル画像Pic.3の高さとを比較する。この場合に、サムネイル画像の高さは、単位枠501の高さよりも高いため、コマ画像配置部159は、図15(c)に示したように、単位枠501の高さを広げ、再びその行の先頭からサムネイル画像を再配置していく。   Next, as shown in FIG. 15B, the thumbnail image Pic. Having a height larger than the unit frame 501 is displayed. The case where 3 is arrange | positioned is demonstrated. The frame image arrangement unit 159 displays the height of the unit frame 501 and the thumbnail image Pic. Compare the height of 3. In this case, since the height of the thumbnail image is higher than the height of the unit frame 501, the frame image placement unit 159 increases the height of the unit frame 501 as shown in FIG. Rearrange thumbnail images from the beginning of the line.

コマ画像配置部159は、単位枠501よりサムネイル画像の高さが小さい場合は、サムネイル画像を配置できるかどうか確認する。サムネイル画像を配置可能な場合は、その場所に画像を配置し、配置した画像の一つ下の位置に配置位置を移動して、次のサムネイル画像を配置できるかどうか、確認する。その結果、図15(c)に示したように、Pic.1の下にPic.2が配置され、Pic.1およびPic.2の右隣に、Pic.3が配置されることとなる。   When the height of the thumbnail image is smaller than the unit frame 501, the frame image arrangement unit 159 checks whether the thumbnail image can be arranged. If a thumbnail image can be arranged, the image is arranged at that position, and the arrangement position is moved to a position below the arranged image to check whether the next thumbnail image can be arranged. As a result, as shown in FIG. 1 to Pic. 2 is arranged, Pic. 1 and Pic. 2 to the right of Pic. 3 will be arranged.

なお、図16(a)に示したように、サムネイル画像Pic.6を配置した場合に、単位枠501から下方向にはみ出す場合は、コマ画像配置部159は、単位枠501の大きさを変更して、変更した行のはじめからサムネイル画像を配置しなおす。この際、Pic.5の次に配置する画像Pic.6は画像サイズが大きいため、Pic.5の下方に配置しようとすると、単位枠501からはみ出してしまう。そのため、コマ画像配置部159は、サムネイル画像Pic.6をPic.5の右隣に配置する。このとき、図16(b)に示したように、一つ前の画像と現在の画像との間に隙間が生じてしまう場合には、コマ画像配置部159は、一つ前のサムネイル画像を拡大表示することで、隙間を埋める。すなわち、図16(b)に示したような場合には、図16(c)のようにPic.5を拡大表示することで、隙間を埋めるようにする。   As shown in FIG. 16A, the thumbnail image Pic. In the case where 6 is arranged, when the frame 501 protrudes downward from the unit frame 501, the frame image arrangement unit 159 changes the size of the unit frame 501, and arranges the thumbnail images from the beginning of the changed line. At this time, Pic. 5 next to the image Pic. 6 has a large image size. If it is arranged below 5, it will protrude from the unit frame 501. Therefore, the frame image arrangement unit 159 displays the thumbnail image Pic. 6 to Pic. 5 next to the right. At this time, as shown in FIG. 16B, when a gap is generated between the previous image and the current image, the frame image arrangement unit 159 displays the previous thumbnail image. Fill in the gaps by zooming in. That is, in the case as shown in FIG. 16B, as shown in FIG. By enlarging 5, the gap is filled.

また、図17(a)に示したように、画像を配置した場合に、表示領域301の右端を越えて右方向にはみ出す場合には、コマ画像配置部159は、現在の行は全て埋まったものとして、次の行に移る。コマ画像配置部159は、次の行において、上述のような方法で単位枠501の大きさを変更しながら、図17(b)に示したようにサムネイル画像Pic.4を配置する。この場合にも、図16の場合と同様に、一つ前の画像と現在の画像との間の隙間が生じた場合には、一つ前の画像の拡大表示によって隙間を埋める。図17に示した場合では、コマ画像配置部159は、図17(c)のように、Pic.3を拡大表示し、隙間が生じないようにする。   Also, as shown in FIG. 17A, when an image is arranged and when it protrudes rightward beyond the right end of the display area 301, the frame image arrangement unit 159 fills all the current lines. As a thing, move on to the next line. In the next row, the frame image placement unit 159 changes the size of the unit frame 501 by the method as described above, and as shown in FIG. 4 is arranged. Also in this case, as in the case of FIG. 16, when a gap is generated between the previous image and the current image, the gap is filled by enlarging the previous image. In the case shown in FIG. 17, the frame image placement unit 159 displays the Pic. 3 is enlarged so that no gap is generated.

コマ画像配置部159は、上述の説明のような手順でサムネイル画像を配置していき、全てのサムネイル画像を配置したら、配置処理を終了する。   The frame image arrangement unit 159 arranges the thumbnail images according to the procedure as described above, and when all the thumbnail images are arranged, the arrangement process ends.

コマ画像配置部159は、サムネイル画像の配置が終了すると、どのサムネイル画像をどのような大きさでどこに配置したのかを表す情報であるコマ配置情報を、後述するエフェクト画像配置部161と、コマ情報生成部163とに伝送する。また、画像配置の際に生じた隙間を埋めるためにサムネイル画像の拡大処理を実施した場合には、コマ画像配置部159は、その旨を画像サイズ決定部157やコマ情報生成部163に通知し、コマ画像情報の修正を要請してもよい。   When the arrangement of the thumbnail images is completed, the frame image arrangement unit 159 displays frame arrangement information, which is information indicating which thumbnail image is arranged in what size and where, the effect image arrangement unit 161 described later and the frame information. The data is transmitted to the generation unit 163. In addition, when the thumbnail image enlargement process is performed to fill the gap generated in the image arrangement, the frame image arrangement unit 159 notifies the image size determination unit 157 and the frame information generation unit 163 to that effect. The frame image information may be requested to be corrected.

なお、画像サイズ決定部157によるサムネイル画像のサイズ決定と、コマ画像配置部159によるサムネイル画像の配置についても、カメラワークを考慮して行なってもよい。例えば図18に示したように、Pic.1〜Pic.3の3枚のサムネイル画像が存在し、それぞれの画像についてカメラワークの向きが水平方向である場合(すなわち、カメラワークがパンである場合)を考える。この場合に、画像サイズ決定部157は、各サムネイル画像の大きさと形状を、カメラワークの向きとカメラワーク速度に応じて決定してもよい。また、コマ画像配置部159は、各サムネイル画像を、カメラワークの向きに沿って配置してもよい。   The thumbnail image size determination by the image size determination unit 157 and the thumbnail image arrangement by the frame image arrangement unit 159 may also be performed in consideration of camera work. For example, as shown in FIG. 1-Pic. Consider a case where there are three thumbnail images 3 and the camerawork direction is horizontal for each image (that is, the camerawork is pan). In this case, the image size determination unit 157 may determine the size and shape of each thumbnail image according to the camera work direction and the camera work speed. Further, the frame image arrangement unit 159 may arrange each thumbnail image along the direction of the camera work.

図18に示した例では、カメラワークがパンであるため、コマ画像配置部159は、図18の下段に示したように、各サムネイル画像を横方向に配置する。また、画像サイズ決定部157は、各サムネイル画像を縦長となるように処理し、サムネイル画像の幅をカメラワーク速度に応じて決定する。すなわち、カメラワーク速度が遅い場合には、サムネイル画像の幅を広く設定し、カメラワーク速度が速い場合には、サムネイル画像の幅を狭く設定する。   In the example shown in FIG. 18, since the camera work is pan, the frame image arrangement unit 159 arranges the thumbnail images in the horizontal direction as shown in the lower part of FIG. The image size determination unit 157 processes each thumbnail image so as to be vertically long, and determines the width of the thumbnail image according to the camera work speed. That is, when the camera work speed is slow, the thumbnail image width is set wide, and when the camera work speed is fast, the thumbnail image width is set narrow.

また、図19に示したように、カメラワークがティルトである場合には、コマ画像配置部159は、各サムネイル画像を縦方向に配置してもよい。また、画像サイズ決定部157は、各サムネイル画像を横長となるように処理し、サムネイル画像の高さをカメラワーク速度に応じて決定してもよい。   Also, as shown in FIG. 19, when the camera work is tilted, the frame image arrangement unit 159 may arrange the thumbnail images in the vertical direction. Further, the image size determination unit 157 may process each thumbnail image so as to be horizontally long and determine the height of the thumbnail image according to the camera work speed.

このように、カメラワークの向きと速度に応じて、画像サイズ、画像の形状および画像の配置方向を変更することで、より漫画的なサムネイル画像の表示を行うことが可能となる。   As described above, by changing the image size, the shape of the image, and the arrangement direction of the image in accordance with the direction and speed of the camera work, it becomes possible to display a more comical thumbnail image.

再び図7に戻って、エフェクト画像配置部161について説明する。エフェクト画像配置部161は、例えば、CPU、ROM、RAM等から構成されている。エフェクト画像配置部161は、サムネイル画像が配置されたコマに対して、動画メタデータに基づいて吹き出しおよび画面効果の少なくとも何れかを配置する。例えば、エフェクト画像配置部161は、動画データに含まれる音声データに関する動画メタデータを利用して、吹き出しおよび画面効果の少なくとも何れかを配置する。   Returning to FIG. 7 again, the effect image arrangement unit 161 will be described. The effect image arrangement unit 161 includes, for example, a CPU, a ROM, a RAM, and the like. The effect image arrangement unit 161 arranges at least one of a balloon and a screen effect based on the moving image metadata with respect to the frame on which the thumbnail image is arranged. For example, the effect image arrangement unit 161 arranges at least one of a balloon and a screen effect using moving image metadata regarding audio data included in the moving image data.

図20に、音声メタデータと吹き出しとの対応関係を示す。エフェクト画像配置部161は、図20に示したように、対応する音声メタデータを有するサムネイル画像が配置されたコマに対して吹き出しを配置する。これにより、本実施形態に係る情報処理装置10では、よりコミックらしい表現が可能になる。なお、吹き出しは、Web表示することを想定し、SWF形式などのベクターデータで実現してもよい。これにより、容量の節約と拡大縮小などのアニメーション処理を両立することが可能である。   FIG. 20 shows the correspondence between audio metadata and speech balloons. As shown in FIG. 20, the effect image arrangement unit 161 arranges a balloon for a frame on which a thumbnail image having corresponding audio metadata is arranged. Thereby, in the information processing apparatus 10 according to the present embodiment, a more comic-like expression is possible. Note that the balloon may be realized by vector data in the SWF format, assuming that it is displayed on the Web. Thereby, it is possible to achieve both animation processing such as capacity saving and enlargement / reduction.

また、サムネイル画像に、顔が存在する旨の動画メタデータが存在している場合には、エフェクト画像配置部161は、吹き出しが顔領域にかからないように配置する。これにより、よりコミックらしいコミック表示画像を作成することができる。こうすることで、その人の台詞を表しているように、所定の吹き出しを表現することが可能となる。具体的には、エフェクト画像配置部161は、まずコマの縦横比を比較し、コマが縦長であれば吹き出しを上下に配置し、横長であれば左右に配置する。このとき、エフェクト画像配置部161は、顔領域の中心座標とコマの中心座標とを比較し、顔が存在する位置とは逆方向に吹き出しを配置する。例えばコマが縦長で顔領域の中心座標がコマの中心座標より下側に存在する場合は、エフェクト画像配置部161は、吹き出しをコマの上側に配置する。   If the thumbnail image includes moving image metadata indicating that a face is present, the effect image arrangement unit 161 arranges the balloon so that the balloon does not cover the face area. Thereby, it is possible to create a comic display image that is more like a comic. By doing so, it is possible to express a predetermined speech balloon as if it represents the person's dialogue. Specifically, the effect image placement unit 161 first compares the aspect ratios of the frames, and if the frames are vertically long, the balloons are vertically arranged, and if the frames are horizontally long, the effect images are arranged horizontally. At this time, the effect image arrangement unit 161 compares the center coordinates of the face area with the center coordinates of the frame, and arranges the balloon in the direction opposite to the position where the face exists. For example, when the frame is vertically long and the center coordinates of the face area are below the center coordinates of the frame, the effect image placement unit 161 places the balloon above the frame.

さらに、エフェクト画像配置部161は、音声メタデータの持続時間によって、吹き出しの大きさを変化させてもよい。例えば、持続時間が1秒以下、3秒以下、それ以上と3段階の大きさを設定し、音声が長く続けば続くほど、その音声メタデータの重要度は高いと判断することで、エフェクト画像配置部161は、より重要なシーンを強調して表現することが可能である。   Furthermore, the effect image arrangement unit 161 may change the size of the balloon depending on the duration of the audio metadata. For example, if the duration is set to 1 second or less, 3 seconds or less, more than 3 levels, and the longer the sound continues, the more important the sound metadata is, the higher the importance of the effect image. The arrangement unit 161 can express a more important scene with emphasis.

また、エフェクト画像配置部161は、音声メタデータの種類に応じて、吹き出しの色を変化させることも可能である。例えば、会話音声のシーンには「Speech」というメタデータが付与されることになるが、「Speech」メタデータに対して更に「male」、「female」、「children」という3つの更なる区分を追加することができる。これはそれぞれ、男性・女性・子供の会話音声を抽出して付与されるメタデータである。エフェクト画像配置部161は、それぞれのメタデータに対して、例えば青色、赤色、黄色等の色を予め設定しておき、吹き出しの色を変化させることができる。これにより、色によって話者の違いをコミック中で表現することが可能になる。   In addition, the effect image arrangement unit 161 can change the color of the balloon according to the type of the audio metadata. For example, the “Speech” metadata is added to the conversational voice scene, but the “Speech” metadata is further divided into three further categories “male”, “female”, and “children”. Can be added. These are metadata provided by extracting the conversational voices of men, women, and children, respectively. The effect image arrangement unit 161 can change the color of the balloon by setting in advance colors such as blue, red, and yellow for each metadata. This makes it possible to express speaker differences in comics by color.

また、エフェクト画像配置部161は、動画メタデータ中に含まれるカメラワークの特徴量に基づいて、集中線や効果線といった画面効果を配置することも可能である。ここで、効果線とは、水平方向に沿って配置された複数の平行な線であり、集中線とは、ある領域を中心とし、この中心から放射状に配置された複数の線である。エフェクト画像配置部161は、カメラワークの種類や向きに応じて、集中線または効果線を配置し、カメラワークの速度に応じて、集中線や効果線の密度や本数を増減させてもよい。   Further, the effect image arrangement unit 161 can arrange screen effects such as concentrated lines and effect lines based on the camerawork feature amount included in the moving image metadata. Here, the effect line is a plurality of parallel lines arranged along the horizontal direction, and the concentrated line is a plurality of lines arranged radially from the center with respect to a certain region. The effect image arrangement unit 161 may arrange concentrated lines or effect lines according to the type and orientation of the camera work, and may increase or decrease the density and number of the concentrated lines or effect lines according to the speed of the camera work.

例えば図21に示したように、サムネイル画像に、顔領域が存在することを表す動画メタデータと、ズームインというカメラワークを行なったことを表す動画メタデータとが存在している場合には、顔領域の周りに複数の集中線309を配置する。このように集中線を配置したサムネイル画像に続けて、図21に示したような顔のアップのサムネイル画像が配置されることで、コミック表示画面はより漫画的なものとなる。また、集中線309の本数については、ズームインの速度が速い場合には多く配置され、ズームインの速度が遅い場合には少なく配置される。   For example, as illustrated in FIG. 21, when the thumbnail image includes moving image metadata indicating that a face area exists and moving image metadata indicating that camera work called zoom-in has been performed, A plurality of concentrated lines 309 are arranged around the region. In this way, the thumbnail image with the face up as shown in FIG. 21 is arranged after the thumbnail image in which the concentrated lines are arranged, so that the comic display screen becomes more comic. In addition, the number of concentrated lines 309 is increased when the zoom-in speed is high, and is decreased when the zoom-in speed is low.

また、カメラワークがパンであることを表す動画メタデータが存在するサムネイル画像では、エフェクト画像配置部161は、例えば図22に示したように、カメラワーク方向に沿って効果線を配置する。効果線の場合も、集中線の場合と同様に、カメラワーク速度が速い場合には多く配置され、カメラワーク速度が遅い場合には少なく配置される。   In addition, in the thumbnail image in which the moving image metadata indicating that the camera work is pan is present, the effect image arranging unit 161 arranges the effect line along the camera work direction, for example, as illustrated in FIG. In the case of the effect line, as in the case of the concentrated line, many are arranged when the camera work speed is fast, and few are arranged when the camera work speed is slow.

このように、カメラワークに応じて、集中線や効果線といった画面効果に関する画像を配置することで、コミック表示画面はより漫画的なものとなり、情報処理装置10のユーザは、動画の内容を視覚的に楽しみながら把握することが可能となる。   In this way, by arranging images related to screen effects such as concentration lines and effect lines according to camera work, the comic display screen becomes more comical, and the user of the information processing apparatus 10 visually recognizes the content of the moving image. It becomes possible to grasp while having fun.

再び図7に戻って、コマ情報生成部163について説明する。コマ情報生成部163は、例えば、CPU、ROM、RAM等から構成されている。コマ情報生成部163は、サムネイル画像が配置されたそれぞれのコマに関するコマ情報を生成する。コマ情報は、枚数情報、コマ画像情報、コマ配置情報、エフェクト配置情報など、コミック表示変換部107が備える各処理部により生成された各種の情報を含む情報である。情報処理装置10は、このコマ情報を参照することにより、サムネイル画像をどこにどの大きさで配置し、かつ、どのようなエフェクトを配置すればよいか、といったコミック表示画面を生成するために必要となる情報を得ることができる。   Returning to FIG. 7 again, the frame information generation unit 163 will be described. The frame information generation unit 163 includes, for example, a CPU, a ROM, a RAM, and the like. The frame information generation unit 163 generates frame information regarding each frame on which thumbnail images are arranged. The frame information is information including various types of information generated by each processing unit included in the comic display conversion unit 107, such as the number information, the frame image information, the frame layout information, and the effect layout information. The information processing apparatus 10 is necessary to generate a comic display screen such as where and in what size the thumbnail image should be arranged and what kind of effect should be arranged by referring to the frame information. Can be obtained.

以上、本実施形態に係る情報処理装置10の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。   Heretofore, an example of the function of the information processing apparatus 10 according to the present embodiment has been shown. Each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component. In addition, the CPU or the like may perform all functions of each component. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of carrying out the present embodiment.

なお、上述のような本実施形態に係る情報処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。   It should be noted that a computer program for realizing each function of the information processing apparatus according to the present embodiment as described above can be produced and installed in a personal computer or the like. In addition, a computer-readable recording medium storing such a computer program can be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.

<情報処理方法について>
続いて、図23〜図29を参照しながら、本実施形態に係る情報処理方法(より具体的には、動画データのコミック表示方法)について、詳細に説明する。図23〜図29は、本実施形態に係る情報処理方法を説明するための流れ図である。
<About information processing method>
Next, an information processing method according to the present embodiment (more specifically, a method for displaying comics for moving image data) will be described in detail with reference to FIGS. 23 to 29 are flowcharts for explaining the information processing method according to the present embodiment.

[情報処理方法の全体的な流れについて]
まず、図23を参照しながら、本実施形態に係る情報処理方法の全体的な流れについて、詳細に説明する。
[Overall flow of information processing method]
First, the overall flow of the information processing method according to the present embodiment will be described in detail with reference to FIG.

本実施形態に係る情報処理装置10の動画データ取得部101は、まず、ユーザ操作に応じて、ユーザにより指定された動画に対応する動画データを取得する(ステップS101)。動画データ取得部101は、動画データを、自装置内の記憶部117等から取得してもよいし、自装置に装着された各種の記録媒体から取得してもよい。また、動画データ取得部101は、動画データを、無線または有線で接続された他の装置から取得してもよいし、インターネット等の通信網を介して接続された他の装置から取得してもよい。動画データ取得部101は、取得した動画データを、動画解析部103および音声抽出部105に伝送する。   The moving image data acquisition unit 101 of the information processing apparatus 10 according to the present embodiment first acquires moving image data corresponding to a moving image specified by the user in response to a user operation (step S101). The moving image data acquisition unit 101 may acquire moving image data from the storage unit 117 or the like in the own device or may acquire from various recording media attached to the own device. The moving image data acquisition unit 101 may acquire moving image data from another device connected wirelessly or by wire, or may acquire it from another device connected via a communication network such as the Internet. Good. The moving image data acquisition unit 101 transmits the acquired moving image data to the moving image analysis unit 103 and the audio extraction unit 105.

音声抽出部105は、動画データ取得部101から伝送された動画データの中から、音声データを抽出し(ステップS103)、取得した音声データをコミック表示データ生成部111に伝送する。   The audio extraction unit 105 extracts audio data from the moving image data transmitted from the moving image data acquisition unit 101 (step S103), and transmits the acquired audio data to the comic display data generation unit 111.

他方、動画解析部103は、動画データ取得部101から伝送された動画データを解析して、伝送された動画データに対応する動画を特徴付ける特徴量に関するメタデータである動画メタデータを生成する(ステップS105)。動画解析部103は、生成した動画メタデータを、コミック表示変換部107に伝送する。   On the other hand, the moving image analysis unit 103 analyzes the moving image data transmitted from the moving image data acquisition unit 101, and generates moving image metadata that is metadata relating to the feature amount characterizing the moving image corresponding to the transmitted moving image data (step). S105). The moving image analysis unit 103 transmits the generated moving image metadata to the comic display conversion unit 107.

次に、コミック表示変換部107のダイジェストスコア算出部151は、伝送された動画メタデータに基づいて、動画を構成する全ての画像(フレーム画像)に対して、ダイジェストスコアを算出する。ダイジェストスコア算出部151は、算出したダイジェストスコアを、サムネイル枚数決定部153に伝送する。   Next, the digest score calculation unit 151 of the comic display conversion unit 107 calculates a digest score for all images (frame images) constituting the moving image based on the transmitted moving image metadata. The digest score calculation unit 151 transmits the calculated digest score to the thumbnail number determination unit 153.

続いて、サムネイル枚数決定部153は、伝送されたダイジェストスコアと動画メタデータとを用いて、サムネイル画像として利用される代表フレーム画像を選択する(ステップS107)。また、サムネイル枚数決定部153は、代表フレーム画像の選択が終了すると、サムネイルアニメーションに用いられるアニメーションフレーム画像を選択する。サムネイル枚数決定部153は、選択した代表フレーム画像を特定する情報や、代表フレーム画像の枚数に関する情報や、代表フレーム画像に関連するアニメーションフレーム画像に関する情報等を含む枚数情報を生成する。サムネイル枚数決定部153は、生成した枚数情報を、画像サイズ決定部157とコマ情報生成部163とに伝送する。   Subsequently, the thumbnail number determination unit 153 selects a representative frame image to be used as a thumbnail image using the transmitted digest score and moving image metadata (step S107). Further, when the selection of the representative frame image is completed, the thumbnail number determination unit 153 selects an animation frame image used for the thumbnail animation. The number-of-thumbnail determination unit 153 generates number information including information for specifying the selected representative frame image, information about the number of representative frame images, information about an animation frame image related to the representative frame image, and the like. The thumbnail number determination unit 153 transmits the generated number information to the image size determination unit 157 and the frame information generation unit 163.

なお、アニメーションフレーム画像や、サムネイルアニメーションの再生速度の決定に際して、カメラワークメタデータ利用部155による解析結果を反映させることも可能である。   It should be noted that the analysis result by the camera work metadata utilization unit 155 can be reflected when determining the playback speed of the animation frame image or thumbnail animation.

次に、画像サイズ決定部157は、伝送された枚数情報、動画メタデータ、ダイジェストスコア等に基づいて、選択された代表フレーム画像をコミック表示する際の画像サイズを決定する(ステップS109)。画像サイズ決定部157は、代表フレーム画像の画像サイズに関する情報を含むコマ画像情報を生成し、コマ画像配置部159と、コマ情報生成部163とに伝送する。   Next, the image size determination unit 157 determines an image size for displaying the selected representative frame image in comics based on the transmitted number information, moving image metadata, digest score, and the like (step S109). The image size determination unit 157 generates frame image information including information related to the image size of the representative frame image, and transmits the frame image information to the frame image arrangement unit 159 and the frame information generation unit 163.

続いて、コマ画像配置部159は、伝送されたコマ画像情報および動画メタデータ等を用いて、代表フレーム画像を表示領域に自動的に配置していき、代表フレーム画像の配置を決定する(ステップS111)。コマ画像配置部159は、代表フレーム画像の配置を決定すると、どの代表フレーム画像をどの位置に配置したのかといった情報を含むコマ配置情報を生成し、エフェクト画像配置部161と、コマ情報生成部163とに伝送する。   Subsequently, the frame image arrangement unit 159 automatically arranges the representative frame image in the display area using the transmitted frame image information, moving image metadata, and the like, and determines the arrangement of the representative frame image (step). S111). When the arrangement of the representative frame image is determined, the frame image arrangement unit 159 generates frame arrangement information including information such as which representative frame image is arranged at which position, and an effect image arrangement unit 161 and a frame information generation unit 163. And transmit.

次に、エフェクト画像配置部161は、伝送されたコマ配置情報および動画メタデータ等に基づいて、吹き出し等のエフェクト画像を配置する(ステップS113)。エフェクト画像配置部161は、エフェクト画像の配置が終了すると、どのエフェクトをどこに配置したのかといった情報を含むエフェクト配置情報を生成し、コマ情報生成部163に伝送する。   Next, the effect image arrangement unit 161 arranges an effect image such as a balloon based on the transmitted frame arrangement information, moving image metadata, and the like (step S113). When the effect image placement unit 161 finishes placing the effect image, the effect image placement unit 161 generates effect placement information including information about which effect is placed where, and transmits the effect placement information to the frame information generation unit 163.

なお、画像サイズの決定、コマ画像の配置およびエフェクト画像の配置に際して、動画メタデータに含まれるカメラワークに関する特徴量を利用することが可能である。   It should be noted that when determining the image size, the frame image arrangement, and the effect image arrangement, it is possible to use the feature amount relating to the camera work included in the moving image metadata.

続いて、コマ情報生成部163は、各処理部から伝送された枚数情報、コマ画像情報、コマ配置情報、エフェクト配置情報等に基づいて、コマ情報を生成する(ステップS115)。コマ情報生成部163は、生成したコマ情報を、フレーム画像データ生成部109と、コミック表示データ生成部111とに伝送する。   Subsequently, the frame information generation unit 163 generates frame information based on the number information, frame image information, frame arrangement information, effect arrangement information, and the like transmitted from each processing unit (step S115). The frame information generation unit 163 transmits the generated frame information to the frame image data generation unit 109 and the comic display data generation unit 111.

次に、フレーム画像データ生成部109は、画像データとコマ情報とに基づいて、コミック表示に利用されるフレーム画像の大きさや形状を調整する処理を行い、コミック表示に利用されるフレーム画像データを生成する(ステップS117)。フレーム画像データ生成部109は、生成したフレーム画像データを、コミック表示データ生成部111に伝送する。   Next, the frame image data generation unit 109 performs a process of adjusting the size and shape of the frame image used for comic display based on the image data and the frame information, and generates the frame image data used for comic display. Generate (step S117). The frame image data generation unit 109 transmits the generated frame image data to the comic display data generation unit 111.

コミック表示データ生成部111は、音声抽出部105から伝送された音声データと、コミック表示変換部107から伝送されたコマ情報とに基づいて、コミック表示に用いられる音声データを生成する。また、コミック表示データ生成部111は、コマ情報と、音声データと、フレーム画像データと、エフェクトデータとを用いて、コミック表示を実現するために必要なデータのセットであるコミック表示データを生成する(ステップS119)。   The comic display data generation unit 111 generates audio data used for comic display based on the audio data transmitted from the audio extraction unit 105 and the frame information transmitted from the comic display conversion unit 107. Further, the comic display data generation unit 111 generates comic display data, which is a set of data necessary for realizing comic display, using the frame information, audio data, frame image data, and effect data. (Step S119).

情報処理装置10は、生成されたコミック表示データを実行することで、表示画面上に、動画の内容を要約したものであるコミック表示を表示することができる。   By executing the generated comic display data, the information processing apparatus 10 can display a comic display that summarizes the content of the moving image on the display screen.

[代表フレーム画像の選択方法について]
続いて、図24を参照しながら、代表フレーム画像の選択方法の流れについて、詳細に説明する。図24は、本実施形態に係る代表フレーム画像の選択方法を説明するための流れ図である。
[How to select representative frame images]
Next, the flow of the representative frame image selection method will be described in detail with reference to FIG. FIG. 24 is a flowchart for explaining a representative frame image selection method according to this embodiment.

まず、サムネイル枚数決定部153は、動画メタデータに含まれるシーンチェンジスコア(SCS)が、所定の閾値以上であるかどうかを判断する(ステップS201)。サムネイル枚数決定部153は、シーンチェンジスコアが閾値より大きい場合、カメラが大きく動いたことによるぶれた画像であると考え、代表フレーム画像として選択しない(ステップS203)。   First, the thumbnail number determination unit 153 determines whether the scene change score (SCS) included in the moving image metadata is equal to or greater than a predetermined threshold (step S201). If the scene change score is greater than the threshold, the thumbnail number determination unit 153 considers that the image is blurred due to a large movement of the camera, and does not select it as a representative frame image (step S203).

次に、サムネイル枚数決定部153は、ダイジェストスコア(DS)の分布及び中央値を算出する(ステップS205)。中央値は、上述のように、フレーム画像を代表フレーム画像に選択するか判断するために用いられる。   Next, the thumbnail number determination unit 153 calculates the distribution and median of the digest score (DS) (step S205). As described above, the median value is used to determine whether to select a frame image as a representative frame image.

そして、サムネイル枚数決定部153は、代表フレーム画像候補の有効フレーム数が所定の設定値N個以上か否かを判断する(ステップS207)。有効フレーム数がN個以上ならば、閾値T=中央値とし、N個未満なら閾値T=ダイジェストスコアの最小値とする。   Then, the thumbnail number determination unit 153 determines whether or not the number of valid frames of the representative frame image candidate is equal to or greater than a predetermined setting value N (step S207). If the number of valid frames is N or more, the threshold value T = median value, and if it is less than N, the threshold value T = the minimum digest score value.

次に、ダイジェストスコアがT未満か、同じ値が連続している候補については、サムネイル枚数決定部153は、代表フレーム画像として選択しない。また、ダイジェストスコアがT以上であり、かつ、同じ値が連続していない候補を、代表フレーム画像候補の中から選択していく。   Next, the thumbnail number determination unit 153 does not select a candidate whose digest score is less than T or the same value continues as a representative frame image. Further, candidates whose digest score is equal to or greater than T and whose same value is not continuous are selected from the representative frame image candidates.

続いて、サムネイル枚数決定部153は、全てのフレームについて、上述の処理を行ったか否かを判断する(ステップS211)。全てのフレームについて処理を行っていない場合には、ステップS207に戻って処理を行う。   Subsequently, the thumbnail number determination unit 153 determines whether or not the above-described processing has been performed for all frames (step S211). If all the frames have not been processed, the process returns to step S207 to perform the process.

全てのフレームについて処理が終了している場合には、サムネイル枚数決定部153は、採用されたフレーム画像の総数を計算し、この総数が所定の閾値以上か否かを判断する(ステップS213)。採用フレーム画像の枚数が所定の閾値以上である場合は、サムネイル枚数決定部153は、ダイジェストスコアの分布を残すように、一定間隔で間引き処理を行う(ステップS215)。   If the processing has been completed for all frames, the thumbnail number determination unit 153 calculates the total number of adopted frame images and determines whether this total is equal to or greater than a predetermined threshold (step S213). If the number of adopted frame images is equal to or greater than a predetermined threshold, the thumbnail number determination unit 153 performs a thinning process at regular intervals so as to leave a digest score distribution (step S215).

次に、サムネイル枚数決定部153は、ダイジェストスコアが小さいコマが連続する場合の間引き処理を行う(ステップS217)。このようにして残ったフレーム画像を、サムネイル枚数決定部153は、コミック表示におけるコマ(すなわち代表フレーム画像)として選択する(ステップS219)。   Next, the thumbnail number determination unit 153 performs a thinning process when frames having a small digest score continue (step S217). The thumbnail number determination unit 153 selects the frame image remaining in this way as a frame (that is, a representative frame image) in comic display (step S219).

[カメラワークに応じたアニメーションフレーム画像の選択方法について]
次に、図25を参照しながら、カメラワークに応じたアニメーションフレーム画像の選択方法について、詳細に説明する。図25は、カメラワークに応じたアニメーションフレーム画像の選択方法を説明するための流れ図である。
[How to select an animation frame image according to camera work]
Next, a method for selecting an animation frame image corresponding to camera work will be described in detail with reference to FIG. FIG. 25 is a flowchart for explaining a method of selecting an animation frame image according to camera work.

カメラワークメタデータ利用部155は、まず、現在着目しているフレーム画像が、最終のフレーム画像を超過しているか否かを判断する(ステップS301)。着目しているフレーム画像が、最終のフレーム画像を超過している場合には、カメラワークメタデータ利用部155は、処理を終了する。また、最終のフレーム画像を超過していない場合には、カメラワークメタデータ利用部155は、以下の処理を実施する。   First, the camera work metadata utilization unit 155 determines whether or not the currently focused frame image exceeds the final frame image (step S301). If the focused frame image exceeds the final frame image, the camera work metadata utilization unit 155 ends the process. When the final frame image is not exceeded, the camera work metadata utilization unit 155 performs the following processing.

次に、カメラワークメタデータ利用部155は、現在着目しているフレーム画像が、表示する代表フレーム画像であるか否かを判断する(ステップS303)。現在着目しているフレームが表示する代表フレームではない場合には、カメラワークメタデータ利用部155は、次の代表フレームに対して処理を行う(ステップS305)。また、現在着目しているフレームが表示する代表フレームである場合には、カメラワークメタデータ利用部155は、動画メタデータに含まれるカメラワークに関する特徴量を参照する。より詳細には、カメラワークメタデータ利用部155は、パン、ティルト、ロール、ズームに関するカメラワークの絶対値を算出する(ステップS307)。   Next, the camera work metadata utilization unit 155 determines whether or not the currently focused frame image is a representative frame image to be displayed (step S303). If the currently focused frame is not the representative frame to be displayed, the camera work metadata utilization unit 155 performs processing on the next representative frame (step S305). When the currently focused frame is a representative frame to be displayed, the camera work metadata using unit 155 refers to the feature amount related to the camera work included in the moving image metadata. More specifically, the camera work metadata utilization unit 155 calculates the absolute value of the camera work regarding pan, tilt, roll, and zoom (step S307).

続いて、カメラワークメタデータ利用部155は、代表フレーム画像に関連して選択されたアニメーションフレーム画像について、カメラワークの絶対値を順に加算していくという積分処理を行う。カメラワークメタデータ利用部155は、一つのアニメーションフレーム画像の加算が終了するごとに、積分値が所定の閾値以上になったか否かを判断する(ステップS309)。積分値が所定の閾値以上となった場合には、カメラワークメタデータ利用部155は、後述するステップS313の処理を実施する。また、積分値が所定の閾値未満であった場合には、カメラワークメタデータ利用部155は、カメラワークに関する特徴量を、所定の時間(例えば1秒分)のフレーム以上加算したか否かを判断する(ステップS311)。所定の時間のフレーム以上を加算した場合には、カメラワークメタデータ利用部155は、現在着目しているフレーム数を保存する(ステップS313)。また、所定の時間のフレーム以上を加算していない場合には、カメラワークメタデータ利用部155は、次のアニメーションフレーム画像に着目し(ステップS317)、ステップS307に戻って処理を行う。   Subsequently, the camera work metadata utilization unit 155 performs an integration process in which absolute values of camera work are sequentially added to the animation frame image selected in relation to the representative frame image. The camerawork metadata utilization unit 155 determines whether or not the integration value has become equal to or greater than a predetermined threshold every time addition of one animation frame image is completed (step S309). If the integral value is equal to or greater than the predetermined threshold value, the camera work metadata utilization unit 155 performs the process of step S313 described later. If the integral value is less than the predetermined threshold, the camera work metadata utilization unit 155 determines whether or not the feature amount related to the camera work has been added for a predetermined time (for example, one second) or more. Judgment is made (step S311). If more than a predetermined number of frames are added, the camera work metadata using unit 155 stores the number of frames currently focused on (step S313). In addition, when the frame of a predetermined time or more is not added, the camera work metadata utilization unit 155 pays attention to the next animation frame image (step S317), and returns to step S307 to perform processing.

次に、カメラワークメタデータ利用部155は、カメラワークの積分値に応じて、アニメーションフレーム画像の枚数を決定する(ステップS315)。続いて、カメラワークメタデータ利用部155は、決定したアニメーションフレーム画像の枚数と、保存してあるフレームの番号とに基づいて、サムネイルアニメーションに用いるアニメーションフレーム画像を決定する。   Next, the camera work metadata utilization unit 155 determines the number of animation frame images according to the integrated value of the camera work (step S315). Subsequently, the camera work metadata using unit 155 determines an animation frame image to be used for the thumbnail animation based on the determined number of animation frame images and the stored frame number.

上述のような処理を行うことで、本実施形態に係る情報処理方法では、カメラワークに応じた自然なサムネイルアニメーションを実施することが可能となる。   By performing the processing as described above, the information processing method according to the present embodiment can perform natural thumbnail animation according to camera work.

[代表フレーム画像の動的配置方法について]
続いて、図26Aおよび図26Bを参照しながら、本実施形態に係る代表フレーム画像の動的配置方法について、詳細に説明する。図26Aおよび図26Bは、本実施形態に係る代表フレーム画像の動的配置方法を説明するための流れ図である。
[Dynamic layout method of representative frame images]
Next, a method for dynamically arranging representative frame images according to the present embodiment will be described in detail with reference to FIGS. 26A and 26B. FIG. 26A and FIG. 26B are flowcharts for explaining a method for dynamically arranging representative frame images according to the present embodiment.

まず、コマ画像配置部159は、代表フレーム画像を配置していく際に用いる配置単位枠を作成する(ステップS401)。この際、コマ画像配置部159は、配置単位枠の高さを、画像サイズ決定部157により決定された最小の画像サイズの高さと同じにする。   First, the frame image placement unit 159 creates a placement unit frame used when placing the representative frame image (step S401). At this time, the frame image arrangement unit 159 makes the arrangement unit frame the same height as the minimum image size determined by the image size determination unit 157.

次に、コマ画像配置部159は、配置しようとしている代表フレーム画像が、配置単位枠より小さいかどうかを判定する(ステップS403)。配置しようとしている代表フレーム画像の高さが配置単位枠の高さよりも大きい場合には、コマ画像配置部159は、後述するステップS405〜ステップS409の処理を行う。また、配置しようとしている代表フレーム画像の高さが配置単位枠の高さ以下である場合には、コマ画像配置部159は、後述するステップS411以降の処理を行う。   Next, the frame image arrangement unit 159 determines whether or not the representative frame image to be arranged is smaller than the arrangement unit frame (step S403). When the height of the representative frame image to be arranged is larger than the height of the arrangement unit frame, the frame image arrangement unit 159 performs processing in steps S405 to S409 described later. Further, when the height of the representative frame image to be arranged is equal to or less than the height of the arrangement unit frame, the frame image arrangement unit 159 performs processing after step S411 described later.

コマ画像配置部159は、配置しようとしている代表フレーム画像の高さが配置単位枠の高さよりも大きい場合、配置単位枠の高さを、配置しようとしている代表フレーム画像の高さまで拡大する(ステップS405)。次に、コマ画像配置部159は、行の先頭(すなわち、高さを拡大した配置単位枠内の先頭)に戻って(ステップS407)、行の先頭から画像の再配置を開始する(ステップS409)。   When the height of the representative frame image to be arranged is larger than the height of the arrangement unit frame, the frame image arrangement unit 159 expands the height of the arrangement unit frame to the height of the representative frame image to be arranged (step S405). Next, the frame image arrangement unit 159 returns to the beginning of the line (that is, the beginning of the arrangement unit frame in which the height has been enlarged) (step S407), and starts image rearrangement from the beginning of the line (step S409). ).

また、コマ画像配置部159は、配置しようとしている代表フレーム画像の高さが配置単位枠以下である場合、配置しようとしている代表フレーム画像を配置可能か否か判断する(ステップS411)。   Further, when the height of the representative frame image to be arranged is equal to or less than the arrangement unit frame, the frame image arrangement unit 159 determines whether or not the representative frame image to be arranged can be arranged (step S411).

配置しようとしている代表フレーム画像を配置可能である場合、コマ画像配置部159は、代表フレーム画像を該当箇所に配置する(ステップS413)。続いて、コマ画像配置部159は、画像を配置しようとするコマを隣のコマに移動させる(ステップS415)。ここで、ステップS413において配置した代表フレーム画像の高さが、配置単位枠の高さ未満であった場合には、コマ画像配置部159は、ステップS413において配置した画像の下側に位置するコマを、ステップS415における隣のコマとする。また、ステップS413において配置した代表フレーム画像の高さが、配置単位枠の高さと等しい場合には、コマ画像配置部159は、ステップS413において配置した画像の右側または左側に位置するコマを、ステップS415における隣のコマとする。   When the representative frame image to be arranged can be arranged, the frame image arrangement unit 159 arranges the representative frame image at the corresponding place (step S413). Subsequently, the frame image placement unit 159 moves the frame on which the image is to be placed to the next frame (step S415). Here, when the height of the representative frame image arranged in step S413 is less than the height of the arrangement unit frame, the frame image arrangement unit 159 displays the frame located below the image arranged in step S413. Is the next frame in step S415. Further, when the height of the representative frame image arranged in step S413 is equal to the height of the arrangement unit frame, the frame image arrangement unit 159 selects a frame located on the right side or the left side of the image arranged in step S413. Assume that the next frame in S415.

次に、コマ画像配置部159は、全ての代表フレーム画像を配置し終えたか否かを判断する(ステップS417)。全ての代表フレーム画像を配置し終えた場合には、コマ画像配置部159は、コマ配置処理を終了する。また、全ての代表フレーム画像を配置し終えていない場合には、コマ画像配置部159は、次の代表フレーム画像について、ステップS403以降の処理を行う。   Next, the frame image arrangement unit 159 determines whether or not all the representative frame images have been arranged (step S417). When all the representative frame images have been arranged, the frame image arrangement unit 159 ends the frame arrangement process. When all the representative frame images have not been arranged, the frame image arrangement unit 159 performs the processing from step S403 on for the next representative frame image.

また、ステップS411において、配置しようとしている代表フレーム画像が、配置単位枠の縦方向(高さ方向)にはみ出る場合には、コマ画像配置部159は、現在配置しようとしている画像の一つ前のコマに配置した画像を拡大する(ステップS419)。次に、コマ画像配置部159は、着目するコマを、横隣のコマに変更する(ステップS421)。その後、コマ画像配置部159は、行の先頭に戻って(ステップS423)、行の先頭から画像の再配置を開始する(ステップS425)。   In step S411, when the representative frame image to be arranged protrudes in the vertical direction (height direction) of the arrangement unit frame, the frame image arrangement unit 159 advances the image immediately before the image to be currently arranged. The image arranged on the frame is enlarged (step S419). Next, the frame image arrangement unit 159 changes the focused frame to a horizontally adjacent frame (step S421). Thereafter, the frame image arrangement unit 159 returns to the beginning of the line (step S423), and starts rearranging the images from the beginning of the line (step S425).

また、ステップS411において、配置しようとしている代表フレーム画像が、配置単位枠の横方向(幅方向)にはみ出る場合には、コマ画像配置部159は、現在配置しようとしている画像の一つ前のコマに配置した画像を拡大する(ステップS427)。次に、コマ画像配置部159は、次の行へと移動して(ステップS429)、配置単位枠の大きさを元の大きさに設定しなおす(ステップS431)。その後、コマ画像配置部159は、ステップS401に戻って、代表フレーム画像の配置処理を再開する。   In step S411, when the representative frame image to be arranged protrudes in the horizontal direction (width direction) of the arrangement unit frame, the frame image arrangement unit 159 displays the frame immediately preceding the image to be arranged. The image arranged in (2) is enlarged (step S427). Next, the frame image arrangement unit 159 moves to the next line (step S429), and resets the size of the arrangement unit frame to the original size (step S431). Thereafter, the frame image arrangement unit 159 returns to step S401 to resume the arrangement process of the representative frame image.

以上説明したような手順で、代表フレーム画像の配置処理を行なうことで、本実施形態に係る情報処理装置10では、代表フレーム画像を時系列に沿って動的に配置することが可能となる。   By performing the representative frame image arrangement process according to the procedure described above, the information processing apparatus 10 according to the present embodiment can dynamically arrange the representative frame images in time series.

[カメラワークを考慮した代表フレーム画像の配置方法について]
続いて、図27を参照しながら、カメラワークを考慮した代表フレーム画像の配置方法について、詳細に説明する。図27は、カメラワークを考慮した代表フレーム画像の配置方法を説明するための流れ図である。
[Regarding how to arrange representative frame images in consideration of camera work]
Next, with reference to FIG. 27, a representative frame image arrangement method considering camera work will be described in detail. FIG. 27 is a flowchart for explaining a method for arranging representative frame images in consideration of camera work.

以下では、カメラワークを考慮した代表フレーム画像の配置処理が、例えば図26Aおよび図26Bを参照しながら説明した代表フレーム画像の配置が終了した後に実施される場合について説明する。しかしながら、図26Aおよび図26Bにおいて、カメラワークを考慮しながら、代表フレーム画像を配置していくことも可能である。   Hereinafter, a case will be described in which the arrangement process of the representative frame image in consideration of the camera work is performed after the arrangement of the representative frame image described with reference to FIGS. 26A and 26B is finished, for example. However, in FIG. 26A and FIG. 26B, it is also possible to arrange representative frame images while taking camerawork into consideration.

まず、コマ画像配置部159は、パンまたはティルトのカメラワークがなされたことを表す動画メタデータが存在するか否かを判定する(ステップS501)。カメラワークがパンまたはティルトではない場合には、コマ画像配置部159は、カメラワークを考慮した代表フレーム画像の再配置処理を終了する。また、カメラワークがパンまたはティルトである場合には、コマ画像配置部159は、該当する画像が、顔領域を抽出したものであるかどうかを判定する(ステップS503)。顔領域を含まない場合には、コマ画像配置部159は、カメラワークが存在するフレーム区間を等分割する(ステップS505)。   First, the frame image arrangement unit 159 determines whether there is moving image metadata indicating that panning or tilting camera work has been performed (step S501). If the camera work is not pan or tilt, the frame image placement unit 159 ends the representative frame image rearrangement process in consideration of the camera work. If the camerawork is pan or tilt, the frame image placement unit 159 determines whether the corresponding image is an extracted face area (step S503). When the face area is not included, the frame image placement unit 159 equally divides the frame section where the camera work exists (step S505).

次に、コマ画像配置部159は、検出された顔領域とフレーム数とを、全て保存する(ステップS507)。   Next, the frame image arrangement unit 159 stores all the detected face areas and the number of frames (step S507).

続いて、コマ画像配置部159は、該当する代表フレーム画像について、カメラワークがパンであるか否かを、動画メタデータに基づいて判定する(ステップS509)。カメラワークがパンである場合には、コマ画像配置部159は、代表フレーム画像(コマ画像)を縦長に設定し、カメラワーク方向に沿って該当する画像を横向きに配置する(ステップS511)。また、カメラワークがティルトである場合には、コマ画像配置部159は、代表フレーム画像(コマ画像)を横長に設定し、カメラワーク方向に沿って該当する画像を縦向きに配置する(ステップS513)。   Subsequently, the frame image placement unit 159 determines whether the camera work is pan for the corresponding representative frame image based on the moving image metadata (step S509). When the camera work is pan, the frame image arrangement unit 159 sets the representative frame image (frame image) to be vertically long, and arranges the corresponding image horizontally along the camera work direction (step S511). When the camera work is tilted, the frame image placement unit 159 sets the representative frame image (frame image) to be horizontally long, and places the corresponding image vertically along the camera work direction (step S513). ).

次に、画像サイズ決定部157は、コマ画像配置部159から伝送された縦長または横長の指定と、動画メタデータから得られるカメラワーク速度とに応じて、代表フレーム画像(コマ画像)の大きさを決定する(ステップS515)。   Next, the image size determination unit 157 determines the size of the representative frame image (frame image) according to the designation of the portrait or landscape orientation transmitted from the frame image placement unit 159 and the camera work speed obtained from the moving image metadata. Is determined (step S515).

続いて、コマ画像配置部159は、必要に応じて、他のコマの配置を修正する(ステップS617)。   Subsequently, the frame image arrangement unit 159 corrects the arrangement of other frames as necessary (step S617).

以上説明したようなカメラワークを考慮した代表フレーム画像の配置処理を行うことで、コミック表示をより漫画的な表現に富んだものとすることが可能となる。   By performing the representative frame image arrangement process in consideration of the camera work as described above, it is possible to make the comic display richer in comic expression.

[カメラワークを考慮したエフェクト画像の配置方法について]
次に、図28を参照しながら、カメラワークを考慮したエフェクト画像の配置方法について、詳細に説明する。図28は、カメラワークを考慮したエフェクト画像の配置方法について説明するための流れ図である。
[How to place effect images in consideration of camera work]
Next, with reference to FIG. 28, a method for arranging an effect image in consideration of camera work will be described in detail. FIG. 28 is a flowchart for explaining an effect image arrangement method in consideration of camera work.

まず、エフェクト画像配置部161は、パンまたはティルトのカメラワークがなされたことを表す動画メタデータが存在するか否かを判定する(ステップS601)。カメラワークがパンまたはティルトである場合には、エフェクト画像配置部161は、効果線エフェクト画像の生成処理を行う(ステップS603)。また、カメラワークがパンまたはティルトではなく、例えばズーム等である場合には、エフェクト画像配置部161は、集中線エフェクト画像の生成処理を行う(ステップS605)。   First, the effect image arrangement unit 161 determines whether there is moving image metadata indicating that pan or tilt camera work has been performed (step S601). If the camera work is panning or tilting, the effect image placement unit 161 performs processing for generating an effect line effect image (step S603). If the camera work is not pan or tilt but zoom, for example, the effect image placement unit 161 performs a concentrated line effect image generation process (step S605).

以下では、まず、効果線エフェクト画像を生成する場合について説明する。エフェクト画像配置部161は、カメラワークが開始されたフレーム画像と、カメラワークが終了したフレーム画像とを検出する(ステップS607)。次に、エフェクト画像配置部161は、画像中に顔領域が存在するか否かを、動画メタデータに基づいて判定する(ステップS609)。   Below, the case where an effect line effect image is produced | generated first is demonstrated. The effect image arrangement unit 161 detects the frame image in which the camera work is started and the frame image in which the camera work is completed (step S607). Next, the effect image arrangement unit 161 determines whether or not a face area exists in the image based on the moving image metadata (step S609).

顔領域が存在する場合には、エフェクト画像配置部161は、画像の端部から顔領域の周辺まで、効果線エフェクト画像を生成する(ステップS611)。また、顔領域が存在しない場合には、エフェクト画像配置部161は、画像の周辺部に、効果線エフェクト画像を生成する(ステップS613)。なお、エフェクト画像配置部161は、効果線エフェクト画像の密度、長さ、本数等を、カメラワーク速度に応じて決定する。   If a face area exists, the effect image placement unit 161 generates an effect line effect image from the edge of the image to the periphery of the face area (step S611). If the face area does not exist, the effect image placement unit 161 generates an effect line effect image at the periphery of the image (step S613). The effect image placement unit 161 determines the density, length, number, and the like of the effect line effect image according to the camera work speed.

効果線エフェクト画像の生成が終了すると、エフェクト画像配置部161は、効果線エフェクト画像のサイズと、どのフレーム画像に対して配置したのかを保存する(ステップS615)。   When the generation of the effect line effect image is completed, the effect image placement unit 161 stores the size of the effect line effect image and the frame image on which the effect line effect image is placed (step S615).

次に、集中線エフェクト画像を生成する場合について説明する。エフェクト画像配置部161は、カメラワークが開始されたフレーム画像と、カメラワークが終了したフレーム画像とを検出する(ステップS617)。次に、エフェクト画像配置部161は、画像中に顔領域が存在するか否かを、動画メタデータに基づいて判定する(ステップS619)。   Next, a case where a concentrated line effect image is generated will be described. The effect image arrangement unit 161 detects the frame image where the camera work is started and the frame image where the camera work is finished (step S617). Next, the effect image arrangement unit 161 determines whether or not a face area exists in the image based on the moving image metadata (step S619).

顔領域が存在する場合には、エフェクト画像配置部161は、顔領域を中心として、周辺に集中線エフェクト画像を生成する(ステップS621)。また、顔領域が存在しない場合には、エフェクト画像配置部161は、画像の周辺部に、集中線エフェクト画像を生成する(ステップS623)。なお、エフェクト画像配置部161は、集中線エフェクト画像の密度、長さ、本数等を、カメラワーク速度に応じて決定する。   If a face area exists, the effect image placement unit 161 generates a concentrated line effect image around the face area (step S621). If the face area does not exist, the effect image placement unit 161 generates a concentrated line effect image at the periphery of the image (step S623). The effect image placement unit 161 determines the density, length, number, and the like of the concentrated line effect image according to the camera work speed.

集中線エフェクト画像の生成が終了すると、エフェクト画像配置部161は、集中線エフェクト画像のサイズと、どのフレーム画像に対して配置したのかを保存する(ステップS615)。   When the generation of the concentrated line effect image is completed, the effect image placement unit 161 stores the size of the concentrated line effect image and the frame image for which the concentrated line effect image has been placed (step S615).

以上説明したようなカメラワークを考慮したエフェクト画像の配置処理を行うことで、コミック表示をより漫画的な表現に富んだものとすることが可能となる。   By performing the effect image arrangement processing in consideration of the camera work as described above, it is possible to make the comic display richer in comic expression.

[アニメーション再生速度の決定方法について]
次に、図29を参照しながら、サムネイルアニメーションの再生速度の決定方法について、詳細に説明する。図29は、サムネイルアニメーションの再生速度の決定方法を説明するための流れ図である。
[How to determine the animation playback speed]
Next, a method for determining the playback speed of the thumbnail animation will be described in detail with reference to FIG. FIG. 29 is a flowchart for explaining a method of determining the playback speed of the thumbnail animation.

上述の説明では、カメラワークメタデータ利用部155が予めアニメーションの再生速度を決定しておく場合について説明したが、以下で説明するように、アニメーションの再生時に、コミック表示実行部113が再生速度を決定することができる。   In the above description, the case where the camera work metadata using unit 155 determines the animation playback speed in advance has been described. However, as will be described below, the comic display execution unit 113 sets the playback speed during animation playback. Can be determined.

まず、コミック表示実行部113は、コミック表示データを参照して、エフェクト画像が存在するコマ(代表フレーム画像)であるか否かを判定する(ステップS701)。   First, the comic display execution unit 113 refers to comic display data and determines whether or not the frame (representative frame image) includes an effect image (step S701).

エフェクト画像が存在するコマである場合には、コミック表示実行部113は、効果線エフェクトを、コミック表示データに基づいて再生し(ステップS703)、ステップS705に進む。また、エフェクト画像が存在しないコマである場合には、コミック表示実行部113は、以下で説明するステップS705の処理を実行する。   If the effect image is a frame, the comic display execution unit 113 reproduces the effect line effect based on the comic display data (step S703), and the process proceeds to step S705. If the effect image does not exist, the comic display execution unit 113 executes the process of step S705 described below.

次に、コミック表示実行部113は、コミック表示データを参照して、サムネイルアニメーションに用いられる画像の枚数を取得する(ステップS405)。コミック表示実行部113は、アニメーションフレーム画像の枚数と、例えば以下に示したような基準とを用いて、アニメーションの再生速度を決定する(ステップS707)。   Next, the comic display execution unit 113 refers to the comic display data and acquires the number of images used for the thumbnail animation (step S405). The comic display execution unit 113 determines the reproduction speed of the animation using the number of animation frame images and a reference as shown below, for example (step S707).

(1)アニメーション枚数(n)が2枚以下の場合:再生速度=1(FPS)
(2)アニメーション枚数(n)が2枚超過4枚以下の場合:再生速度=2(FPS)
(3)アニメーション枚数(n)が4枚超過8枚以下の場合:再生速度=8(FPS)
(4)アニメーション枚数(n)が8枚超過の場合:再生速度=24(FPS)
(1) When the number of animations (n) is 2 or less: Playback speed = 1 (FPS)
(2) When the number of animations (n) is more than 2 and 4 or less: Playback speed = 2 (FPS)
(3) When the number of animations (n) is greater than 4 and less than or equal to 8: Playback speed = 8 (FPS)
(4) When the number of animations (n) exceeds eight: playback speed = 24 (FPS)

続いて、コミック表示実行部113は、決定した再生速度に基づいて、サムネイルアニメーションを再生する(ステップS709)。   Subsequently, the comic display execution unit 113 reproduces the thumbnail animation based on the determined reproduction speed (step S709).

このような処理を行うことにより、サムネイルアニメーションの再生時に、カメラワークを考慮した再生速度の決定を行なうことができる。   By performing such processing, it is possible to determine the playback speed in consideration of the camera work when the thumbnail animation is played back.

<第1変形例について>
続いて、本実施形態に係る情報処理装置10の第1変形例について、図30〜図32を参照しながら、詳細に説明する。
<About the first modification>
Then, the 1st modification of the information processing apparatus 10 which concerns on this embodiment is demonstrated in detail, referring FIGS. 30-32.

本変形例に係る情報処理装置10の動画解析部103は、第1の実施形態に係る動画解析部103の機能に加え、動画データの中から人物を検出したり、ユーザが着目した被写体を検出したり、ユーザが指定した物体を検出したり、といった更なる検出機能を有する。また、本変形例に係る情報処理装置10のコミック表示変換部107は、動画解析部103による検出結果に応じて、オクルージョンを避けたエフェクト画像の配置を行う機能を更に有する。   In addition to the function of the video analysis unit 103 according to the first embodiment, the video analysis unit 103 of the information processing apparatus 10 according to the present modification detects a person from the video data or detects a subject focused by the user. Or detecting an object designated by the user. Further, the comic display conversion unit 107 of the information processing apparatus 10 according to the present modification further has a function of arranging an effect image avoiding occlusion according to the detection result by the moving image analysis unit 103.

[動画解析部の構成について]
まず、本変形例に係る動画解析部103について、図30を参照しつつ詳細に説明する。図30は、本変形例に係る動画解析部103の構成について説明するためのブロック図である。
[About the structure of the video analysis unit]
First, the moving image analysis unit 103 according to this modification will be described in detail with reference to FIG. FIG. 30 is a block diagram for explaining the configuration of the moving image analysis unit 103 according to this modification.

本変形例に係る動画解析部103は、動画データ分割部131、顔検出部133、シーン遷移検出部135、カメラワーク検出部137、音声解析部139および動画メタデータ生成部141に加えて、更に以下の処理部を有する。すなわち、本変形例に係る動画解析部103は、人物検出部171と、被写体検出部173と、物体検出部175と、を更に備える。   The moving image analysis unit 103 according to the present modification includes a moving image data division unit 131, a face detection unit 133, a scene transition detection unit 135, a camera work detection unit 137, an audio analysis unit 139, and a moving image metadata generation unit 141. It has the following processing units. That is, the moving image analysis unit 103 according to this modification further includes a person detection unit 171, a subject detection unit 173, and an object detection unit 175.

本変形例に係る動画データ分割部131、顔検出部133、シーン遷移検出部135、カメラワーク検出部137および音声解析部139は、本発明の第1の実施形態に係る各処理部と同様の構成を有し、同様の効果を奏するものである。よって、以下では、詳細な説明は省略する。   The moving image data division unit 131, the face detection unit 133, the scene transition detection unit 135, the camera work detection unit 137, and the audio analysis unit 139 according to this modification are the same as the respective processing units according to the first embodiment of the present invention. It has a structure and produces the same effect. Therefore, detailed description is omitted below.

また、本変形例に係る動画メタデータ生成部141は、顔検出部133、シーン遷移検出部135、カメラワーク検出部137、人物検出部171、被写体検出部173および物体検出部175から出力された結果等に基づいて、動画メタデータを生成する。変形例に係る動画メタデータ生成部141のこれ以外の機能については、本発明の第1の実施形態に係る動画メタデータ生成部141と同様であり、また、本変形例ではほぼ同様の効果が得られるものであるため、以下では詳細な説明は省略する。   In addition, the moving image metadata generation unit 141 according to this modification is output from the face detection unit 133, the scene transition detection unit 135, the camera work detection unit 137, the person detection unit 171, the subject detection unit 173, and the object detection unit 175. Based on the result and the like, moving image metadata is generated. The other functions of the moving image metadata generation unit 141 according to the modified example are the same as those of the moving image metadata generation unit 141 according to the first embodiment of the present invention, and the modified example has substantially the same effect. Since it is obtained, detailed description is omitted below.

人物検出部171は、例えば、CPU、ROM、RAM等から構成されている。人物検出部171は、AdaBoost法などの統計学習処理を利用して予め生成されている識別器(Classifier)を利用して、伝送された画像データの中から人物に該当する部分を検出する。   The person detection unit 171 includes, for example, a CPU, a ROM, a RAM, and the like. The person detection unit 171 detects a portion corresponding to a person from transmitted image data using a classifier (Classifier) generated in advance using a statistical learning process such as the AdaBoost method.

この識別器は、例えば、服装識別器および輪郭識別器を統合することで生成される。服装識別器とは、統計学習によって生成された、複数の弱識別器からなる比較的強い識別器であり、人の服装の特徴を利用して、伝送された画像中に人の画像の領域が存在するか否かを識別する際に用いられる。また、輪郭識別器とは、統計学習によって生成された、複数の弱識別器からなる比較的強い識別器であり、人の輪郭を利用して、伝送された画像中に人の画像の領域が存在するか否かを識別する際に用いられる。   This classifier is generated, for example, by integrating a clothes classifier and a contour classifier. A clothing classifier is a relatively strong classifier composed of a plurality of weak classifiers generated by statistical learning. By using the characteristics of a person's clothes, a region of a human image is included in a transmitted image. Used to identify whether or not it exists. Further, the contour classifier is a relatively strong classifier made up of a plurality of weak classifiers generated by statistical learning, and the region of a person's image is included in a transmitted image using a person's contour. Used to identify whether or not it exists.

人物検出部171は、動画データ分割部131から画像データが伝送されると、伝送された画像データの中から、服装特徴点および輪郭特徴点を抽出する。人物検出部171は、抽出した各特徴点に基づいて、服装特徴量および輪郭特徴量を算出する。人物検出部171は、算出した服装特徴量および輪郭特徴量を識別器に代入して演算を行い、得られた演算結果に基づいて、人物が画像中で認識(検出)されたか否かの識別結果を出力する。   When the image data is transmitted from the moving image data dividing unit 131, the person detection unit 171 extracts clothes feature points and contour feature points from the transmitted image data. The person detection unit 171 calculates a clothing feature value and a contour feature value based on each extracted feature point. The person detection unit 171 performs calculation by substituting the calculated clothing feature value and contour feature value into the classifier, and identifies whether or not the person is recognized (detected) in the image based on the obtained calculation result. Output the result.

本変形例に係る人物検出部171は、人物の服装および輪郭という2種類の特徴量に着目している。これにより、人物検出部171は、伝送された画像から少なくとも一方の特徴量を充分に抽出することができれば、画像から人物を検出することができる。   The person detection unit 171 according to this modification focuses on two types of feature amounts, that is, a person's clothes and a contour. Accordingly, the person detection unit 171 can detect a person from an image if it can sufficiently extract at least one feature amount from the transmitted image.

人物検出部171は、伝送された画像中に人物が存在したか否かの検出結果を、動画メタデータ生成部141に伝送する。また、人物検出部171は、画像中に複数の人物が検出された場合には、検出された人物の個数(人数)を動画メタデータ生成部141に伝送してもよい。   The person detection unit 171 transmits a detection result indicating whether or not a person is present in the transmitted image to the moving image metadata generation unit 141. In addition, when a plurality of persons are detected in the image, the person detection unit 171 may transmit the number of detected persons (number of persons) to the moving image metadata generation unit 141.

なお、人物検出部171は、画像中に人物が存在した場合には、人物に該当する画素の位置を表す位置情報を、動画メタデータ生成部141に伝送してもよい。かかる位置情報が出力されることで、本変形例に係る他の処理部は、画像中のどの位置に人物が存在するのかを、容易に知ることができる。また、人物検出部171は、人物検出処理を行った画像の演算結果(識別器から出力されたスコア)を動画メタデータ生成部141に伝送してもよい。   Note that, when a person is present in the image, the person detection unit 171 may transmit position information indicating the position of the pixel corresponding to the person to the moving image metadata generation unit 141. By outputting such position information, other processing units according to this modification can easily know at which position in the image the person is present. In addition, the person detection unit 171 may transmit the calculation result (score output from the discriminator) of the image subjected to the person detection process to the moving image metadata generation unit 141.

被写体検出部173は、例えば、CPU、ROM、RAM等から構成されている。被写体検出部173は、伝送された画像の中から、ユーザが画像を一瞥した場合にユーザが注目すると推定される画像上の物体、すなわち、ユーザが目を向けると推定される物体を、被写体として検出する。   The subject detection unit 173 includes, for example, a CPU, a ROM, a RAM, and the like. The subject detection unit 173 uses, as a subject, an object on the image that is estimated to be noticed by the user when the user glances at the image, that is, an object that is estimated to be turned by the user. To detect.

被写体検出部173は、被写体の検出を、例えば、伝送された画像のぼけ具合(ぼけの度合い)、露出の適正さの度合いおよびホワイトバランスの適正さの度合い等に着目して行う。被写体検出部173による被写体の検出処理をより具体的に説明すると、以下の通りである。   The subject detection unit 173 performs subject detection by paying attention to, for example, the degree of blur (degree of blur) of the transmitted image, the degree of appropriateness of exposure, the degree of appropriateness of white balance, and the like. The subject detection process by the subject detection unit 173 will be described in more detail as follows.

被写体検出部173は、動画データ分割部131から画像データが伝送されると、伝送された画像に基づいて、当該画像の各領域について、輝度に関する情報を示す輝度情報マップを生成する。また、被写体検出部173は、伝送された画像に基づいて、当該画像の各領域について、画像を構成する色に関する情報を示す色情報マップを生成する。また、被写体検出部173は、伝送された画像に基づいて、当該画像の各領域について、エッジに関する情報を示すエッジ情報マップを生成する。また、被写体検出部173は、伝送された画像に基づいて、当該画像の各領域について、被写体としての人の顔に関する情報を示す顔情報マップを生成する。また、被写体検出部173は、伝送された画像に基づいて、当該画像の各領域について、動きに関する情報を示す動き情報マップを生成する。   When the image data is transmitted from the moving image data dividing unit 131, the subject detection unit 173 generates a luminance information map indicating information on luminance for each region of the image based on the transmitted image. In addition, the subject detection unit 173 generates a color information map indicating information regarding colors constituting the image for each region of the image based on the transmitted image. In addition, the subject detection unit 173 generates an edge information map indicating information about edges for each region of the image based on the transmitted image. In addition, the subject detection unit 173 generates a face information map indicating information regarding the face of a person as a subject for each region of the image based on the transmitted image. In addition, the subject detection unit 173 generates a motion information map indicating information regarding motion for each region of the image based on the transmitted image.

これらの情報マップに含まれる情報は、被写体の含まれる領域により多く含まれる特徴の特徴量を示す情報であり、その情報が伝送された画像の各領域に対応させて並べられたものが情報マップである。すなわち、情報マップは、伝送された画像の各領域における特徴量を示す情報である。なお、上述の各情報マップは、あくまでも一例であって、上述のもの以外の情報マップが生成されてもよく、上述の各情報マップのうち一部のみが生成されてもよい。   The information included in these information maps is information indicating feature amounts of features that are included more in the region including the subject, and the information map is arranged in correspondence with each region of the image to which the information is transmitted. It is. That is, the information map is information indicating the feature amount in each area of the transmitted image. In addition, each above-mentioned information map is an example to the last, Information maps other than the above-mentioned thing may be produced | generated, and only one part may be produced | generated among the above-mentioned each information map.

被写体検出部173は、生成した各情報マップを線形結合し、被写体マップを生成する。すなわち、上述の各情報マップの各領域の情報(特徴量)が、同じ位置にある領域ごとに重み付け加算され、被写体マップが生成される。   The subject detection unit 173 linearly combines the generated information maps to generate a subject map. That is, the information (feature amount) of each area of each information map described above is weighted and added for each area at the same position, and a subject map is generated.

続いて、被写体検出部173は、伝送された画像と、生成した被写体マップとを用いて、伝送された画像における被写体の含まれる領域を処理対象として、被写体のぼけ具合を表す指数(焦点ぼけ指数)を生成する。また、被写体検出部173は、伝送された画像に基づいて、伝送画像全体における露出の適正さの度合いを表す指数(露出指数)を生成する。また、被写体検出部173は、伝送された画像に基づいて、伝送画像全体におけるホワイトバランスの適正さの度合いを表す指数(ホワイトバランス指数)を生成する。   Subsequently, the subject detection unit 173 uses the transmitted image and the generated subject map as an object to be processed in an area including the subject in the transmitted image as an index (defocus blur index). ) Is generated. In addition, the subject detection unit 173 generates an index (exposure index) indicating the degree of appropriateness of exposure in the entire transmitted image based on the transmitted image. In addition, the subject detection unit 173 generates an index (white balance index) indicating the degree of appropriateness of white balance in the entire transmission image based on the transmitted image.

被写体検出部173は、生成したこれらの指数を、予め設定された重みを用いて線形結合し、伝送された画像に対する被写体スコアとする。被写体検出部173は、例えば、算出した被写体スコアが所定の閾値以上となっている領域を、被写体として検出する。   The subject detection unit 173 linearly combines these generated indices using preset weights to obtain a subject score for the transmitted image. The subject detection unit 173 detects, for example, an area where the calculated subject score is equal to or greater than a predetermined threshold as a subject.

被写体検出部173は、伝送された画像中に被写体が存在したか否かの検出結果を、動画メタデータ生成部141に伝送する。また、被写体検出部173は、画像中に複数の被写体が検出された場合には、検出された被写体の個数を動画メタデータ生成部141に伝送してもよい。   The subject detection unit 173 transmits a detection result indicating whether or not a subject is present in the transmitted image to the moving image metadata generation unit 141. Further, the subject detection unit 173 may transmit the number of detected subjects to the moving image metadata generation unit 141 when a plurality of subjects are detected in the image.

なお、被写体検出部173は、画像中に被写体が存在した場合には、被写体に該当する画素の位置を表す位置情報を、動画メタデータ生成部141に伝送してもよい。かかる位置情報が出力されることで、本変形例に係る他の処理部は、画像中のどの位置に被写体が存在するのかを、容易に知ることができる。また、被写体検出部173は、算出した被写体スコア、焦点ぼけ指数、露出指数、ホワイトバランス指数のいずれかまたは全てを動画メタデータ生成部141に伝送してもよい。   Note that the subject detection unit 173 may transmit position information indicating the position of the pixel corresponding to the subject to the moving image metadata generation unit 141 when the subject exists in the image. By outputting such position information, other processing units according to the present modification can easily know at which position in the image the subject is present. In addition, the subject detection unit 173 may transmit any or all of the calculated subject score, defocus index, exposure index, and white balance index to the moving image metadata generation unit 141.

物体検出部175は、例えば、CPU、ROM、RAM等から構成されている。物体検出部175は、伝送された画像の中から、予めデータベースに登録されている物体を検出する。そのため、本変形例に係る情報処理装置10のユーザが、様々な物体を特徴付けるデータをデータベースに予め登録しておくことで、ユーザの嗜好を反映した物体を、画像の中から検出することが可能となる。   The object detection unit 175 includes, for example, a CPU, a ROM, a RAM, and the like. The object detection unit 175 detects an object registered in advance in the database from the transmitted images. Therefore, it is possible for the user of the information processing apparatus 10 according to the present modification to detect an object reflecting the user's preference from the image by registering data characterizing various objects in the database in advance. It becomes.

物体検出部175は、一般的な物体や情報処理装置10のユーザから指定された物体等を含む画像に対してエッジ検出処理を行い、エッジ画像を生成する。物体検出部175は、生成したエッジ画像上のエッジ点における局所特徴量と、このエッジ点をサポートする点とを抽出し、抽出した点を幾何学的位置関係と関連付けて、データベースに登録しておく。   The object detection unit 175 performs edge detection processing on an image including a general object or an object specified by the user of the information processing apparatus 10 to generate an edge image. The object detection unit 175 extracts a local feature amount at an edge point on the generated edge image and a point that supports the edge point, and associates the extracted point with the geometric positional relationship and registers it in the database. deep.

物体検出部175は、動画データ分割部131から画像データが伝送されると、伝送された画像に対してエッジ検出処理を行い、エッジ画像を生成する。物体検出部175は、生成されたエッジ画像を用いて、エッジ画像上のエッジ点における局所特徴量を算出する。物体検出部175は、データベースに登録されている特徴量やエッジ点の幾何学的位置関係を検索し、生成した局所特徴量等に類似しているデータが登録されているか否かを判断する。予め登録されているデータが存在する場合には、対応する物体が画像中に存在したとして、物体検出部175は、検出結果を動画メタデータ生成部141に出力する。また、物体検出部175は、画像中に複数の物体が検出された場合には、検出された物体の種類および個数を動画メタデータ生成部141に伝送してもよい。   When the image data is transmitted from the moving image data dividing unit 131, the object detection unit 175 performs edge detection processing on the transmitted image and generates an edge image. The object detection unit 175 calculates a local feature amount at an edge point on the edge image using the generated edge image. The object detection unit 175 searches for the feature quantity registered in the database and the geometric positional relationship of the edge points, and determines whether data similar to the generated local feature quantity or the like is registered. If pre-registered data exists, the object detection unit 175 outputs the detection result to the moving image metadata generation unit 141 assuming that the corresponding object exists in the image. Further, when a plurality of objects are detected in the image, the object detection unit 175 may transmit the types and number of detected objects to the moving image metadata generation unit 141.

本変形例に係る動画解析部103は、かかる処理部を有することで、第1の実施形態に係る動画解析部103の機能に加え、動画の中から人物を検出したり、ユーザが着目した被写体を検出したり、ユーザが指定した物体を検出したりすることが可能となる。これにより、本変形例に係る動画解析部103は、動画の内容をより多くの観点から解析することが可能となる。その結果、本変形例に係る情報処理装置10は、動画の内容が反映された、より自然で迫力のあるコミック表示画面を生成することが可能となる。   The moving image analysis unit 103 according to the present modification includes such a processing unit, so that in addition to the functions of the moving image analysis unit 103 according to the first embodiment, the moving image analysis unit 103 detects a person from the moving image or the subject focused on by the user Or an object designated by the user can be detected. Thereby, the moving image analysis unit 103 according to the present modification can analyze the content of the moving image from more viewpoints. As a result, the information processing apparatus 10 according to the present modification can generate a more natural and powerful comic display screen in which the content of the moving image is reflected.

なお、上述の説明における人物検出方法、被写体検出方法および物体検出方法はあくまでも一例であって、本変形例に係る動画解析部103が実行する各検出処理の詳細が、上述の例に限定されるわけではない。本変形例に係る動画解析部103では、上述の方法以外の処理を用いて、人物、被写体および物体の検出を行うことが可能である。   Note that the person detection method, the subject detection method, and the object detection method in the above description are merely examples, and details of each detection process executed by the moving image analysis unit 103 according to the present modification are limited to the above examples. Do not mean. The moving image analysis unit 103 according to the present modification can detect a person, a subject, and an object using processing other than the method described above.

また、顔検出部133、人物検出部171、被写体検出部173および物体検出部175のそれぞれは、画像中で最初に検出された人(物)、検出精度の一番高い人(物)、所定の方向を向いている人(顔)、笑顔の人物等、所定の検出対象を優先して検出するようにしてもよい。   Each of the face detection unit 133, the person detection unit 171, the subject detection unit 173, and the object detection unit 175 includes a person (object) detected first in the image, a person (object) with the highest detection accuracy, a predetermined It is also possible to preferentially detect a predetermined detection target such as a person (face) facing the direction of the person or a smiling person.

なお、上述の説明において、動画メタデータ生成部141に伝送される検出結果等はあくまでも一例である。上述の検出結果以外にも、動画を特徴付ける特徴量として利用可能な検出結果等が存在する場合には、これらの検出結果を動画メタデータとして利用可能である。   In the above description, the detection result transmitted to the moving image metadata generation unit 141 is merely an example. In addition to the detection results described above, when there are detection results that can be used as feature quantities that characterize moving images, these detection results can be used as moving image metadata.

[エフェクト画像の配置処理について]
続いて、図31A〜図31Eおよび図32を参照しながら、本変形例に係るコミック表示変換部107が実施するエフェクト画像の配置処理について、詳細に説明する。図31A〜図31Eおよび図32は、本変形例に係るエフェクト画像の配置方法について説明するための説明図である。
[About effect image placement processing]
Next, an effect image arrangement process performed by the comic display conversion unit 107 according to the present modification will be described in detail with reference to FIGS. 31A to 31E and FIG. FIG. 31A to FIG. 31E and FIG. 32 are explanatory diagrams for explaining the effect image arrangement method according to the present modification.

コミック表示変換部107のエフェクト画像配置部161は、動画解析部103による動画の解析結果に応じて、以下で説明するような方針の基でエフェクト画像を配置してもよい。   The effect image placement unit 161 of the comic display conversion unit 107 may place the effect image based on the policy described below, according to the analysis result of the moving image by the moving image analysis unit 103.

例えば、エフェクト画像配置部161は、画像中に検出精度の高い顔領域が存在する場合には、図31Aに示したように、顔領域を含むコマ全体に対して、顔領域を強調するように集中線エフェクトを配置してもよい。ここで、検出精度の高い顔領域の例として、顔検出処理の際に算出される数値(スコア)が所定の閾値以上である領域を挙げることができる。その結果、図31Aに示したように、コマ全体がエフェクト画像の配置される領域であるエフェクト画像配置領域となり、エフェクト画像配置部161は、このエフェクト画像配置領域内に、集中線エフェクトを配置していくこととなる。   For example, when a face area with high detection accuracy exists in the image, the effect image placement unit 161 emphasizes the face area with respect to the entire frame including the face area as shown in FIG. 31A. A concentrated line effect may be placed. Here, as an example of a face area with high detection accuracy, an area in which a numerical value (score) calculated during face detection processing is equal to or greater than a predetermined threshold value can be given. As a result, as shown in FIG. 31A, the entire frame becomes an effect image arrangement area, which is an area in which the effect image is arranged, and the effect image arrangement unit 161 arranges the concentrated line effect in this effect image arrangement area. It will be followed.

また、動画解析部103からコミック表示変換部107に対して、特定の領域(顔領域、人物領域、被写体領域、物体領域)等が検出されず、音声のみが検出されたという結果が通知される場合も生じうる。この際、エフェクト画像配置部161は、図31Bに示したように、コマ領域全体に対して音声が存在することを示す所定のエフェクト画像を配置してもよい。   In addition, the moving image analysis unit 103 notifies the comic display conversion unit 107 of a result that a specific area (a face area, a person area, a subject area, an object area) or the like is not detected and only a sound is detected. Cases can also arise. At this time, as shown in FIG. 31B, the effect image arrangement unit 161 may arrange a predetermined effect image indicating that sound is present in the entire frame area.

また、動画解析部103からコミック表示変換部107に対して、検出精度の高くない領域が検出され、あわせて音声も検出されたという結果が通知される場合も生じうる。この際、エフェクト画像配置部161は、検出された領域(検出精度の高くない領域)を避けるようにエフェクト画像配置領域を設定し、このエフェクト画像配置領域に音声に対応する吹き出しエフェクト等を配置してもよい。この際、エフェクト画像配置部161は、検出された精度の高くない領域と、エフェクト画像配置領域との相対的な位置関係を考慮し、配置するエフェクト画像の方向を設定することが好ましい。ここで、設定されるエフェクト画像配置領域の大きさは、コマのアスペクト比等に応じて適宜決定される。   In addition, there may be a case where the moving image analysis unit 103 notifies the comic display conversion unit 107 of a result that an area with low detection accuracy is detected and a sound is also detected. At this time, the effect image arrangement unit 161 sets the effect image arrangement area so as to avoid the detected area (the area where the detection accuracy is not high), and arranges the balloon effect corresponding to the sound in the effect image arrangement area. May be. At this time, it is preferable that the effect image placement unit 161 sets the direction of the effect image to be placed in consideration of the relative positional relationship between the detected region with low accuracy and the effect image placement region. Here, the size of the effect image arrangement area to be set is appropriately determined according to the aspect ratio of the frame.

例えば図31Cに示したように、コマの右側に検出精度の高くない顔領域が検出され、あわせて音声も検出された場合、エフェクト画像配置部161は、検出された顔領域を避けるようにコマの左側にエフェクト画像配置領域を設定する。また、検出された音声は、検出された顔領域と関連がある場合が多いため、エフェクト画像配置部161は、配置する吹き出しエフェクトの向きを、顔領域の位置するコマの右側から左向きに設定する。   For example, as shown in FIG. 31C, when a face area with low detection accuracy is detected on the right side of the frame and sound is also detected, the effect image placement unit 161 avoids the detected face area. Set the effect image placement area on the left side of. In addition, since the detected sound is often related to the detected face area, the effect image placement unit 161 sets the direction of the balloon effect to be placed from the right side to the left side of the frame where the face area is located. .

検出精度の高くない領域が検出された場合には、検出された領域を強調するようにエフェクト画像を配置してしまうと、検出が失敗していた際に誤った検出結果が強調されてしまうこととなる。そのため、図31Cに示したように、検出領域を避けてエフェクト画像を配置することで、誤った検出結果が出力されていた場合であっても、処理対象画像に対して自然なエフェクトを与えることができる可能性が高くなる。   If an area with low detection accuracy is detected, placing an effect image to emphasize the detected area will highlight the wrong detection result when the detection fails. It becomes. Therefore, as shown in FIG. 31C, by arranging the effect image while avoiding the detection area, even if an erroneous detection result is output, a natural effect is given to the processing target image. The possibility of being able to be increased.

また、動画解析部103からコミック表示変換部107に対して、複数の領域が検出され、あわせて音声も検出されたという結果が通知される場合も生じうる。この際、エフェクト画像配置部161は、複数の検出領域を包含するようなより大きな領域を設定する。エフェクト画像配置部161は、設定された領域を避けるようにエフェクト画像配置領域を設定し、このエフェクト画像配置領域に音声に対応する吹き出しエフェクト等を配置してもよい。この際、エフェクト画像配置部161は、設定されたより大きな領域と、エフェクト画像配置領域との相対的な位置関係を考慮し、配置するエフェクト画像の方向を設定することが好ましい。   In addition, there may be a case where the moving image analysis unit 103 notifies the comic display conversion unit 107 of a result that a plurality of areas are detected and a sound is also detected. At this time, the effect image arrangement unit 161 sets a larger area that includes a plurality of detection areas. The effect image arrangement unit 161 may set an effect image arrangement area so as to avoid the set area, and may arrange a balloon effect corresponding to sound in the effect image arrangement area. At this time, it is preferable that the effect image placement unit 161 sets the direction of the effect image to be placed in consideration of the relative positional relationship between the set larger region and the effect image placement region.

また、人物や顔が検出された場合だけでなく、例えば図31Eに示したように、被写体として検出された物体や、一般的な物体が検出された場合であっても、エフェクト画像配置部161は、上述のようにしてエフェクト画像を配置することが可能である。   Further, not only when a person or a face is detected, but also when an object detected as a subject or a general object is detected as shown in FIG. Can arrange an effect image as described above.

エフェクト画像配置部161は、エフェクト画像の方向を考慮しながらエフェクト画像の配置を行う場合、例えば図32に示したように、コマ全体の重心の位置と、検出された領域の重心の位置との相対的な位置関係を算出して、エフェクト画像の方向を決定する。これにより、エフェクト画像配置部161は、オクルージョンを避けながら、エフェクト画像と検出された領域との関連性をより高めて、効果的にエフェクト画像を配置することが可能である。   When the effect image placement unit 161 places the effect image while considering the direction of the effect image, for example, as shown in FIG. 32, the position of the center of gravity of the entire frame and the position of the center of gravity of the detected area The relative positional relationship is calculated to determine the direction of the effect image. As a result, the effect image placement unit 161 can effectively place the effect image by further increasing the relationship between the effect image and the detected area while avoiding occlusion.

(第2の実施形態)
次に、図33〜図37を参照しながら、本発明の第2の実施形態に係る情報処理装置および情報処理方法について、詳細に説明する。本実施形態に係る情報処理装置および情報処理方法は、動画および静止画の解析結果を利用して、動画および静止画の内容を把握するために有効な画像を自動的に抽出し、抽出した画像を内容把握が容易なように表示する。これにより、あるイベントに関する記録が動画と静止画の双方を用いて行われた場合に、動画と静止画の区別を行うことなく、あるイベントの内容を容易に把握することができる。
(Second Embodiment)
Next, an information processing apparatus and an information processing method according to the second embodiment of the present invention will be described in detail with reference to FIGS. The information processing apparatus and the information processing method according to the present embodiment automatically extract effective images for grasping the contents of moving images and still images using the analysis results of moving images and still images, and the extracted images Is displayed so that it is easy to grasp the contents. Thereby, when recording regarding a certain event is performed using both a moving image and a still image, the content of a certain event can be easily grasped without distinguishing between a moving image and a still image.

<情報処理装置の構成について>
まず、図33〜図35を参照しながら、本実施形態に係る情報処理装置の構成について、詳細に説明する。図33は、本実施形態に係る情報処理装置の構成を説明するためのブロック図である。図34は、本実施形態に係る静止画解析部1003の構成を説明するためのブロック図であり、図35は、本実施形態に係るコミック表示変換部1005の構成を説明するためのブロック図である。
<Configuration of information processing device>
First, the configuration of the information processing apparatus according to the present embodiment will be described in detail with reference to FIGS. 33 to 35. FIG. 33 is a block diagram for explaining the configuration of the information processing apparatus according to the present embodiment. FIG. 34 is a block diagram for explaining the configuration of the still image analysis unit 1003 according to this embodiment, and FIG. 35 is a block diagram for explaining the configuration of the comic display conversion unit 1005 according to this embodiment. is there.

[情報処理装置の全体構成について]
本実施形態に係る情報処理装置10は、例えば図33に示したように、動画データ取得部101、動画解析部103、音声抽出部105、フレーム画像データ生成部109、コミック表示データ生成部111およびコミック表示実行部113を備える。また、情報処理装置10は、表示制御部115、記憶部117、静止画データ取得部1001、静止画解析部1003およびコミック表示変換部1005を更に備える。なお、情報処理装置10は、これらの各処理部以外にも、例えば任意の通信網を介して任意の装置との間で行なわれる通信を制御する通信制御部(図示せず。)等を有していても良い。
[Overall configuration of information processing device]
As shown in FIG. 33, for example, the information processing apparatus 10 according to the present embodiment includes a moving image data acquisition unit 101, a moving image analysis unit 103, an audio extraction unit 105, a frame image data generation unit 109, a comic display data generation unit 111, and A comic display execution unit 113 is provided. The information processing apparatus 10 further includes a display control unit 115, a storage unit 117, a still image data acquisition unit 1001, a still image analysis unit 1003, and a comic display conversion unit 1005. In addition to these processing units, the information processing apparatus 10 includes a communication control unit (not shown) that controls communication performed with an arbitrary device via an arbitrary communication network, for example. You may do it.

ここで、動画データ取得部101、動画解析部103、音声抽出部105、フレーム画像データ生成部109、コミック表示データ生成部111、コミック表示実行部113、表示制御部115および記憶部117は、第1の実施形態に係る各処理部と同様の構成を有し、ほぼ同様の効果を奏するため、以下では、詳細な説明は省略する。   Here, the moving image data acquisition unit 101, the moving image analysis unit 103, the sound extraction unit 105, the frame image data generation unit 109, the comic display data generation unit 111, the comic display execution unit 113, the display control unit 115, and the storage unit 117 Since it has the same configuration as each processing unit according to the first embodiment and has substantially the same effect, detailed description will be omitted below.

静止画データ取得部1001は、例えば、CPU、ROM、RAM、通信装置等から構成されている。静止画データ取得部1001は、情報処理装置10に対してなされたユーザ操作に応じて、ユーザが指定した静止画に対応する静止画データを、記憶部117や、情報処理装置10に挿入された各種の記録媒体等から取得する。ここで、静止画データには、当該静止画データが生成された時刻に関する時刻情報が関連付けられているものとする。また、静止画データ取得部1001は、情報処理装置10に接続された他の装置から静止画データを取得したり、インターネット等の通信網を介して接続された各種のサーバから静止画データを取得したりすることが可能である。静止画データ取得部1001は、取得した静止画データを、静止画解析部1003と、フレーム画像データ生成部109とにそれぞれ伝送する。   The still image data acquisition unit 1001 includes, for example, a CPU, a ROM, a RAM, a communication device, and the like. The still image data acquisition unit 1001 has inserted still image data corresponding to a still image specified by the user into the storage unit 117 or the information processing device 10 in response to a user operation performed on the information processing device 10. Obtained from various recording media. Here, it is assumed that time information regarding the time when the still image data is generated is associated with the still image data. The still image data acquisition unit 1001 acquires still image data from other devices connected to the information processing device 10, or acquires still image data from various servers connected via a communication network such as the Internet. It is possible to do. The still image data acquisition unit 1001 transmits the acquired still image data to the still image analysis unit 1003 and the frame image data generation unit 109, respectively.

静止画解析部1003は、例えば、CPU、ROM、RAM等から構成されている。静止画解析部1003は、伝送された静止画データを解析して、静止画を特徴付ける特徴量を抽出する。また、静止画解析部1003は、抽出された特徴量を用いて、特徴量に関するメタデータである静止画メタデータを生成する。静止画解析部1003は、生成した静止画メタデータを、後述するコミック表示変換部1005に伝送する。なお、静止画解析部1003は、静止画を解析して生成される静止画メタデータ以外にも、デジタルカメラなどの撮像装置上で取得可能なメタデータを、後述するコミック表示変換部1005で用いられる静止画メタデータとして利用することも可能である。ここで、撮像装置上で取得可能なメタデータとして、例えば、お気に入りボタン、ズームイン、ズームアウトボタン等の操作履歴等を挙げることができる。   The still image analysis unit 1003 includes, for example, a CPU, a ROM, a RAM, and the like. The still image analysis unit 1003 analyzes the transmitted still image data and extracts a feature amount that characterizes the still image. Further, the still image analysis unit 1003 generates still image metadata, which is metadata related to the feature amount, using the extracted feature amount. The still image analysis unit 1003 transmits the generated still image metadata to the comic display conversion unit 1005 described later. The still image analysis unit 1003 uses, in addition to still image metadata generated by analyzing a still image, metadata that can be acquired on an imaging device such as a digital camera in a comic display conversion unit 1005 described later. It can also be used as still image metadata. Here, as metadata that can be acquired on the imaging apparatus, for example, an operation history of a favorite button, a zoom-in button, a zoom-out button, or the like can be cited.

なお、この静止画解析部1003については、以下で改めて詳細に説明する。   The still image analysis unit 1003 will be described in detail later.

コミック表示変換部1005は、例えば、CPU、ROM、RAM等から構成されている。コミック表示変換部1005は、動画メタデータおよび静止画メタデータに基づいて動画データおよび静止画データの中から複数の画像を抽出する。また、コミック表示変換部1005は、所定の表示領域をコマ割りして抽出した複数の画像をマンガ的に配置変換し、それぞれのコマに配置された画像に関する情報を含むコマ情報を生成する。コミック表示変換部1005は、生成したコマ情報を、フレーム画像データ生成部109およびコミック表示データ生成部111に伝送する。   The comic display conversion unit 1005 includes, for example, a CPU, a ROM, a RAM, and the like. The comic display conversion unit 1005 extracts a plurality of images from the moving image data and the still image data based on the moving image metadata and the still image metadata. In addition, the comic display conversion unit 1005 performs a manga-like layout conversion of a plurality of images extracted by dividing a predetermined display area into frames, and generates frame information including information regarding images arranged in the respective frames. The comic display conversion unit 1005 transmits the generated frame information to the frame image data generation unit 109 and the comic display data generation unit 111.

なお、このコミック表示変換部1005については、以下で改めて詳細に説明する。   The comic display conversion unit 1005 will be described in detail later.

[静止画解析部1003の構成について]
続いて、図34を参照しながら、本実施形態に係る静止画解析部1003の構成について、詳細に説明する。
[Configuration of Still Image Analysis Unit 1003]
Next, the configuration of the still image analysis unit 1003 according to the present embodiment will be described in detail with reference to FIG.

本実施形態に係る静止画解析部1003は、例えば図34に示したように、顔検出部1011、人物検出部1013、被写体検出部1015、物体検出部1017、タイムスタンプ判定部1019および静止画メタデータ生成部1021を主に備える。   As illustrated in FIG. 34, for example, the still image analysis unit 1003 according to the present embodiment includes a face detection unit 1011, a person detection unit 1013, a subject detection unit 1015, an object detection unit 1017, a time stamp determination unit 1019, and a still image meta. A data generation unit 1021 is mainly provided.

ここで、顔検出部1011、人物検出部1013、被写体検出部1015および物体検出部1017は、本発明の第1の実施形態および第1の実施形態の第1変形例に係る各処理部と同様の構成を有し、同様の効果を奏するため、以下では、詳細な説明は省略する。   Here, the face detection unit 1011, the person detection unit 1013, the subject detection unit 1015, and the object detection unit 1017 are the same as the respective processing units according to the first embodiment of the present invention and the first modification of the first embodiment. In order to achieve the same effect, detailed description will be omitted below.

タイムスタンプ判定部1019は、例えば、CPU、ROM、RAM等から構成されている。タイムスタンプ判定部1019は、静止画データ取得部1001から伝送された静止画データに関連付けられている時刻情報を参照して、静止画データがいつ生成されたものであるかを判定する。タイムスタンプ判定部1019は、静止画データのタイムスタンプを、後述する静止画メタデータ生成部1021に伝送する。   The time stamp determination unit 1019 includes, for example, a CPU, a ROM, a RAM, and the like. The time stamp determination unit 1019 determines when the still image data is generated with reference to time information associated with the still image data transmitted from the still image data acquisition unit 1001. The time stamp determination unit 1019 transmits the time stamp of the still image data to a still image metadata generation unit 1021 described later.

かかるタイムスタンプを静止画メタデータの一つとして静止画メタデータ生成部1021に伝送することで、情報処理装置10の他の処理部は、該当する静止画がいつ生成されたものかを特定することが可能となる。かかるタイムスタンプが特定されることで、コミック表示変換部1005のコマ画像配置部159は、抽出された静止画を、動画から選択された複数の画像のどの位置に挿入すればよいかを容易に判断することが可能となる。   By transmitting the time stamp as one of the still image metadata to the still image metadata generation unit 1021, the other processing unit of the information processing apparatus 10 identifies when the corresponding still image is generated. It becomes possible. By specifying such a time stamp, the frame image arrangement unit 159 of the comic display conversion unit 1005 can easily determine at which position of the plurality of images selected from the moving image the extracted still image should be inserted. It becomes possible to judge.

静止画メタデータ生成部1021は、例えば、CPU、ROM、RAM等から構成されている。静止画メタデータ生成部1021は、顔検出部1011、人物検出部1013、被写体検出部1015、物体検出部1017およびタイムスタンプ判定部1019から伝送された検出結果等に基づき、静止画を特徴付ける特徴量に関する静止画メタデータを生成する。つまり、静止画メタデータには、画像データから抽出された特徴量に関するメタデータが含まれている。   The still image metadata generation unit 1021 includes, for example, a CPU, a ROM, a RAM, and the like. The still image metadata generation unit 1021 is a feature quantity that characterizes a still image based on detection results transmitted from the face detection unit 1011, the person detection unit 1013, the subject detection unit 1015, the object detection unit 1017, and the time stamp determination unit 1019. Still image metadata is generated. That is, the still image metadata includes metadata related to the feature amount extracted from the image data.

静止画メタデータ生成部1021は、上述のようにして生成された静止画メタデータを、コミック表示変換部1005に伝送する。   The still image metadata generation unit 1021 transmits the still image metadata generated as described above to the comic display conversion unit 1005.

以上、本実施形態に係る静止画解析部1003の構成について説明した。
なお、図34では、静止画解析部1003が、顔検出部1011、人物検出部1013、被写体検出部1015および物体検出部1017を備える場合について図示しているが、静止画解析部1003は、上述の処理部のうちいくつかを備えていてもよい。
The configuration of the still image analysis unit 1003 according to the present embodiment has been described above.
Note that FIG. 34 illustrates a case where the still image analysis unit 1003 includes a face detection unit 1011, a person detection unit 1013, a subject detection unit 1015, and an object detection unit 1017, but the still image analysis unit 1003 is described above. Some of the processing units may be provided.

また、本実施形態に係る情報処理装置10では、動画解析部103および静止画解析部1003のそれぞれが同様の機能を有する処理部(各検出部)を備えている場合について説明した。しかしながら、動画解析部103および静止画解析部1003により共用される各検出部が、情報処理装置10内に設けられていてもよい。   In the information processing apparatus 10 according to the present embodiment, the case where each of the moving image analysis unit 103 and the still image analysis unit 1003 includes a processing unit (each detection unit) having the same function has been described. However, each detection unit shared by the moving image analysis unit 103 and the still image analysis unit 1003 may be provided in the information processing apparatus 10.

[コミック表示変換部1005の構成について]
次に、図35を参照しながら、本実施形態に係るコミック表示変換部1005の構成について、詳細に説明する。
[Configuration of Comic Display Conversion Unit 1005]
Next, the configuration of the comic display conversion unit 1005 according to the present embodiment will be described in detail with reference to FIG.

コミック表示変換部1005は、ダイジェストスコア算出部151、サムネイル枚数決定部153、カメラワークメタデータ利用部155、コマ画像配置部159、エフェクト画像配置部161、コマ情報生成部163および画像サイズ決定部1031を主に備える。   The comic display conversion unit 1005 includes a digest score calculation unit 151, a thumbnail number determination unit 153, a camera work metadata use unit 155, a frame image arrangement unit 159, an effect image arrangement unit 161, a frame information generation unit 163, and an image size determination unit 1031. Is mainly provided.

ここで、ダイジェストスコア算出部151、サムネイル枚数決定部153、カメラワークメタデータ利用部155、コマ画像配置部159、エフェクト画像配置部161およびコマ情報生成部163は、本発明の第1の実施形態および第1の実施形態の第1変形例に係る各処理部と同様の構成を有し、ほぼ同様の効果を奏するため、以下では、詳細な説明は省略する。   Here, the digest score calculation unit 151, the thumbnail number determination unit 153, the camera work metadata use unit 155, the frame image arrangement unit 159, the effect image arrangement unit 161, and the frame information generation unit 163 are the first embodiment of the present invention. And since it has the structure similar to each process part which concerns on the 1st modification of 1st Embodiment, and there exists substantially the same effect, below, detailed description is abbreviate | omitted.

画像サイズ決定部1031は、例えば、CPU、ROM、RAM等から構成されている。画像サイズ決定部1031は、第1の実施形態に係る画像サイズ決定部157と同様にして、所定の表示領域に配置される動画のサムネイル画像の大きさを、ダイジェストスコアに基づいて決定する。   The image size determination unit 1031 is constituted by, for example, a CPU, a ROM, a RAM, and the like. Similar to the image size determining unit 157 according to the first embodiment, the image size determining unit 1031 determines the size of the thumbnail image of the moving image arranged in the predetermined display area based on the digest score.

画像サイズ決定部1031は、選択されたサムネイル画像に対して、画像中に顔が存在することを表す動画メタデータが存在している場合には、顔が表示されている領域である顔領域を拡大表示するように、画像サイズを設定する。また、画像中に複数の顔領域が存在する場合には、画像サイズ決定部1031は、全ての顔領域を含むように画像データのサイズを拡大処理する。   When there is moving image metadata indicating that a face exists in the image for the selected thumbnail image, the image size determination unit 1031 selects a face region that is a region where the face is displayed. Set the image size so that it is enlarged. When there are a plurality of face areas in the image, the image size determination unit 1031 enlarges the size of the image data so as to include all the face areas.

また、画像サイズ決定部1031は、所定の表示領域に配置される静止画のサムネイル画像の大きさを、静止画解析部1003から伝送された静止画メタデータに基づいて決定する。また、画像サイズ決定部1031は、情報処理装置10に入力された複数の静止画に関して、コミック表示に使用する静止画を、静止画メタデータおよび静止画サイズに基づいて選択することも可能である。例えば、画像サイズ決定部1031は、顔・人物・被写体等が検出されたことを表すメタデータを有する静止画を、優先的に選択してもよい。また、画像サイズ決定部1031は、以下で説明する画像サイズの決定方法により決定した静止画の画像サイズに基づき、画像サイズの大きなものを優先的に選択してもよい。なお、静止画メタデータに基づく静止画の画像サイズの決定方法については、以下で改めて詳細に説明する。   The image size determination unit 1031 determines the size of the still image thumbnail image arranged in the predetermined display area based on the still image metadata transmitted from the still image analysis unit 1003. The image size determination unit 1031 can also select a still image to be used for comic display for a plurality of still images input to the information processing apparatus 10 based on the still image metadata and the still image size. . For example, the image size determination unit 1031 may preferentially select a still image having metadata indicating that a face / person / subject has been detected. The image size determination unit 1031 may preferentially select a large image size based on the image size of the still image determined by the image size determination method described below. The method for determining the image size of a still image based on still image metadata will be described in detail later.

画像サイズ決定部1031は、このようにして設定された動画および静止画のサムネイル画像のサイズ(ひいては、アニメーションフレーム画像のサイズ)に関する情報をコマ画像情報とし、コマ画像配置部159およびコマ情報生成部163に伝送する。   The image size determination unit 1031 uses the information regarding the size of the moving image and the still image thumbnail image (and thus the size of the animation frame image) set as described above as the frame image information, and the frame image arrangement unit 159 and the frame information generation unit. 163 to be transmitted.

以上、本実施形態に係る情報処理装置10の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。   Heretofore, an example of the function of the information processing apparatus 10 according to the present embodiment has been shown. Each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component. In addition, the CPU or the like may perform all functions of each component. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of carrying out the present embodiment.

なお、上述のような本実施形態に係る情報処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。   It should be noted that a computer program for realizing each function of the information processing apparatus according to the present embodiment as described above can be produced and installed in a personal computer or the like. In addition, a computer-readable recording medium storing such a computer program can be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.

<情報処理方法について>
続いて、図36および図37を参照しながら、本実施形態に係る情報処理方法について、詳細に説明する。図36は、本実施形態に係る情報処理方法の全体的な流れを説明するための流れ図である。図37は、静止画の画像サイズの決定方法を説明するための流れ図である。
<About information processing method>
Subsequently, the information processing method according to the present embodiment will be described in detail with reference to FIGS. 36 and 37. FIG. 36 is a flowchart for explaining the overall flow of the information processing method according to the present embodiment. FIG. 37 is a flowchart for explaining a method of determining the image size of a still image.

[情報処理方法の全体的な流れについて]
まず、図36を参照しながら、本実施形態に係る情報処理方法の全体的な流れについて、詳細に説明する。
[Overall flow of information processing method]
First, the overall flow of the information processing method according to the present embodiment will be described in detail with reference to FIG.

本実施形態に係る情報処理装置10の動画データ取得部101は、まず、ユーザ操作に応じて、ユーザにより指定された動画に対応する動画データを取得する(ステップS1001)。動画データ取得部101は、動画データを、自装置内の記憶部117等から取得してもよいし、自装置に装着された各種の記録媒体から取得してもよい。また、動画データ取得部101は、動画データを、無線または有線で接続された他の装置から取得してもよいし、インターネット等の通信網を介して接続された他の装置から取得してもよい。動画データ取得部101は、取得した動画データを、動画解析部103および音声抽出部105に伝送する。   First, the moving image data acquisition unit 101 of the information processing apparatus 10 according to the present embodiment acquires moving image data corresponding to a moving image specified by the user in accordance with a user operation (step S1001). The moving image data acquisition unit 101 may acquire moving image data from the storage unit 117 or the like in the own device or may acquire from various recording media attached to the own device. The moving image data acquisition unit 101 may acquire moving image data from another device connected wirelessly or by wire, or may acquire it from another device connected via a communication network such as the Internet. Good. The moving image data acquisition unit 101 transmits the acquired moving image data to the moving image analysis unit 103 and the audio extraction unit 105.

また、本実施形態に係る情報処理装置10の静止画データ取得部1001は、ユーザ操作に応じて、ユーザにより指定された静止画に対応する静止画データを取得する(ステップS1001)。静止画データ取得部1001は、静止画データを、自装置内の記憶部117等から取得してもよいし、自装置に装着された各種の記録媒体から取得してもよい。また、静止画データ取得部1001は、静止画データを、無線または有線で接続された他の装置から取得してもよいし、インターネット等の通信網を介して接続された他の装置から取得してもよい。静止画データ取得部1001は、取得した静止画データを、静止画解析部1003およびフレーム画像データ生成部109に伝送する。   Further, the still image data acquisition unit 1001 of the information processing apparatus 10 according to the present embodiment acquires still image data corresponding to the still image specified by the user in response to a user operation (step S1001). The still image data acquisition unit 1001 may acquire the still image data from the storage unit 117 or the like in the own device, or may acquire from various recording media attached to the own device. The still image data acquisition unit 1001 may acquire still image data from another device connected wirelessly or by wire, or may acquire it from another device connected via a communication network such as the Internet. May be. The still image data acquisition unit 1001 transmits the acquired still image data to the still image analysis unit 1003 and the frame image data generation unit 109.

動画解析部103は、動画データ取得部101から伝送された動画データを解析して、伝送された動画データに対応する動画を特徴付ける特徴量に関するメタデータである動画メタデータを生成する(ステップS1003)。動画解析部103は、生成した動画メタデータを、コミック表示変換部1005に伝送する。   The moving image analysis unit 103 analyzes the moving image data transmitted from the moving image data acquisition unit 101, and generates moving image metadata that is metadata relating to a feature amount characterizing the moving image corresponding to the transmitted moving image data (step S1003). . The moving image analysis unit 103 transmits the generated moving image metadata to the comic display conversion unit 1005.

また、音声抽出部105は、動画データ取得部101から伝送された動画データの中から、音声データを抽出し(ステップS1005)、取得した音声データをコミック表示データ生成部111に伝送する。   Further, the audio extraction unit 105 extracts audio data from the moving image data transmitted from the moving image data acquisition unit 101 (step S1005), and transmits the acquired audio data to the comic display data generation unit 111.

他方、静止画解析部1003は、静止画データ取得部1001から伝送された静止画データを解析して、伝送された静止画データに対応する静止画を特徴付ける特徴量に関するメタデータである静止画メタデータを生成する(ステップS1007)。静止画解析部1003は、生成した静止画メタデータを、コミック表示変換部1005に伝送する。   On the other hand, the still image analysis unit 1003 analyzes the still image data transmitted from the still image data acquisition unit 1001 and performs still image meta data that is metadata relating to a feature amount characterizing the still image corresponding to the transmitted still image data. Data is generated (step S1007). The still image analysis unit 1003 transmits the generated still image metadata to the comic display conversion unit 1005.

次に、コミック表示変換部1005のダイジェストスコア算出部151は、伝送された動画メタデータに基づいて、動画を構成する全ての画像(フレーム画像)に対して、ダイジェストスコアを算出する。ダイジェストスコア算出部151は、算出したダイジェストスコアを、サムネイル枚数決定部153に伝送する。   Next, the digest score calculation unit 151 of the comic display conversion unit 1005 calculates a digest score for all images (frame images) constituting the moving image based on the transmitted moving image metadata. The digest score calculation unit 151 transmits the calculated digest score to the thumbnail number determination unit 153.

続いて、サムネイル枚数決定部153は、伝送されたダイジェストスコアと動画メタデータとを用いて、サムネイル画像として利用される代表フレーム画像を選択する(ステップS1009)。また、サムネイル枚数決定部153は、代表フレーム画像の選択が終了すると、サムネイルアニメーションに用いられるアニメーションフレーム画像を選択する。サムネイル枚数決定部153は、選択した代表フレーム画像を特定する情報や、代表フレーム画像の枚数に関する情報や、代表フレーム画像に関連するアニメーションフレーム画像に関する情報等を含む枚数情報を生成する。サムネイル枚数決定部153は、生成した枚数情報を、画像サイズ決定部1031とコマ情報生成部163とに伝送する。   Subsequently, the thumbnail number determination unit 153 selects a representative frame image to be used as a thumbnail image using the transmitted digest score and moving image metadata (step S1009). Further, when the selection of the representative frame image is completed, the thumbnail number determination unit 153 selects an animation frame image used for the thumbnail animation. The number-of-thumbnail determination unit 153 generates number information including information for specifying the selected representative frame image, information about the number of representative frame images, information about an animation frame image related to the representative frame image, and the like. The thumbnail number determination unit 153 transmits the generated number information to the image size determination unit 1031 and the frame information generation unit 163.

なお、アニメーションフレーム画像や、サムネイルアニメーションの再生速度の決定に際して、カメラワークメタデータ利用部155による解析結果を反映させることも可能である。   It should be noted that the analysis result by the camera work metadata utilization unit 155 can be reflected when determining the playback speed of the animation frame image or thumbnail animation.

次に、画像サイズ決定部1031は、伝送された枚数情報、動画メタデータ、ダイジェストスコア等に基づいて、選択された代表フレーム画像をコミック表示する際の画像サイズを決定する(ステップS1011)。また、画像サイズ決定部1031は、静止画解析部1003から伝送された静止画メタデータ等に基づいて、静止画の画像サイズを決定する(ステップS1013)。画像サイズ決定部1031は、代表フレーム画像の画像サイズに関する情報を含むコマ画像情報を生成し、コマ画像配置部159と、コマ情報生成部163とに伝送する。   Next, the image size determination unit 1031 determines an image size for displaying the selected representative frame image in comics based on the transmitted number information, moving image metadata, digest score, and the like (step S1011). In addition, the image size determination unit 1031 determines the image size of the still image based on the still image metadata transmitted from the still image analysis unit 1003 (step S1013). The image size determination unit 1031 generates frame image information including information related to the image size of the representative frame image, and transmits the frame image information to the frame image arrangement unit 159 and the frame information generation unit 163.

なお、画像サイズ決定部1031は、情報処理装置10に入力された複数の静止画に関して、コミック表示に使用する静止画を、静止画メタデータおよび静止画サイズに基づいて選択することも可能である。例えば、画像サイズ決定部1031は、顔・人物・被写体等が検出されたことを表すメタデータを有する静止画を優先的に選択してもよい。また、画像サイズ決定部1031は、以下で説明する画像サイズの決定方法により決定した静止画の画像サイズに基づき、画像サイズの大きなものを優先的に選択してもよい。   The image size determination unit 1031 can also select a still image to be used for comic display for a plurality of still images input to the information processing apparatus 10 based on the still image metadata and the still image size. . For example, the image size determination unit 1031 may preferentially select a still image having metadata indicating that a face / person / subject has been detected. The image size determination unit 1031 may preferentially select a large image size based on the image size of the still image determined by the image size determination method described below.

続いて、コマ画像配置部159は、伝送されたコマ画像情報、動画メタデータおよび静止画メタデータ等を用いて、代表フレーム画像を表示領域に自動的に配置していき、代表フレーム画像の配置を決定する(ステップS1015)。コマ画像配置部159は、代表フレーム画像の配置を決定すると、どの代表フレーム画像をどの位置に配置したのかといった情報を含むコマ配置情報を生成し、エフェクト画像配置部161と、コマ情報生成部163とに伝送する。   Subsequently, the frame image arrangement unit 159 automatically arranges the representative frame image in the display area using the transmitted frame image information, moving image metadata, still image metadata, and the like, and arranges the representative frame image. Is determined (step S1015). When the arrangement of the representative frame image is determined, the frame image arrangement unit 159 generates frame arrangement information including information such as which representative frame image is arranged at which position, and an effect image arrangement unit 161 and a frame information generation unit 163. And transmit.

次に、エフェクト画像配置部161は、伝送されたコマ配置情報、動画メタデータおよび静止画メタデータ等に基づいて、吹き出し等のエフェクト画像を配置する(ステップS1017)。この際、エフェクト画像配置部161は、本発明の第1の実施形態および第1の実施形態の第1変形例で説明したようなエフェクト画像の配置方法に基づいて、エフェクト画像を配置していく。エフェクト画像配置部161は、エフェクト画像の配置が終了すると、どのエフェクトをどこに配置したのかといった情報を含むエフェクト配置情報を生成し、コマ情報生成部163に伝送する。   Next, the effect image arrangement unit 161 arranges an effect image such as a balloon based on the transmitted frame arrangement information, moving image metadata, still image metadata, and the like (step S1017). At this time, the effect image arrangement unit 161 arranges the effect images based on the effect image arrangement method as described in the first embodiment of the present invention and the first modification of the first embodiment. . When the effect image placement unit 161 finishes placing the effect image, the effect image placement unit 161 generates effect placement information including information about which effect is placed where, and transmits the effect placement information to the frame information generation unit 163.

なお、画像サイズの決定、コマ画像の配置およびエフェクト画像の配置に際して、動画メタデータに含まれるカメラワークに関する特徴量を利用することが可能である。   It should be noted that when determining the image size, the frame image arrangement, and the effect image arrangement, it is possible to use the feature amount relating to the camera work included in the moving image metadata.

続いて、コマ情報生成部163は、各処理部から伝送された枚数情報、コマ画像情報、コマ配置情報、エフェクト配置情報等に基づいて、コマ情報を生成する(ステップS1019)。コマ情報生成部163は、生成したコマ情報を、フレーム画像データ生成部109と、コミック表示データ生成部111とに伝送する。   Subsequently, the frame information generation unit 163 generates frame information based on the number information, frame image information, frame arrangement information, effect arrangement information, and the like transmitted from each processing unit (step S1019). The frame information generation unit 163 transmits the generated frame information to the frame image data generation unit 109 and the comic display data generation unit 111.

次に、フレーム画像データ生成部109は、画像データとコマ情報とに基づいて、コミック表示に利用されるフレーム画像の大きさや形状を調整する処理を行い、コミック表示に利用されるフレーム画像データを生成する(ステップS1021)。フレーム画像データ生成部109は、生成したフレーム画像データを、コミック表示データ生成部111に伝送する。   Next, the frame image data generation unit 109 performs a process of adjusting the size and shape of the frame image used for comic display based on the image data and the frame information, and generates the frame image data used for comic display. Generate (step S1021). The frame image data generation unit 109 transmits the generated frame image data to the comic display data generation unit 111.

コミック表示データ生成部111は、音声抽出部105から伝送された音声データと、コミック表示変換部1005から伝送されたコマ情報とに基づいて、コミック表示に用いられる音声データを生成する。また、コミック表示データ生成部111は、コマ情報と、音声データと、フレーム画像データと、エフェクトデータとを用いて、コミック表示を実現するために必要なデータのセットであるコミック表示データを生成する(ステップS1023)。   The comic display data generation unit 111 generates audio data used for comic display based on the audio data transmitted from the audio extraction unit 105 and the frame information transmitted from the comic display conversion unit 1005. Further, the comic display data generation unit 111 generates comic display data, which is a set of data necessary for realizing comic display, using the frame information, audio data, frame image data, and effect data. (Step S1023).

情報処理装置10は、生成されたコミック表示データを実行することで、表示画面上に、動画の内容を要約したものであるコミック表示を表示することができる。   By executing the generated comic display data, the information processing apparatus 10 can display a comic display that summarizes the content of the moving image on the display screen.

なお、静止画から生成されたコマ画像は、コミック生成後の閲覧時には、静止画1枚を動かすことでアニメーションを行うことが可能である。また、静止画から生成されたコマ画像では、静止画クラスタリングにより複数枚の静止画からアニメーションに用いる画像を選択して、選択した画像を用いてアニメーションを行うことも可能である。   It should be noted that the frame image generated from the still image can be animated by moving one still image when browsing after the comic is generated. In addition, for a frame image generated from a still image, it is possible to select an image to be used for animation from a plurality of still images by still image clustering, and perform animation using the selected image.

[静止画の画像サイズの決定方法について]
続いて、図37を参照しながら、画像サイズ決定部1031で実施される静止画の画像サイズの決定方法について、詳細に説明する。
[How to determine the image size of still images]
Next, a method for determining the image size of a still image performed by the image size determination unit 1031 will be described in detail with reference to FIG.

静止画の画像サイズを決定する際、画像サイズ決定部1031は、まず、静止画の画像サイズを表すパラメータを初期値に設定する(ステップS1101)。   When determining the image size of the still image, the image size determining unit 1031 first sets a parameter representing the image size of the still image to an initial value (step S1101).

続いて、画像サイズ決定部1031は、静止画解析部1003から伝送された静止画メタデータを参照し、処理中の静止画の中に顔領域が2以上検出されたか否かを判断する(ステップS1103)。顔領域が2以上検出されなかった場合には、画像サイズ決定部1031は、後述するステップS1111を実行する。また、顔領域が2以上検出された場合には、画像サイズ決定部1031は、画像サイズを表すパラメータを増加させる(ステップS1105)。次に、画像サイズ決定部1031は、検出された顔領域の大きさが80ピクセル以上であるか否かを判断する(ステップS1107)。顔領域の大きさが80ピクセル以上であった場合には、画像サイズ決定部1031は、画像サイズを表すパラメータを増加させる(ステップS1109)。また、顔領域の大きさが80ピクセル以上ではなかった場合には、画像サイズ決定部1031は、後述するステップS1111を実行する。   Subsequently, the image size determination unit 1031 refers to the still image metadata transmitted from the still image analysis unit 1003, and determines whether or not two or more face regions are detected in the still image being processed (step S1). S1103). If two or more face areas are not detected, the image size determination unit 1031 executes step S1111 described later. If two or more face areas are detected, the image size determination unit 1031 increases a parameter representing the image size (step S1105). Next, the image size determination unit 1031 determines whether or not the size of the detected face area is 80 pixels or more (step S1107). If the size of the face area is 80 pixels or more, the image size determination unit 1031 increases a parameter representing the image size (step S1109). If the size of the face area is not 80 pixels or more, the image size determination unit 1031 executes step S1111 described later.

次に、画像サイズ決定部1031は、静止画メタデータを参照して、処理中の静止画の焦点ぼけ指数が50以上であるか否かを判断する(ステップS1111)。焦点ぼけ指数が50以上である場合には、画像がぼけている可能性があるため、画像サイズ決定部1031は、画像サイズを表すパラメータを減少させ(ステップS1113)、その後、後述するステップS1115を実行する。また、焦点ぼけ指数が50以上ではなかった場合には、画像サイズ決定部1031は、後述するステップS1117を実行する。   Next, the image size determination unit 1031 refers to the still image metadata and determines whether or not the defocus index of the still image being processed is 50 or more (step S1111). When the defocus index is 50 or more, there is a possibility that the image is blurred. Therefore, the image size determination unit 1031 decreases the parameter representing the image size (step S1113), and thereafter, step S1115 described later is performed. Run. On the other hand, if the defocus index is not 50 or more, the image size determination unit 1031 executes step S1117 described later.

続いて、画像サイズ決定部1031は、(被写体として検出された領域の面積/画像中心からの距離)で定義される被写体領域スコアを算出し(ステップS1115)、算出した被写体領域スコアが0.75以上か否かを判断する(ステップS1117)。被写体領域スコアが0.75以上である場合には、画像サイズ決定部1031は、画像のサイズを表すパラメータを増加させ(ステップS1119)、後述するステップS1121を実行する。被写体領域スコアが0.75以上ではなかった場合には、画像サイズ決定部1031は、後述するステップS1121を実行する。   Subsequently, the image size determination unit 1031 calculates a subject region score defined by (area of a region detected as a subject / distance from the image center) (step S1115), and the calculated subject region score is 0.75. It is determined whether or not this is the case (step S1117). When the subject area score is 0.75 or more, the image size determination unit 1031 increases a parameter indicating the size of the image (step S1119), and executes step S1121 described later. If the subject area score is not greater than or equal to 0.75, the image size determination unit 1031 executes step S1121 described later.

次に、画像サイズ決定部1031は、画像サイズを表すパラメータの最終的な値を参照し、パラメータの値に基づいて画像サイズを決定する(ステップS1121)。   Next, the image size determination unit 1031 refers to the final value of the parameter representing the image size, and determines the image size based on the parameter value (step S1121).

画像サイズ決定部1031は、かかる手順で静止画メタデータに基づく処理を行うことにより、コミック表示に用いられる画像サイズを決定することができる。   The image size determination unit 1031 can determine the image size used for comic display by performing processing based on the still image metadata in such a procedure.

なお、上述の説明中で示した各閾値はあくまでも一例であって、画像サイズ決定部1031が処理する静止画の撮影条件やサイズ等の様々な要因に応じて、任意の値に設定することが可能である。   Note that the threshold values shown in the above description are merely examples, and may be set to arbitrary values according to various factors such as the shooting conditions and size of the still image processed by the image size determination unit 1031. Is possible.

(第3の実施形態)
次に、図38を参照しながら、本発明の第3の実施形態に係る情報処理装置について、詳細に説明する。本実施形態に係る情報処理装置は、静止画の解析結果を利用して、一連の静止画の内容を把握するために有効な画像を自動的に抽出し、抽出した画像を内容把握が容易なように表示する。
(Third embodiment)
Next, an information processing apparatus according to the third embodiment of the present invention will be described in detail with reference to FIG. The information processing apparatus according to the present embodiment automatically extracts effective images for grasping the contents of a series of still images using the analysis result of the still images, and the contents of the extracted images can be easily grasped. To display.

<情報処理装置の構成について>
図38は、本実施形態に係る情報処理装置の構成を説明するためのブロック図である。
本実施形態に係る情報処理装置10は、例えば図38に示したように、フレーム画像データ生成部109、コミック表示データ生成部111、コミック表示実行部113、表示制御部115および記憶部117を備える。また、本実施形態に係る情報処理装置10は、静止画データ取得部1001、静止画解析部1003およびコミック表示変換部1101を更に備える。
<Configuration of information processing device>
FIG. 38 is a block diagram for explaining the configuration of the information processing apparatus according to the present embodiment.
The information processing apparatus 10 according to the present embodiment includes a frame image data generation unit 109, a comic display data generation unit 111, a comic display execution unit 113, a display control unit 115, and a storage unit 117, for example, as illustrated in FIG. . The information processing apparatus 10 according to the present embodiment further includes a still image data acquisition unit 1001, a still image analysis unit 1003, and a comic display conversion unit 1101.

フレーム画像データ生成部109、コミック表示データ生成部111、コミック表示実行部113、表示制御部115および記憶部117は、第1の実施形態および第1変形例ならびに第2の実施形態に係る各処理部と同様の構成を有し、同様の効果を奏する。そのため、以下では、詳細な説明は省略する。   The frame image data generation unit 109, the comic display data generation unit 111, the comic display execution unit 113, the display control unit 115, and the storage unit 117 are each processing according to the first embodiment, the first modified example, and the second embodiment. It has the same configuration as the unit and has the same effect. Therefore, detailed description is omitted below.

また、静止画データ取得部1001および静止画解析部1003は、第2の実施形態に係る静止画データ取得部1001および静止画解析部1003と同様の構成を有し、同様の効果を奏するため、以下では、詳細な説明は省略する。   In addition, the still image data acquisition unit 1001 and the still image analysis unit 1003 have the same configuration as the still image data acquisition unit 1001 and the still image analysis unit 1003 according to the second embodiment, and have the same effects. Hereinafter, detailed description is omitted.

コミック表示変換部1101は、例えば、CPU、ROM、RAM等から構成されている。コミック表示変換部1101は、静止画解析部1003から伝送された静止画メタデータに基づいて、所定の表示領域をコマ割りし、複数の静止画像をマンガ的に配置変換し、それぞれのコマに配置された画像に関する情報を含むコマ情報を生成する。コミック表示変換部1101は、生成したコマ情報を、フレーム画像データ生成部109およびコミック表示データ生成部111に伝送する。   The comic display conversion unit 1101 includes, for example, a CPU, a ROM, a RAM, and the like. The comic display conversion unit 1101 divides a predetermined display area into frames based on the still image metadata transmitted from the still image analysis unit 1003, arranges and converts a plurality of still images in a manga manner, and arranges them in each frame. The frame information including the information regarding the processed image is generated. The comic display conversion unit 1101 transmits the generated frame information to the frame image data generation unit 109 and the comic display data generation unit 111.

かかるコミック表示変換部1101の詳細な構成は、本発明の第2の実施形態に係るコミック表示変換部1005の詳細な構成と類似しているため、以下では、詳細な説明は省略する。   Since the detailed configuration of the comic display conversion unit 1101 is similar to the detailed configuration of the comic display conversion unit 1005 according to the second embodiment of the present invention, detailed description thereof will be omitted below.

本実施形態に係る情報処理装置10の静止画データ取得部1001は、ユーザ操作に応じて、ユーザにより指定された静止画に対応する静止画データを取得し、静止画解析部1003に伝送する。静止画解析部1003は、静止画データ取得部1001から伝送された静止画データを解析して、伝送された静止画データに対応する静止画を特徴付ける特徴量に関するメタデータである静止画メタデータを生成する。静止画解析部1003は、生成した静止画メタデータを、コミック表示変換部1101に伝送する。   The still image data acquisition unit 1001 of the information processing apparatus 10 according to the present embodiment acquires still image data corresponding to a still image specified by the user and transmits the still image data to the still image analysis unit 1003 in response to a user operation. The still image analysis unit 1003 analyzes the still image data transmitted from the still image data acquisition unit 1001 and generates still image metadata, which is metadata related to the feature amount characterizing the still image corresponding to the transmitted still image data. Generate. The still image analysis unit 1003 transmits the generated still image metadata to the comic display conversion unit 1101.

コミック表示変換部1101の画像サイズ決定部1031は、静止画解析部1003から伝送された静止画メタデータ等に基づいて、静止画の画像サイズを決定する。画像サイズ決定部1031は、代表フレーム画像の画像サイズに関する情報を含むコマ画像情報を生成し、コミック表示変換部1101のコマ画像配置部159およびコマ情報生成部163に伝送する。   The image size determination unit 1031 of the comic display conversion unit 1101 determines the image size of the still image based on the still image metadata transmitted from the still image analysis unit 1003. The image size determination unit 1031 generates frame image information including information regarding the image size of the representative frame image, and transmits the frame image information to the frame image arrangement unit 159 and the frame information generation unit 163 of the comic display conversion unit 1101.

コミック表示変換部1101のコマ画像配置部159は、伝送されたコマ画像情報および静止画メタデータ等を用いて、代表フレーム画像を表示領域に自動的に配置していき、代表フレーム画像の配置を決定する。コマ画像配置部159は、代表フレーム画像の配置を決定すると、どの代表フレーム画像をどの位置に配置したのかといった情報を含むコマ配置情報を生成し、コミック表示変換部1101のエフェクト画像配置部161およびコマ情報生成部163に伝送する。   The frame image arrangement unit 159 of the comic display conversion unit 1101 automatically arranges the representative frame image in the display area by using the transmitted frame image information and still image metadata, and arranges the arrangement of the representative frame image. decide. When determining the arrangement of the representative frame image, the frame image arrangement unit 159 generates frame arrangement information including information such as which representative frame image is arranged at which position, and the effect image arrangement unit 161 of the comic display conversion unit 1101 and It is transmitted to the frame information generation unit 163.

次に、コミック表示変換部1101のエフェクト画像配置部161は、伝送されたコマ配置情報および静止画メタデータ等に基づいて、吹き出し等のエフェクト画像を配置する。この際、エフェクト画像配置部161は、本発明の第1の実施形態および第1の実施形態の第1変形例で説明したようなエフェクト画像の配置方法に基づいて、エフェクト画像を配置していく。エフェクト画像配置部161は、エフェクト画像の配置が終了すると、どのエフェクトをどこに配置したのかといった情報を含むエフェクト配置情報を生成し、コマ情報生成部163に伝送する。   Next, the effect image arrangement unit 161 of the comic display conversion unit 1101 arranges an effect image such as a balloon based on the transmitted frame arrangement information, still image metadata, and the like. At this time, the effect image arrangement unit 161 arranges the effect images based on the effect image arrangement method as described in the first embodiment of the present invention and the first modification of the first embodiment. . When the effect image placement unit 161 finishes placing the effect image, the effect image placement unit 161 generates effect placement information including information about which effect is placed where, and transmits the effect placement information to the frame information generation unit 163.

続いて、コミック表示変換部1101のコマ情報生成部163は、各処理部から伝送されたコマ画像情報、コマ配置情報、エフェクト配置情報等に基づいて、コマ情報を生成する。コマ情報生成部163は、生成したコマ情報を、フレーム画像データ生成部109と、コミック表示データ生成部111とに伝送する。   Subsequently, the frame information generation unit 163 of the comic display conversion unit 1101 generates frame information based on frame image information, frame arrangement information, effect arrangement information, and the like transmitted from each processing unit. The frame information generation unit 163 transmits the generated frame information to the frame image data generation unit 109 and the comic display data generation unit 111.

次に、フレーム画像データ生成部109は、画像データとコマ情報とに基づいて、コミック表示に利用されるフレーム画像の大きさや形状を調整する処理を行い、コミック表示に利用されるフレーム画像データを生成する。フレーム画像データ生成部109は、生成したフレーム画像データを、コミック表示データ生成部111に伝送する。   Next, the frame image data generation unit 109 performs a process of adjusting the size and shape of the frame image used for comic display based on the image data and the frame information, and generates the frame image data used for comic display. Generate. The frame image data generation unit 109 transmits the generated frame image data to the comic display data generation unit 111.

コミック表示データ生成部111は、コマ情報と、フレーム画像データと、エフェクトデータとを用いて、コミック表示を実現するために必要なデータのセットであるコミック表示データを生成する。   The comic display data generation unit 111 uses the frame information, the frame image data, and the effect data to generate comic display data that is a set of data necessary for realizing comic display.

情報処理装置10は、生成されたコミック表示データを実行することで、表示画面上に、動画の内容を要約したものであるコミック表示を表示することができる。   By executing the generated comic display data, the information processing apparatus 10 can display a comic display that summarizes the content of the moving image on the display screen.

以上、本実施形態に係る情報処理装置10の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。   Heretofore, an example of the function of the information processing apparatus 10 according to the present embodiment has been shown. Each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component. In addition, the CPU or the like may perform all functions of each component. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of carrying out the present embodiment.

なお、上述のような本実施形態に係る情報処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。   It should be noted that a computer program for realizing each function of the information processing apparatus according to the present embodiment as described above can be produced and installed in a personal computer or the like. In addition, a computer-readable recording medium storing such a computer program can be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.

(ハードウェア構成について)
次に、図39を参照しながら、本発明の各実施形態に係る情報処理装置10のハードウェア構成について、詳細に説明する。図39は、本発明の各実施形態に係る情報処理装置10のハードウェア構成を説明するためのブロック図である。
(About hardware configuration)
Next, the hardware configuration of the information processing apparatus 10 according to each embodiment of the present invention will be described in detail with reference to FIG. FIG. 39 is a block diagram for explaining a hardware configuration of the information processing apparatus 10 according to each embodiment of the present invention.

情報処理装置10は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置10は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インターフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。   The information processing apparatus 10 mainly includes a CPU 901, a ROM 903, and a RAM 905. The information processing apparatus 10 further includes a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, and a connection port 923. And a communication device 925.

CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。   The CPU 901 functions as an arithmetic processing unit and a control unit, and controls all or a part of the operation in the information processing apparatus 10 according to various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927. The ROM 903 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 905 primarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 907 constituted by an internal bus such as a CPU bus.

ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。   The host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.

入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなどユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置10の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、この入力装置915を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。   The input device 915 is an operation unit operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever. Further, the input device 915 may be, for example, remote control means (so-called remote controller) using infrared rays or other radio waves, or an external connection device such as a mobile phone or a PDA corresponding to the operation of the information processing device 10. 929 may be used. Furthermore, the input device 915 includes an input control circuit that generates an input signal based on information input by a user using the above-described operation means and outputs the input signal to the CPU 901, for example. The user of the information processing apparatus 10 can input various data and instruct a processing operation to the information processing apparatus 10 by operating the input device 915.

出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置およびランプなどの表示装置や、スピーカおよびヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置917は、例えば、情報処理装置10が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置10が行った各種処理により得られた結果を、テキストまたはイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。   The output device 917 is configured by a device capable of visually or audibly notifying acquired information to the user. Examples of such devices include CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and display devices such as lamps, audio output devices such as speakers and headphones, printer devices, mobile phones, and facsimiles. For example, the output device 917 outputs results obtained by various processes performed by the information processing apparatus 10. Specifically, the display device displays results obtained by various processes performed by the information processing device 10 as text or images. On the other hand, the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs the analog signal.

ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した音響信号データや画像信号データなどを格納する。   The storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 10. The storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device. The storage device 919 stores programs executed by the CPU 901 and various data, and acoustic signal data and image signal data acquired from the outside.

ドライブ921は、記録媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD−DVDメディア、Blu−ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、メモリースティック、または、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)または電子機器等であってもよい。   The drive 921 is a recording medium reader / writer, and is built in or externally attached to the information processing apparatus 10. The drive 921 reads information recorded on a removable recording medium 927 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 905. In addition, the drive 921 can write a record on a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory. The removable recording medium 927 is, for example, a DVD medium, an HD-DVD medium, a Blu-ray (registered trademark) medium, or the like. Further, the removable recording medium 927 may be a compact flash (registered trademark) (CompactFlash: CF), a memory stick, an SD memory card (Secure Digital memory card), or the like. Further, the removable recording medium 927 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, an electronic device, or the like.

接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、i.Link等のIEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS−232Cポート、光オーディオ端子、HDMI(High−Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置10は、外部接続機器929から直接音響信号データや画像信号データを取得したり、外部接続機器929に音響信号データや画像信号データを提供したりする。   The connection port 923 is a port for directly connecting a device to the information processing apparatus 10. An example of the connection port 923 is a USB (Universal Serial Bus) port, i. There are IEEE 1394 ports such as Link, SCSI (Small Computer System Interface) ports, and the like. As another example of the connection port 923, there are an RS-232C port, an optical audio terminal, a high-definition multimedia interface (HDMI) port, and the like. By connecting the external connection device 929 to the connection port 923, the information processing apparatus 10 directly acquires acoustic signal data and image signal data from the external connection device 929, or acquires acoustic signal data and image signals from the external connection device 929. Or provide data.

通信装置925は、例えば、通信網931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth、またはWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線または無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信等であってもよい。   The communication device 925 is a communication interface including a communication device for connecting to the communication network 931, for example. The communication device 925 is, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth, or WUSB (Wireless USB). The communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication. The communication device 925 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or other communication devices. The communication network 931 connected to the communication device 925 is configured by a wired or wireless network, and may be, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like. .

以上、本発明の各実施形態に係る情報処理装置10の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。   Heretofore, an example of the hardware configuration capable of realizing the function of the information processing apparatus 10 according to each embodiment of the present invention has been shown. Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Therefore, it is possible to change the hardware configuration to be used as appropriate according to the technical level at the time of carrying out this embodiment.

<まとめ>
以上説明したように、本手法を用いることで、様々なイベント(例えば、飲み会、旅行など)のプライベートビデオを、漫画のように表示することが可能である。長さ数分程度のプライベートビデオも、コマの大きさにもよるが数ページ程度で表現することができるため、より手短に閲覧することが可能である。また、Flashなどのコンテンツとしてコミック表示データを生成することで、Webブラウザ上などでページをめくりつつ、指定したコマの音声を再生しながら閲覧するようなことも可能である。
<Summary>
As described above, by using this method, it is possible to display private videos of various events (for example, drinking parties, trips, etc.) like comics. Private videos that are only a few minutes long can be expressed in a few pages, depending on the size of the frames, and can be viewed more easily. Further, by generating comic display data as content such as Flash, it is possible to turn the page on a web browser or the like and browse while reproducing the sound of the designated frame.

また、本手法では、動画解析部により動画データを解析することで、動画メタデータを抽出しているが、動画がTVコンテンツである場合、字幕データやEPGデータなどの情報を利用することも可能である。これにより、例えば吹き出し中に、人物の台詞などを表示させることも可能となる。   In this method, the moving image metadata is extracted by analyzing the moving image data by the moving image analysis unit. However, when the moving image is TV content, information such as subtitle data and EPG data can be used. It is. Thereby, for example, it is also possible to display a person's lines in a balloon.

このように、本手法によれば、動画の内容を一見して理解できるように、動画の内容を要約することができる。これにより、動画を全て再生する時間を節約でき、重要なシーンを見逃さず、おおまかに全体を閲覧することができる。また、盛り上がりシーンをコマの大きさに反映させることで、効果的に表現することができる。また、動画の一覧性が向上しているため、大量の動画から、特定の動画を検索することが容易となる。   Thus, according to this method, the contents of the moving image can be summarized so that the contents of the moving image can be understood at a glance. As a result, it is possible to save time for reproducing all the moving images, and to roughly view the whole without missing an important scene. In addition, the climax scene can be effectively expressed by reflecting the scene size. In addition, since the list of moving images is improved, it is easy to search for a specific moving image from a large number of moving images.

また、本手法によれば、コマ割りや吹き出しなど、動画を見たくなるような多様なコミック表現が可能となる。これにより、盛り上がりシーンの抽出が、そのまま動的なコマ割りとなり、コミックの面白さとして役立つこととなる。また、顔抽出機能により、顔がうまく映ったコマを吹き出しで隠さずにコミックに採用することができる。また、音声データの分類機能により、音声の台詞に応じたふきだしを生成可能である。また、多様な吹き出しによって、動画のシーンをより容易に理解することが可能となる。また、動画を撮影したものの、撮ったまま面倒になって見なくなってしまうといった現象を防止することができ、動画への興味を喚起することができる。また、動画をコミック画像にして表現することで、プライベートビデオの間延び感を和らげることもできる。   In addition, according to the present technique, various comic expressions such as frame division and speech balloons that make a user want to see a moving image are possible. As a result, the extraction of the exciting scene becomes a dynamic frame division as it is, which is useful as a fun part of the comic. In addition, the face extraction function can be used for a comic without hiding a frame showing a good face in a balloon. In addition, the speech data classification function can generate speech bubbles corresponding to speech lines. In addition, it is possible to more easily understand a moving image scene by using various balloons. In addition, it is possible to prevent a phenomenon in which a moving image is taken, but it becomes troublesome as it is taken and cannot be seen, and interest in the moving image can be aroused. In addition, by expressing the moving image as a comic image, it is possible to relieve the extended feeling of private video.

また、本手法におけるコミック表示データは、Flash、JavaScript、Java/BREWなど、多様なScriptや言語で記述可能である。例えばFlash等を用いた場合、ページをめくったり音声を再生したりと、インタラクティブなコンテンツを作成可能である。また、一般のWebブラウザでの閲覧が可能となるため、専用アプリケーションのインストール等の繁雑さを除去することができる。また、動画内容を一覧表示できるため、動画共有サイト等の表現・利便性を向上させることができる。これにより、コミック表示データをネットワーク上にアップロードし、他者との動画の共有を促進することができる。また、本手法は、一覧性が高く表現も面白いため、ホームページやブログへの貼り付けなどとの親和性を向上させることができる。   Further, comic display data in this method can be described in various scripts and languages such as Flash, JavaScript, Java / BREW. For example, when Flash or the like is used, it is possible to create interactive content such as turning a page or playing a sound. In addition, since browsing with a general Web browser is possible, it is possible to eliminate the complexity of installing a dedicated application. In addition, since a list of moving image contents can be displayed, the expression and convenience of a moving image sharing site and the like can be improved. Thereby, comic display data can be uploaded on a network and sharing of a moving image with others can be promoted. In addition, this method can improve the compatibility with pasting on homepages and blogs because of its high listability and interesting expression.

また、顔領域の検出結果に限らず、人物検出、被写体検出および物体検出といった様々な認識および検出技術を利用することで、コンテンツの内容理解に役立つ様々な画像を抽出することが可能となり、より容易にコンテンツの内容把握を行うことが可能となる。   In addition to the detection results of face areas, various recognition and detection technologies such as person detection, subject detection, and object detection can be used to extract various images useful for understanding the content. It is possible to easily grasp the contents.

また、検出された領域の検出精度や検出された領域の位置等に応じて、エフェクト画像の配置位置等を変更することで、画像中の重要な対象を強調して表示することが可能となり、重要なオブジェクトをエフェクト画像が隠してしまうことを防止可能である。   Also, by changing the placement position of the effect image according to the detection accuracy of the detected area, the position of the detected area, etc., it becomes possible to highlight and display important objects in the image, It is possible to prevent the effect image from hiding an important object.

また、動画コンテンツだけでなく静止画コンテンツといった、ユーザの多様なメディアコンテンツを一まとめにしてコミック表示へと変換することができるため、ユーザは、手軽に複数のメディアのダイジェストを楽しく閲覧することができる。   In addition, it is possible to convert a variety of media content such as video content as well as still image content together into a comic display so that the user can easily enjoy digests of multiple media. it can.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

なお、以下のような構成も本発明の技術的範囲に属する。
(1)
画像データを解析し、当該画像を特徴付ける特徴量に関するメタデータである画像メタデータを生成する画像解析部と、
前記画像メタデータに基づいて前記画像データの中から複数の画像を抽出するとともに、抽出した複数の画像を配置するためのコマに関するコマ情報を決定するコマ情報決定部と、
前記コマ情報と、前記抽出された画像のデータとを少なくとも含む画像表示データを生成する画像表示データ生成部と、
を備える、情報処理装置。
(2)
前記画像データには、時刻情報が関連付けられており、
前記コマ情報決定部は、当該時刻情報に基づいて前記画像データを時間順に抽出する、(1)に記載の情報処理装置。
(3)
前記コマ情報決定部は、前記コマを前記画像の大きさに応じて自動的に調整し、抽出した前記画像を漫画的に配置変換する、(1)または(2)に記載の情報処理装置。
(4)
前記コマ情報決定部は、生成された前記画像メタデータに基づいて、それぞれの前記コマに配置される複数の前記画像の大きさを決定する、(1)〜(3)のいずれか1つに記載の情報処理装置。
(5)
前記コマ情報決定部は、
前記画像メタデータに基づき、前記画像データに対して前記特徴量を重み付け加算した値であるダイジェストスコアを算出するダイジェストスコア算出部と、
前記ダイジェストスコアに基づいて前記画像データの中から前記コマに配置するサムネイル画像を抽出し、当該サムネイル画像の枚数を決定するサムネイル枚数決定部と、
所定の表示領域に配置されるサムネイル画像の大きさを、前記ダイジェストスコアに基づいて決定する画像サイズ決定部と、
画像サイズが決定された前記サムネイル画像を所定の順序で前記コマに配置するコマ画像配置部と、
サムネイル画像が配置されたコマに関する前記コマ情報を生成するコマ情報生成部と、
を更に備える、(1)〜(4)のいずれか1つに記載の情報処理装置。
(6)
前記サムネイル枚数決定部は、抽出された前記サムネイル画像に連続する所定の時間分の複数の画像をアニメーション用の画像として更に抽出する、(5)に記載の情報処理装置。
(7)
前記画像メタデータは、前記画像を撮像する際のカメラワークに関する画像メタデータを含み、
前記コマ情報決定部は、前記カメラワークに関する画像メタデータに基づいて、前記サムネイル枚数決定部により前記アニメーション用の画像として抽出される画像の枚数を決定するカメラワークメタデータ利用部を更に備える、(5)または(6)に記載の情報処理装置。
(8)
前記カメラワークメタデータ利用部は、抽出された前記サムネイル画像から前記カメラワークの積分値が所定の閾値となった時点に対応する画像までの間に存在する複数の画像の中から、前記アニメーション用の画像を選択する、(7)に記載の情報処理装置。
(9)
前記カメラワークメタデータ利用部は、前記カメラワークの積分値の大きさに応じて、前記サムネイル画像および前記アニメーション用の画像からなるアニメーションの再生速度を設定する、(8)に記載の情報処理装置。
(10)
前記コマ情報決定部は、前記サムネイル画像が配置されたコマに対して、前記画像メタデータに基づいて吹き出しおよび画面効果の少なくとも何れかを配置するエフェクト画像配置部を更に備える、(5)〜(9)のいずれか1つに記載の情報処理装置。
(11)
前記エフェクト画像配置部は、前記画像データに含まれる音声データに関する前記画像メタデータを利用して、前記吹き出しおよび前記画面効果の少なくとも何れかを配置する、(10)に記載の情報処理装置。
(12)
前記エフェクト画像配置部は、前記画像を撮像する際のカメラワークに関する画像メタデータを利用して、前記サムネイル画像に対して前記画面効果を配置する、(10)または(11)に記載の情報処理装置。
(13)
前記画像サイズ決定部は、画像中に顔が存在することを表す前記画像メタデータが存在する画像について、顔が表示されている領域である顔領域を拡大して前記サムネイル画像とする、(5)〜(12)のいずれか1つに記載の情報処理装置。
(14)
前記画像メタデータは、画像中に人物が存在することを表す画像メタデータ、画像中に存在する被写体に関する画像メタデータおよび画像中に存在する予め登録された物体に関する画像メタデータの少なくともいずれかを更に含み、
前記エフェクト画像配置部は、前記画像中に人物が存在することを表す画像メタデータ、前記画像中に存在する被写体に関する画像メタデータまたは前記画像中に存在する予め登録された物体に関する画像メタデータに基づいて、前記画面効果を配置する、(10)〜(13)のいずれか1つに記載の情報処理装置。
(15)
前記エフェクト画像配置部は、前記サムネイル画像のうち所定のオブジェクトが検出された領域の重心と前記所定の表示領域の重心との相対的な位置関係に基づいて、前記所定のオブジェクトが検出された領域以外の領域に前記画面効果を配置する、(10)〜(14)のいずれか1つに記載の情報処理装置。
(16)
前記画像サイズ決定部は、画像中に複数の前記顔領域が存在する場合には、全ての前記顔領域を含むように拡大処理を行い前記サムネイル画像とする、(13)〜(15)のいずれか1つに記載の情報処理装置。
(17)
画像データを解析し、当該画像を特徴付ける特徴量に関するメタデータである画像メタデータを生成することと、
前記画像メタデータに基づいて前記画像データの中から複数の画像を抽出するとともに、抽出した複数の画像を配置するためのコマに関するコマ情報を決定することと、
前記コマ情報と、前記抽出された画像のデータとを少なくとも含む画像表示データを生成することと、
を含む、情報処理方法。
(18)
コンピュータに、
画像データを解析し、当該画像を特徴付ける特徴量に関するメタデータである画像メタデータを生成する画像解析機能と、
前記画像メタデータに基づいて前記画像データの中から複数の画像を抽出するとともに、抽出した複数の画像を配置するためのコマに関するコマ情報を決定するコマ情報決定機能と、
前記コマ情報と、前記抽出された画像のデータとを少なくとも含む画像表示データを生成する画像表示データ生成機能と、
を実現させるためのプログラム。
The following configurations also belong to the technical scope of the present invention.
(1)
An image analysis unit that analyzes the image data and generates image metadata that is metadata relating to a feature amount that characterizes the image;
A frame information determination unit that extracts a plurality of images from the image data based on the image metadata and determines frame information regarding a frame for arranging the extracted plurality of images;
An image display data generation unit that generates image display data including at least the frame information and the extracted image data;
An information processing apparatus comprising:
(2)
Time information is associated with the image data,
The information processing apparatus according to (1), wherein the frame information determination unit extracts the image data in time order based on the time information.
(3)
The information processing apparatus according to (1) or (2), wherein the frame information determination unit automatically adjusts the frame according to the size of the image, and performs layout conversion of the extracted image.
(4)
The frame information determination unit determines the size of the plurality of images arranged in each frame based on the generated image metadata, and the frame information determination unit is any one of (1) to (3) The information processing apparatus described.
(5)
The frame information determination unit
A digest score calculation unit that calculates a digest score that is a value obtained by weighting and adding the feature amount to the image data based on the image metadata;
A thumbnail number determining unit that extracts thumbnail images to be arranged in the frame from the image data based on the digest score, and determines the number of thumbnail images;
An image size determining unit that determines the size of a thumbnail image arranged in a predetermined display area based on the digest score;
A frame image arrangement unit that arranges the thumbnail images of which the image size has been determined in the frame in a predetermined order;
A frame information generation unit that generates the frame information regarding the frame in which the thumbnail image is arranged;
The information processing apparatus according to any one of (1) to (4), further including:
(6)
The information processing apparatus according to (5), wherein the thumbnail number determination unit further extracts a plurality of images for a predetermined time continuous to the extracted thumbnail images as animation images.
(7)
The image metadata includes image metadata related to camera work when capturing the image,
The frame information determination unit further includes a camera work metadata utilization unit that determines the number of images extracted as the animation image by the thumbnail number determination unit based on image metadata related to the camera work. The information processing apparatus according to 5) or (6).
(8)
The camera work metadata using unit is configured to select the animation image from a plurality of images existing between the extracted thumbnail image and an image corresponding to a point in time when the integrated value of the camera work becomes a predetermined threshold value. The information processing apparatus according to (7), wherein the image is selected.
(9)
The information processing apparatus according to (8), wherein the camera work metadata utilization unit sets a reproduction speed of an animation composed of the thumbnail image and the animation image according to a magnitude of an integral value of the camera work. .
(10)
The frame information determination unit further includes an effect image arrangement unit that arranges at least one of a balloon and a screen effect based on the image metadata with respect to the frame on which the thumbnail image is arranged. The information processing apparatus according to any one of 9).
(11)
The information processing apparatus according to (10), wherein the effect image arrangement unit arranges at least one of the balloon and the screen effect using the image metadata regarding audio data included in the image data.
(12)
The information processing unit according to (10) or (11), wherein the effect image arrangement unit arranges the screen effect on the thumbnail image using image metadata related to camerawork when the image is captured. apparatus.
(13)
The image size determination unit enlarges a face area, which is an area where a face is displayed, into the thumbnail image with respect to an image including the image metadata indicating that a face is present in the image (5). The information processing apparatus according to any one of (12) to (12).
(14)
The image metadata includes at least one of image metadata indicating that a person is present in the image, image metadata relating to a subject existing in the image, and image metadata relating to a pre-registered object existing in the image. In addition,
The effect image arrangement unit includes image metadata indicating that a person is present in the image, image metadata relating to a subject existing in the image, or image metadata relating to a pre-registered object existing in the image. The information processing apparatus according to any one of (10) to (13), wherein the screen effect is arranged based on the information.
(15)
The effect image arrangement unit is configured to detect an area in which the predetermined object is detected based on a relative positional relationship between a centroid of an area in which the predetermined object is detected in the thumbnail image and a centroid of the predetermined display area. The information processing apparatus according to any one of (10) to (14), wherein the screen effect is arranged in a region other than the above.
(16)
The image size determination unit, when there are a plurality of the face areas in the image, performs an enlargement process so as to include all the face areas and sets the thumbnail image as any one of (13) to (15) The information processing apparatus as described in any one.
(17)
Analyzing image data and generating image metadata, which is metadata relating to a feature amount characterizing the image;
Extracting a plurality of images from the image data based on the image metadata and determining frame information relating to a frame for arranging the extracted plurality of images;
Generating image display data including at least the frame information and the extracted image data;
Including an information processing method.
(18)
On the computer,
An image analysis function that analyzes image data and generates image metadata that is metadata related to a feature amount that characterizes the image;
A frame information determination function for extracting a plurality of images from the image data based on the image metadata and determining frame information regarding a frame for arranging the extracted plurality of images;
An image display data generation function for generating image display data including at least the frame information and the extracted image data;
A program to realize

10 情報処理装置
101 動画データ取得部
103 動画解析部
105 音声抽出部
107,1005,1101 コミック表示変換部
109 フレーム画像データ生成部
111 コミック表示データ生成部
113 コミック表示実行部
115 表示制御部
117 記憶部
131 動画データ分割部
133,1011 顔検出部
135 シーン遷移検出部
137 カメラワーク検出部
139 音声解析部
141 動画メタデータ生成部
151 ダイジェストスコア算出部
153 サムネイル枚数決定部
155 カメラワークメタデータ利用部
157,1031 画像サイズ決定部
159 コマ画像配置部
161 エフェクト画像配置部
163 コマ情報生成部
1001 静止画データ取得部
1003 静止画解析部
171,1013 人物検出部
173,1015 被写体検出部
175,1017 物体検出部
1019 タイムスタンプ判定部
1021 静止画メタデータ生成部
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 101 Movie data acquisition part 103 Movie analysis part 105 Audio | voice extraction part 107,1005,1101 Comic display conversion part 109 Frame image data generation part 111 Comic display data generation part 113 Comic display execution part 115 Display control part 117 Storage part 131 video data dividing unit 133, 1011 face detection unit 135 scene transition detection unit 137 camera work detection unit 139 audio analysis unit 141 video metadata generation unit 151 digest score calculation unit 153 thumbnail number determination unit 155 camera work metadata use unit 157 1031 Image size determination unit 159 Frame image arrangement unit 161 Effect image arrangement unit 163 Frame information generation unit 1001 Still image data acquisition unit 1003 Still image analysis unit 171, 1013 Human detection unit 173, 10 15 Object detection unit 175, 1017 Object detection unit 1019 Time stamp determination unit 1021 Still image metadata generation unit

Claims (18)

画像データを解析し、当該画像を特徴付ける特徴量に関するメタデータである画像メタデータを生成する画像解析部と、
前記画像メタデータに基づいて前記画像データの中から複数の画像を抽出するとともに、抽出した複数の画像を配置するためのコマに関するコマ情報を決定するコマ情報決定部と、
前記コマ情報と、前記抽出された画像のデータとを少なくとも含む画像表示データを生成する画像表示データ生成部と、
を備える、情報処理装置。
An image analysis unit that analyzes the image data and generates image metadata that is metadata relating to a feature amount that characterizes the image;
A frame information determination unit that extracts a plurality of images from the image data based on the image metadata and determines frame information regarding a frame for arranging the extracted plurality of images;
An image display data generation unit that generates image display data including at least the frame information and the extracted image data;
An information processing apparatus comprising:
前記画像データには、時刻情報が関連付けられており、
前記コマ情報決定部は、当該時刻情報に基づいて前記画像データを時間順に抽出する、請求項1に記載の情報処理装置。
Time information is associated with the image data,
The information processing apparatus according to claim 1, wherein the frame information determination unit extracts the image data in time order based on the time information.
前記コマ情報決定部は、前記コマを前記画像の大きさに応じて自動的に調整し、抽出した前記画像を漫画的に配置変換する、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the frame information determination unit automatically adjusts the frame according to a size of the image, and performs layout conversion of the extracted image. 前記コマ情報決定部は、生成された前記画像メタデータに基づいて、それぞれの前記コマに配置される複数の前記画像の大きさを決定する、請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the frame information determination unit determines a size of the plurality of images arranged in each of the frames based on the generated image metadata. 前記コマ情報決定部は、
前記画像メタデータに基づき、前記画像データに対して前記特徴量を重み付け加算した値であるダイジェストスコアを算出するダイジェストスコア算出部と、
前記ダイジェストスコアに基づいて前記画像データの中から前記コマに配置するサムネイル画像を抽出し、当該サムネイル画像の枚数を決定するサムネイル枚数決定部と、
所定の表示領域に配置されるサムネイル画像の大きさを、前記ダイジェストスコアに基づいて決定する画像サイズ決定部と、
画像サイズが決定された前記サムネイル画像を所定の順序で前記コマに配置するコマ画像配置部と、
サムネイル画像が配置されたコマに関する前記コマ情報を生成するコマ情報生成部と、
を更に備える、請求項4に記載の情報処理装置。
The frame information determination unit
A digest score calculation unit that calculates a digest score that is a value obtained by weighting and adding the feature amount to the image data based on the image metadata;
A thumbnail number determining unit that extracts thumbnail images to be arranged in the frame from the image data based on the digest score, and determines the number of thumbnail images;
An image size determining unit that determines the size of a thumbnail image arranged in a predetermined display area based on the digest score;
A frame image arrangement unit that arranges the thumbnail images of which the image size has been determined in the frame in a predetermined order;
A frame information generation unit that generates the frame information regarding the frame in which the thumbnail image is arranged;
The information processing apparatus according to claim 4, further comprising:
前記サムネイル枚数決定部は、抽出された前記サムネイル画像に連続する所定の時間分の複数の画像をアニメーション用の画像として更に抽出する、請求項5に記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the thumbnail number determination unit further extracts a plurality of images for a predetermined time continuous with the extracted thumbnail images as animation images. 前記画像メタデータは、前記画像を撮像する際のカメラワークに関する画像メタデータを含み、
前記コマ情報決定部は、前記カメラワークに関する画像メタデータに基づいて、前記サムネイル枚数決定部により前記アニメーション用の画像として抽出される画像の枚数を決定するカメラワークメタデータ利用部を更に備える、請求項5に記載の情報処理装置。
The image metadata includes image metadata related to camera work when capturing the image,
The frame information determination unit further includes a camera work metadata utilization unit that determines the number of images extracted as the animation image by the thumbnail number determination unit based on image metadata related to the camera work. Item 6. The information processing device according to Item 5.
前記カメラワークメタデータ利用部は、抽出された前記サムネイル画像から前記カメラワークの積分値が所定の閾値となった時点に対応する画像までの間に存在する複数の画像の中から、前記アニメーション用の画像を選択する、請求項7に記載の情報処理装置。   The camera work metadata using unit is configured to select the animation image from a plurality of images existing between the extracted thumbnail image and an image corresponding to a point in time when the integrated value of the camera work becomes a predetermined threshold value. The information processing apparatus according to claim 7, wherein the image is selected. 前記カメラワークメタデータ利用部は、前記カメラワークの積分値の大きさに応じて、前記サムネイル画像および前記アニメーション用の画像からなるアニメーションの再生速度を設定する、請求項8に記載の情報処理装置。   The information processing apparatus according to claim 8, wherein the camera work metadata utilization unit sets a playback speed of an animation composed of the thumbnail image and the animation image according to a magnitude of an integral value of the camera work. . 前記コマ情報決定部は、前記サムネイル画像が配置されたコマに対して、前記画像メタデータに基づいて吹き出しおよび画面効果の少なくとも何れかを配置するエフェクト画像配置部を更に備える、請求項5に記載の情報処理装置。   The said frame information determination part is further provided with the effect image arrangement | positioning part which arrange | positions at least any one of a balloon and a screen effect based on the said image metadata with respect to the flame | frame in which the said thumbnail image is arrange | positioned. Information processing device. 前記エフェクト画像配置部は、前記画像データに含まれる音声データに関する前記画像メタデータを利用して、前記吹き出しおよび前記画面効果の少なくとも何れかを配置する、請求項10に記載の情報処理装置。   The information processing apparatus according to claim 10, wherein the effect image arrangement unit arranges at least one of the balloon and the screen effect using the image metadata regarding audio data included in the image data. 前記エフェクト画像配置部は、前記画像を撮像する際のカメラワークに関する画像メタデータを利用して、前記サムネイル画像に対して前記画面効果を配置する、請求項10に記載の情報処理装置。   The information processing apparatus according to claim 10, wherein the effect image arrangement unit arranges the screen effect on the thumbnail image using image metadata related to camera work when the image is captured. 前記画像サイズ決定部は、画像中に顔が存在することを表す前記画像メタデータが存在する画像について、顔が表示されている領域である顔領域を拡大して前記サムネイル画像とする、請求項5に記載の情報処理装置。   The image size determination unit enlarges a face area, which is an area where a face is displayed, into the thumbnail image with respect to an image in which the image metadata indicating that a face exists in the image exists. 5. The information processing apparatus according to 5. 前記画像メタデータは、画像中に人物が存在することを表す画像メタデータ、画像中に存在する被写体に関する画像メタデータおよび画像中に存在する予め登録された物体に関する画像メタデータの少なくともいずれかを更に含み、
前記エフェクト画像配置部は、前記画像中に人物が存在することを表す画像メタデータ、前記画像中に存在する被写体に関する画像メタデータまたは前記画像中に存在する予め登録された物体に関する画像メタデータに基づいて、前記画面効果を配置する、請求項10に記載の情報処理装置。
The image metadata includes at least one of image metadata indicating that a person is present in the image, image metadata relating to a subject existing in the image, and image metadata relating to a pre-registered object existing in the image. In addition,
The effect image arrangement unit includes image metadata indicating that a person is present in the image, image metadata relating to a subject existing in the image, or image metadata relating to a pre-registered object existing in the image. The information processing apparatus according to claim 10, wherein the screen effect is arranged based on the information.
前記エフェクト画像配置部は、前記サムネイル画像のうち所定のオブジェクトが検出された領域の重心と前記所定の表示領域の重心との相対的な位置関係に基づいて、前記所定のオブジェクトが検出された領域以外の領域に前記画面効果を配置する、請求項10に記載の情報処理装置。   The effect image arrangement unit is configured to detect an area in which the predetermined object is detected based on a relative positional relationship between a centroid of an area in which the predetermined object is detected in the thumbnail image and a centroid of the predetermined display area. The information processing apparatus according to claim 10, wherein the screen effect is arranged in an area other than the area. 前記画像サイズ決定部は、画像中に複数の前記顔領域が存在する場合には、全ての前記顔領域を含むように拡大処理を行い前記サムネイル画像とする、請求項13に記載の情報処理装置。   The information processing apparatus according to claim 13, wherein when there are a plurality of the face areas in the image, the image size determination unit performs an enlargement process so as to include all the face areas to form the thumbnail image. . 画像データを解析し、当該画像を特徴付ける特徴量に関するメタデータである画像メタデータを生成することと、
前記画像メタデータに基づいて前記画像データの中から複数の画像を抽出するとともに、抽出した複数の画像を配置するためのコマに関するコマ情報を決定することと、
前記コマ情報と、前記抽出された画像のデータとを少なくとも含む画像表示データを生成することと、
を含む、情報処理方法。
Analyzing image data and generating image metadata, which is metadata relating to a feature amount characterizing the image;
Extracting a plurality of images from the image data based on the image metadata and determining frame information relating to a frame for arranging the extracted plurality of images;
Generating image display data including at least the frame information and the extracted image data;
Including an information processing method.
コンピュータに、
画像データを解析し、当該画像を特徴付ける特徴量に関するメタデータである画像メタデータを生成する画像解析機能と、
前記画像メタデータに基づいて前記画像データの中から複数の画像を抽出するとともに、抽出した複数の画像を配置するためのコマに関するコマ情報を決定するコマ情報決定機能と、
前記コマ情報と、前記抽出された画像のデータとを少なくとも含む画像表示データを生成する画像表示データ生成機能と、
を実現させるためのプログラム。
On the computer,
An image analysis function that analyzes image data and generates image metadata that is metadata related to a feature amount that characterizes the image;
A frame information determination function for extracting a plurality of images from the image data based on the image metadata and determining frame information regarding a frame for arranging the extracted plurality of images;
An image display data generation function for generating image display data including at least the frame information and the extracted image data;
A program to realize
JP2013154347A 2009-01-20 2013-07-25 Information processing apparatus, information processing method, and program Expired - Fee Related JP5630541B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013154347A JP5630541B2 (en) 2009-01-20 2013-07-25 Information processing apparatus, information processing method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009009920 2009-01-20
JP2009009920 2009-01-20
JP2013154347A JP5630541B2 (en) 2009-01-20 2013-07-25 Information processing apparatus, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009177877A Division JP5326910B2 (en) 2009-01-20 2009-07-30 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2014006912A true JP2014006912A (en) 2014-01-16
JP5630541B2 JP5630541B2 (en) 2014-11-26

Family

ID=50104502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013154347A Expired - Fee Related JP5630541B2 (en) 2009-01-20 2013-07-25 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5630541B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016541214A (en) * 2014-09-17 2016-12-28 小米科技有限責任公司Xiaomi Inc. Video browsing method, apparatus, program and recording medium
WO2017159003A1 (en) * 2016-03-17 2017-09-21 ソニー株式会社 Image processing apparatus and image processing method, and program
US9799376B2 (en) 2014-09-17 2017-10-24 Xiaomi Inc. Method and device for video browsing based on keyframe
JP2017208770A (en) * 2016-05-20 2017-11-24 株式会社トーセ Cut-off image creation system
JP2018206110A (en) * 2017-06-06 2018-12-27 トヨタ自動車株式会社 Device for automatically generating interactive-sentence containing moving picture
US10489949B2 (en) 2015-01-06 2019-11-26 Sony Corporation Effect generation device and effect generation method
CN110569373A (en) * 2018-03-29 2019-12-13 北京字节跳动网络技术有限公司 Media feature comparison method and device
CN112150365A (en) * 2020-10-15 2020-12-29 江西威力固智能设备有限公司 Expansion and shrinkage processing method of jet printing image and jet printing equipment
JP2021132281A (en) * 2020-02-19 2021-09-09 Jcc株式会社 Metadata generating system and metadata generating method
WO2023047658A1 (en) * 2021-09-22 2023-03-30 ソニーグループ株式会社 Information processing device and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085572A (en) * 2001-09-11 2003-03-20 Nippon Hoso Kyokai <Nhk> Comic generation device and comic generation program
JP2004080599A (en) * 2002-08-21 2004-03-11 Canon Inc Image recording and reproducing device and its control method
JP2005301648A (en) * 2004-04-12 2005-10-27 Sony Corp Information processing apparatus, method, and program
JP2006295236A (en) * 2005-04-05 2006-10-26 Sony Corp Recording and reproducing apparatus, content management apparatus, content management method, and imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085572A (en) * 2001-09-11 2003-03-20 Nippon Hoso Kyokai <Nhk> Comic generation device and comic generation program
JP2004080599A (en) * 2002-08-21 2004-03-11 Canon Inc Image recording and reproducing device and its control method
JP2005301648A (en) * 2004-04-12 2005-10-27 Sony Corp Information processing apparatus, method, and program
JP2006295236A (en) * 2005-04-05 2006-10-26 Sony Corp Recording and reproducing apparatus, content management apparatus, content management method, and imaging apparatus

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016541214A (en) * 2014-09-17 2016-12-28 小米科技有限責任公司Xiaomi Inc. Video browsing method, apparatus, program and recording medium
US9799376B2 (en) 2014-09-17 2017-10-24 Xiaomi Inc. Method and device for video browsing based on keyframe
US10489949B2 (en) 2015-01-06 2019-11-26 Sony Corporation Effect generation device and effect generation method
US10853648B2 (en) 2016-03-17 2020-12-01 Sony Corporation Image processing apparatus and image processing method
JPWO2017159003A1 (en) * 2016-03-17 2019-01-17 ソニー株式会社 Image processing apparatus, image processing method, and program
WO2017159003A1 (en) * 2016-03-17 2017-09-21 ソニー株式会社 Image processing apparatus and image processing method, and program
JP2017208770A (en) * 2016-05-20 2017-11-24 株式会社トーセ Cut-off image creation system
JP2018206110A (en) * 2017-06-06 2018-12-27 トヨタ自動車株式会社 Device for automatically generating interactive-sentence containing moving picture
CN110569373A (en) * 2018-03-29 2019-12-13 北京字节跳动网络技术有限公司 Media feature comparison method and device
JP2020525963A (en) * 2018-03-29 2020-08-27 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. Method and apparatus for comparing media characteristics
US11593582B2 (en) 2018-03-29 2023-02-28 Beijing Bytedance Network Technology Co., Ltd. Method and device for comparing media features
JP2021132281A (en) * 2020-02-19 2021-09-09 Jcc株式会社 Metadata generating system and metadata generating method
CN112150365A (en) * 2020-10-15 2020-12-29 江西威力固智能设备有限公司 Expansion and shrinkage processing method of jet printing image and jet printing equipment
WO2023047658A1 (en) * 2021-09-22 2023-03-30 ソニーグループ株式会社 Information processing device and information processing method

Also Published As

Publication number Publication date
JP5630541B2 (en) 2014-11-26

Similar Documents

Publication Publication Date Title
JP5326910B2 (en) Information processing apparatus, information processing method, and program
JP5630541B2 (en) Information processing apparatus, information processing method, and program
TWI579838B (en) Automatic generation of compilation videos
US10847185B2 (en) Information processing method and image processing apparatus
TWI388212B (en) An image processing apparatus, an image reproduction apparatus, an image processing method, and a memory medium
TWI375917B (en) Image processing apparatus, imaging apparatus, image processing method, and computer program
JP4618166B2 (en) Image processing apparatus, image processing method, and program
JP4902499B2 (en) Image display device, image display method, and image display system
CN101606384B (en) Image processing device, dynamic image reproduction device, and processing method
JP4774816B2 (en) Image processing apparatus, image processing method, and computer program.
JP4640515B2 (en) Thumbnail generation device, thumbnail generation method, and thumbnail generation program
TW201545120A (en) Automatic generation of compilation videos
US20110243452A1 (en) Electronic apparatus, image processing method, and program
JP2014106637A (en) Information processor, method and program
KR20080004368A (en) Information processing apparatus and method and program
KR20100095363A (en) Imaging apparatus, and control method and program for the same
KR20100043138A (en) Image processing device, dynamic image reproduction device, and processing method and program in them
KR20100114453A (en) Image processor, and processing method and program for the same
JP6149862B2 (en) Display control device, display control system, and display control method
CN105556947A (en) Method and apparatus for color detection to generate text color
JP2014209707A (en) Device and method for video reproduction
KR102426089B1 (en) Electronic device and Method for generating summary image of electronic device
JP4667356B2 (en) Video display device, control method therefor, program, and recording medium
JP6602423B2 (en) Content providing server, content providing terminal, and content providing method
JP4656199B2 (en) Image processing apparatus, thumbnail movie creation method, and thumbnail movie creation program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140922

R151 Written notification of patent or utility model registration

Ref document number: 5630541

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees