JP2008288804A - Image reproducing device, and control method and control program of image reproducing device - Google Patents
Image reproducing device, and control method and control program of image reproducing device Download PDFInfo
- Publication number
- JP2008288804A JP2008288804A JP2007130847A JP2007130847A JP2008288804A JP 2008288804 A JP2008288804 A JP 2008288804A JP 2007130847 A JP2007130847 A JP 2007130847A JP 2007130847 A JP2007130847 A JP 2007130847A JP 2008288804 A JP2008288804 A JP 2008288804A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- reproduction
- images
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、画像再生装置、画像再生装置の制御方法および制御プログラムに係り、特に動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合に画像効果やBGMを自動的に付与して再生するための技術に関する。 The present invention relates to an image playback device, a control method of the image playback device, and a control program. In particular, when a plurality of images as a moving image, a still image, or a combination thereof are played back, an image effect and BGM are automatically provided. And technology for playback.
従来、動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合には、画像毎にどのような効果を付与して再生するかを手作業で設定する必要があり、特に多数の画像を用いて再生を行う場合、多大な時間を費やしてしまうとともに、慣れないユーザにとってはとても煩雑な作業となっていた。
例えば、複数の静止画を用いてスライドショーを作成する場合、画像の画像効果やBGMがないか、あるいは、常に同一の画像効果やBGMを用いるなど単調なものであれば、演出効果のない、退屈なスライドショーとなり、再生効果が損なわれてしまう。
さらに、これらの画像効果やBGMが、再生している画像と全く関係なく行われれば、視聴者は、画像からストーリ性を感じることもできない。
For example, when creating a slide show using a plurality of still images, if there is no image effect or BGM of the image, or if it is monotonous such as always using the same image effect or BGM, there is no production effect, boring And the playback effect is lost.
Furthermore, if these image effects and BGM are performed regardless of the image being reproduced, the viewer cannot feel the story from the image.
これを解決するため、特許文献1記載の技術では、無音区間を検出することにより、画像とBGMの再生時間が一致するようにしているが、画像の内容的なものは考慮しておらず、画像により好適なBGMを再生させたり、再生対象の画像により好適な画像効果を付与することもできないという問題点があった。
ところで、近年、ディジタルカメラやディジタルビデオ、カメラ付携帯電話等の普及により、個人が保存している画像等のコンテンツは増加する一方である。代表的なコンテンツであるディジタル画像データには、ディジタルカメラの機能によって、撮影日時を示す情報等を含むメタデータが付加されることが多い。このメタデータに含まれる情報を利用すれば、例えば特定の日に撮影されたディジタル画像データを検索することができ、ディジタル画像データの管理の一助としていた。しかしながら、メタデータはあくまで管理のために用いるものであり、再生制御に用いられてはいなかった。
そこで、本発明の目的は、動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合に、各画像の画像内容に応じて、各種効果を自動的に付与して画像再生を行うことが可能な画像再生装置、画像再生装置の制御方法および制御プログラムを提供することにある。
In order to solve this, the technique described in Patent Document 1 detects the silent section so that the playback time of the image and the BGM coincide with each other. However, the content of the image is not considered, There is a problem that it is not possible to reproduce a BGM that is more suitable for an image or to impart a suitable image effect to an image to be reproduced.
In recent years, with the spread of digital cameras, digital videos, camera-equipped mobile phones, etc., content such as images stored by individuals is increasing. Digital image data, which is representative content, is often added with metadata including information indicating the shooting date and time by the function of the digital camera. If the information contained in this metadata is used, for example, digital image data taken on a specific day can be retrieved, which helps to manage the digital image data. However, the metadata is only used for management and has not been used for playback control.
Therefore, an object of the present invention is to reproduce images by automatically applying various effects according to the image contents of each image when reproducing a plurality of images as a moving image, a still image, or a combination thereof. It is an object to provide an image reproducing apparatus, a control method for the image reproducing apparatus, and a control program.
上記課題を解決するため、本発明の第一形態は、動画像、静止画像あるいはそれらの組み合わせを含む複数の再生対象画像を再生する画像再生装置であって、前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出する特徴量抽出部と、n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記特徴量抽出部により抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行う再生制御部と、を備えたことを特徴としている。
上記構成によれば、特徴量抽出部は、再生対象画像に含まれる各画像の特徴量をそれぞれ抽出する。
これにより、再生制御部は、特徴量抽出部により抽出された各画像の特徴量をn次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行う。
したがって、動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合に、各画像の特徴量に応じて、各種効果を自動的に付与して画像再生を行うことができる。
In order to solve the above-described problem, a first aspect of the present invention is an image reproduction device that reproduces a plurality of reproduction target images including moving images, still images, or a combination thereof, and each image included in the reproduction target images. Assuming a feature quantity extraction unit that extracts each of the feature quantities and an n-dimensional image feature quantity space represented by n types (n is an integer of 2 or more), the feature quantity extraction unit extracts the feature quantity. A reproduction control unit that performs the reproduction control of the plurality of reproduction target images based on the attribute vector or the spatial coordinates, and the feature quantity of each of the images as an attribute vector or a spatial coordinate in the n-dimensional image feature quantity space; It is characterized by having.
According to the above configuration, the feature amount extraction unit extracts the feature amount of each image included in the reproduction target image.
Accordingly, the reproduction control unit sets the feature amount of each image extracted by the feature amount extraction unit as an attribute vector or a spatial coordinate in the n-dimensional image feature amount space, and based on the attribute vector or the spatial coordinate, Perform playback control of the playback target image.
Therefore, when reproducing a plurality of images as a moving image, a still image, or a combination thereof, image reproduction can be performed by automatically applying various effects according to the feature amount of each image.
また、本発明の第二形態は、第一形態の画像再生装置において、複数の楽曲データを、前記楽曲データの特徴に基づいて、少なくとも季節および時刻を空間軸とするベクトル空間に割り当てた楽曲ベクトル空間情報を記憶する楽曲ベクトル空間記憶部を備え、前記特徴量として、前記画像を撮影した撮影日時に関する情報を含み、前記再生制御部は、前記楽曲ベクトル空間情報を参照して、前記撮影日時が属する季節および時刻に基づいて、前記楽曲データを選択し、前記選択された前記楽曲データを前記画像のBGMとして付与することを特徴としている。
上記構成によれば、楽曲ベクトル空間記憶部は、複数の楽曲データを、前記楽曲データの特徴に基づいて、少なくとも季節および時刻を空間軸とするベクトル空間に割り当てた楽曲ベクトル空間情報を記憶し、再生制御部は、楽曲ベクトル空間情報を参照して、撮影日時が属する季節および時刻に基づいて、楽曲データを選択し、画像のBGMとして付与するので、撮影日時が属する季節及び時刻に対応した楽曲データが自動的にBGMとして再生される。
また、本発明の第三形態は、第一形態または第二形態の画像再生装置において、前記特徴量として、前記画像に関連する文書に含まれる重要語のTF/IDF値を用いることを特徴としている。
上記構成によれば、画像に関連する文書に含まれる重要語のうち、TF/IDF値に基づいて、より関連性の高い重要語に基づいて再生制御を行えるので、視聴者にとってより画像内容に則した違和感のない再生制御が行える。
According to a second aspect of the present invention, there is provided a music vector in which a plurality of music data is allocated to a vector space having at least a season and a time axis as a space axis based on the characteristics of the music data in the image reproduction device of the first aspect. A music vector space storage unit that stores spatial information, and includes information related to a shooting date and time when the image was shot as the feature amount, and the reproduction control unit refers to the music vector space information and the shooting date and time is The music data is selected based on the season and time to which it belongs, and the selected music data is assigned as BGM of the image.
According to the above configuration, the music vector space storage unit stores music vector space information in which a plurality of music data is assigned to a vector space having at least the season and time as a space axis based on the characteristics of the music data. The playback control unit refers to the music vector space information, selects music data based on the season and time to which the shooting date belongs, and assigns it as the BGM of the image, so the music corresponding to the season and time to which the shooting date belongs Data is automatically played back as BGM.
According to a third aspect of the present invention, in the image reproduction device of the first aspect or the second aspect, a TF / IDF value of an important word contained in a document related to the image is used as the feature amount. Yes.
According to the above configuration, since the reproduction control can be performed based on the more important important words included in the document related to the image based on the TF / IDF value, the content of the image is improved for the viewer. It is possible to perform playback control without any sense of incongruity.
また、本発明の第四形態は、第一形態ないし第三形態のいずれかの画像再生装置において、前記特徴量として、前記画像に予め付与されたメタデータを用いることを特徴としている。
上記構成によれば、より確実に画像内容に則した違和感のない再生制御が行える。
また、本発明の第五形態は、第四形態の画像再生装置において、前記メタデータは、撮影日時または撮影場所の少なくともいずれかを含むことを特徴としている。
上記構成によれば、撮影日時あるいは撮影場所に対応づけて、画像内容に則した最適な画像再生制御が行える。
According to a fourth aspect of the present invention, in the image reproduction device according to any one of the first to third aspects, metadata previously given to the image is used as the feature amount.
According to the above configuration, it is possible to perform reproduction control without any sense of incongruity according to the image content.
According to a fifth aspect of the present invention, in the image reproducing device according to the fourth aspect, the metadata includes at least one of a shooting date and time or a shooting location.
According to the above configuration, it is possible to perform optimal image reproduction control in accordance with the image content in association with the shooting date and time or the shooting location.
また、本発明の第六形態は、第一形態ないし第五形態のいずれかの画像再生装置において、前記特徴量として、地図データベースから抽出された撮影場所および撮影場所近辺に関する情報を用いることを特徴としている。
上記構成によれば、地図データベースから抽出された撮影場所および撮影場所近辺に関する情報は、再生対象の画像に関連した情報を含むこととなり、より画像内容に則した最適な画像再生制御が行える。
また、本発明の第七形態は、第2形態の画像再生装置において、前記画像に対応する前記属性ベクトルあるいは前記空間座標の次元が、n次元を超える場合に前記属性ベクトルあるいは前記空間座標の次元を削減する次元削減部を備えたことを特徴としている。
上記構成によれば、次元削減部は、画像に対応する属性ベクトルあるいは空間座標の次元が、n次元を超える場合に属性ベクトルあるいは空間座標の次元を削減するので、確実に対応付けを行って、画像再生制御を行える。
According to a sixth aspect of the present invention, in the image reproduction device according to any one of the first to fifth aspects, information relating to a shooting location extracted from a map database and the vicinity of the shooting location is used as the feature amount. It is said.
According to the above configuration, the information regarding the shooting location and the vicinity of the shooting location extracted from the map database includes information related to the image to be played back, and optimal image playback control can be performed according to the image content.
Further, according to a seventh aspect of the present invention, in the image reproduction device according to the second aspect, the dimension of the attribute vector or the spatial coordinate when the dimension of the attribute vector or the spatial coordinate corresponding to the image exceeds n dimensions. It is characterized by having a dimension reduction unit that reduces
According to the above configuration, the dimension reduction unit reduces the dimension of the attribute vector or the spatial coordinate when the dimension of the attribute vector or the spatial coordinate corresponding to the image exceeds n dimensions. Image playback control can be performed.
また、本発明の第八形態は、動画像、静止画像あるいはそれらの組み合わせを含む複数の再生対象画像を再生する画像再生装置の制御方法であって、前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出する特徴量抽出過程と、n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記特徴量抽出部により抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行う再生制御過程と、を備えたことを特徴としている。
上記構成によれば、動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合に、各画像の特徴量に応じて、各種効果を自動的に付与して画像再生を行うことができる。
Further, an eighth aspect of the present invention is a control method for an image playback device that plays back a plurality of playback target images including moving images, still images, or a combination thereof, and features of each image included in the playback target images Assuming a feature quantity extraction process for extracting quantities respectively, and an n-dimensional image feature quantity space represented by n types (n is an integer of 2 or more), each feature quantity extraction unit extracts each A reproduction control step of setting the feature quantity of the image as an attribute vector or a spatial coordinate in the n-dimensional image feature quantity space, and performing reproduction control of the plurality of reproduction target images based on the attribute vector or the spatial coordinate. It is characterized by that.
According to the above configuration, when reproducing a plurality of images as a moving image, a still image, or a combination thereof, image reproduction can be performed by automatically applying various effects according to the feature amount of each image. it can.
また、本発明の第九形態は、動画像、静止画像あるいはそれらの組み合わせを含む複数の再生対象画像を再生する画像再生装置をコンピュータにより制御するための制御プログラムであって、前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出させ、n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行わせる、ことを特徴としている。
上記構成によれば、動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合に、各画像の特徴量に応じて、各種効果を自動的に付与して画像再生を行うことができる。
この場合において、制御プログラムをコンピュータ読取可能な記録媒体に記録するようにしても良い。
According to a ninth aspect of the present invention, there is provided a control program for controlling, by a computer, an image playback device that plays back a plurality of playback target images including moving images, still images, or combinations thereof. A feature amount of each image included is extracted, an n-dimensional image feature amount space represented by n types (n is an integer of 2 or more) of the feature amount is assumed, and the feature of each of the extracted images A quantity is an attribute vector or a spatial coordinate in the n-dimensional image feature quantity space, and reproduction control of the plurality of reproduction target images is performed based on the attribute vector or the spatial coordinate.
According to the above configuration, when reproducing a plurality of images as a moving image, a still image, or a combination thereof, image reproduction can be performed by automatically applying various effects according to the feature amount of each image. it can.
In this case, the control program may be recorded on a computer-readable recording medium.
次に図面を参照して本発明の好適な実施形態について説明する。
図1は、実施形態の画像再生装置の概要構成ブロック図である。
画像再生装置10は、パーソナルコンピュータとして構成されており、画像処理を行う画像再生装置本体11と、各種画像入力を行う画像入力装置12と、各種操作を行うためのキーボード、マウスなどの入力装置13と、各種表示を行う液晶ディスプレイなどの表示装置14と、印刷を行うプリンタなどの出力装置15と、後述する画像再生方法に関連するデータを含む各種データを記憶するハードディスク装置などの外部記憶装置16と、を備えている。
画像再生装置本体11は、当該画像再生装置本体11全体の制御を行うマイクロプロセッサユニット(MPU)21と、各種制御プログラムを含む各種データを記憶するROM22と、MPU21のワークエリアとして機能するRAM23と、LAN、インターネットなどの外部の通信ネットワークとの間のインタフェース動作を行う通信インタフェース部24と、を備えている。
Next, preferred embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic configuration block diagram of an image reproducing apparatus according to an embodiment.
The
The image reproduction apparatus
図2は、画像再生装置の機能ブロック図である。
画像再生装置10は、大別すると、映像・画像入力部31と、テキスト抽出部32と、形態素解析部33と、重要度算出部34と、次元削減部35と、画像再生方法記憶部36と、を備えている。
映像・画像入力部31は、放送電波、通信ネットワークあるいはICメモリカードなどのデータ記憶媒体を介して動画像データ(動画像に対応)あるいは静止画像データ(静止画に対応)を入力する。具体的には、様々な画像フォーマットの画像を、様々な圧縮形式、ファイル形式を有するファイルや、スキャナ、ディジタルカメラ、ディジタルビデオカメラなどの入力装置から抽出あるいは受け取ることとなる。この場合において、圧縮形式としては、JPEG、MPEG−4、H.264等が挙げられる。
FIG. 2 is a functional block diagram of the image reproducing apparatus.
The
The video / image input unit 31 inputs moving image data (corresponding to moving images) or still image data (corresponding to still images) via a broadcast radio wave, a communication network, or a data storage medium such as an IC memory card. Specifically, images of various image formats are extracted or received from files having various compression formats and file formats, and input devices such as scanners, digital cameras, and digital video cameras. In this case, compression formats include JPEG, MPEG-4, H.264. H.264 or the like.
テキスト抽出部32は、XHTML(個人のホームページ、ブログなど)、送受信した電子メール、XML(楽曲の検索用メタデータなど)で記述されているハイパーテキストデータや地図データベースからタグ情報以外のテキストデータを抽出する。
形態素解析部33は、ブログなどのテキストデータあるいは音声認識部により音声認識したテキストデータに対応するテキストの形態素解析を行い、単語(語句)を抽出し、必要に応じてステミングを行う。
The
The morpheme analysis unit 33 performs morpheme analysis on text corresponding to text data such as a blog or text data speech-recognized by the speech recognition unit, extracts words (phrases), and performs stemming as necessary.
重要度算出部34は、複数の関連コンテンツから、最も関連が深い関連コンテンツ(コンテンツiと表記)、からメタデータとする語句を抽出する。
この場合において、関連コンテンツを代表する語句、すなわち、当該関連コンテンツの中で重要度の高い語句を、動画像あるいは静止画像を最も良く表現する語句とみなして、重要語句と表現する。
ここでは、TF/IDF(Term Frequency & Inverse Document Frequency)処理によって重要度を算出する。そして、重要度算出部34は、下記式(1)によって、形態素解析部33によりコンテンツiから抽出された各々の語句jの重要度tfidf(i,j)を求める。
The importance calculation unit 34 extracts a word / phrase as metadata from a related content (denoted as content i) that is most closely related from a plurality of related content.
In this case, a phrase representing the related content, that is, a phrase having a high importance in the related content is regarded as a phrase that best expresses a moving image or a still image, and is expressed as an important phrase.
Here, the importance is calculated by TF / IDF (Term Frequency & Inverse Document Frequency) processing. Then, the importance calculation unit 34 obtains the importance tfidf (i, j) of each word / phrase j extracted from the content i by the morpheme analysis unit 33 by the following equation (1).
以下、具体的に説明する。
まず、コンテンツiにおける語句jの出現頻度をFreq(i,j)とし、関連コンテンツでの出現頻度に関わるtf(i,j)を算出する。
tf(i,j)=log(Freq(i,j)+1)/log(コンテンツiの総語句数)
ここで、tf(i,j)は、関連コンテンツのテキストデータにおける出現頻度をもとに、語句の重要度を表す指標である。言い換えれば、コンテンツ中に多く出現する語句が、重要な語句とみなされる。
This will be specifically described below.
First, the appearance frequency of the phrase j in the content i is set to Freq (i, j), and tf (i, j) related to the appearance frequency in the related content is calculated.
tf (i, j) = log (Freq (i, j) +1) / log (total number of phrases of content i)
Here, tf (i, j) is an index representing the importance of a phrase based on the appearance frequency of related content in text data. In other words, phrases that frequently appear in the content are regarded as important phrases.
次にdf(j)を語句jが出現するコンテンツ数として、idf(j)を算出する。
idf(j)=log(N/dt(j))
ここで、idf(j)は、検索された全てのコンテンツのうち、語句tが出現するコンテンツのテキストデータの数を語句tの出現頻度として計算したものである。
さらに、コンテンツiにおける、語句jの重要度を、
tfidf(i,j)=tf(i,j)×idf(j)
とする。したがって、検索用メタデータを選択する場合には、このtfidf(i,j)の値の大きい順に所定個数を選択すればよい。
Next, idf (j) is calculated with df (j) as the number of contents in which the phrase j appears.
idf (j) = log (N / dt (j))
Here, idf (j) is calculated from the number of text data of the content in which the phrase t appears among all the searched contents as the appearance frequency of the phrase t.
Furthermore, the importance of the phrase j in the content i is
tfidf (i, j) = tf (i, j) × idf (j)
And Therefore, when selecting the search metadata, a predetermined number may be selected in descending order of the value of tfidf (i, j).
次元削減部35は、n種類(nは、2以上の整数)の画像特徴量で表されるn次元画像特徴量空間を仮定し、抽出された各画像の特徴量をn次元画像特徴量空間における空間座標あるいはベクトルとして取り扱うに際し、実際の画像再生方法に対応する空間座標あるいはベクトルの次元mがより低い場合に、すなわち、n>mで有る場合に、再生対象となる画像の次元nを圧縮して実際の画像再生方法に対応する空間座標あるいはベクトルの次元mに合わせるように次元の圧縮を行う。
画像再生方法記憶部36は、大別すると、画像フレーム(画像枠)や画像を装飾する色を変更するカラーパレット変更部41と、画像の切り替えや画像そのものを変形したりして、演出効果(画像効果)を生成する画像効果付与部42と、画像の再生に同期して楽曲(BGM)を再生するBGM付与部43と、を備えている。
The
The image reproduction
以下の説明においては、画像の特徴量をベクトルとして取り扱う場合について述べる。
まず、各画像の特徴量としての属性ベクトルの生成について説明する。
各画像の特徴量としての属性ベクトルとしては、撮影日時、撮影場所、文書、メタデータ等が挙げられる。
属性ベクトルとして、撮影日時を用いる場合には、nを年初からの経過日数、Year=365とすれば、θは、
In the following description, a case where the feature amount of an image is handled as a vector will be described.
First, generation of an attribute vector as a feature amount of each image will be described.
Examples of the attribute vector as the feature amount of each image include shooting date / time, shooting location, document, and metadata.
When shooting date / time is used as the attribute vector, if n is the number of days since the beginning of the year and Year = 365, θ is
撮影日時の属性ベクトルaは、
The attribute vector a of the shooting date is
撮影時刻tまで考慮に入れる場合は、Day=24とすれば、φは
また、属性ベクトルaは、経過日数と合わせて、
When taking into account shooting time t, if Day = 24, φ is
In addition, the attribute vector a is combined with the elapsed days,
ここで、撮影日時を周期関数で写像しているのは、年または日の区切りを遷移的にするためである。
さらに、経過日数、または時刻をそのまま属性ベクトルの成分とするようにしても良い。
属性ベクトルとして、撮影場所を用いる場合には、撮影場所の緯度をx、経度yとすれば、
The reason why the shooting date and time is mapped by a periodic function is to make the year or day separator transition.
Furthermore, the elapsed days or time may be used as the component of the attribute vector as it is.
When the shooting location is used as the attribute vector, if the latitude of the shooting location is x and longitude y,
あるいは、撮影場所の平均位置の緯度をx0、経度をy0として、
Alternatively, the latitude of the average location of the shooting location is x 0 and the longitude is y 0 .
属性ベクトルとして、文書(あるいは文書内のテキスト)を用いる場合には、画像に関連する文書の特徴を使用することとなる。
ここで、画像に関連する文書とは、例えば、以下のようなものが挙げられる。
撮影日時や撮影場所、イベントに関連した記述が含まれる、ニュースサイトや観光地のガイド、撮影日時および前後に送受信した電子メール、更新されたブログの内容などである。
When a document (or text in the document) is used as the attribute vector, the document features related to the image are used.
Here, examples of the document related to the image include the following.
These include news sites and sightseeing spot guides, shooting date and time, e-mails sent and received before and after, and updated blog contents.
より具体的には、文書集合の中で、文書i、語j、文書iに出現する語jの出現頻度をfreq(i,j)とし、文書中の出現頻度に関わるtf(i,j)を以下のように定義する。
tf(i,j)=log(freq(i,j)+1)
/log(文書iに出現する語の種類数)
語jの出現する文書数をdf(j)で表し、さらに文書集合の数Nを考慮した逆数を、
idf(j)=log(N/df(j))
として定義すれば、文書iにおける語jのTF/IDF値w(i,j)は、
w(i,j)=tf(i,j)×idf(j)
となる。文書iの属性ベクトルは、w(i,j)を用いて、
More specifically, in the document set, the appearance frequency of the document i, the word j, and the word j appearing in the document i is set to freq (i, j), and tf (i, j) related to the appearance frequency in the document. Is defined as follows.
tf (i, j) = log (freq (i, j) +1)
/ Log (number of types of words appearing in document i)
The number of documents in which the word j appears is represented by df (j), and the reciprocal number considering the number N of document sets is
idf (j) = log (N / df (j))
TF / IDF value w (i, j) of word j in document i is
w (i, j) = tf (i, j) × idf (j)
It becomes. The attribute vector of document i is w (i, j)
属性ベクトルとして、TV番組や画像データベース等のように、あらかじめ画像に付与された検索用のメタデータがある場合には、付与されたメタデータとして用いられている語を、上述した文書に含まれている語と同様に扱えばよい。
以上の説明は、属性ベクトルを単独に用いる場合のものであったが、上述した手法により生成した複数の属性ベクトルを合成し、さらに高次元のベクトルを生成して画像再生方法と細かく対応させるようにしても良い。
例えば、生成した複数の属性ベクトルa1、a2を次式のように合成し、新しい属性ベクトルa3を生成しても良い。
When there is search metadata previously assigned to an image, such as a TV program or an image database, as an attribute vector, the word used as the assigned metadata is included in the above-described document. It can be treated in the same way as
The above description is for the case where attribute vectors are used alone, but a plurality of attribute vectors generated by the above-described method are combined, and a higher-dimensional vector is generated so as to correspond closely to the image reproduction method. Anyway.
For example, a plurality of generated attribute vectors a 1 and a 2 may be synthesized as in the following equation to generate a new attribute vector a 3 .
次に、画像の背景あるいは画像フレームに使用する色を、属性ベクトルとしての文書(あるいは文書内のテキスト)を用いて割り当てる場合の具体的手法について説明する。
図3は、画像再生方法として、画像の背景あるいは画像フレームに使用する色を2次元に割り当てる場合の一例の説明図である。
図3は、画像再生方法記憶部36のカラーパレット変更部41が画像の背景、画像フレームに使用する色を、属性ベクトルとしての文書(あるいは文書内のテキスト)を用い、文書をさらに喜怒哀楽に対応させて選択する場合のものである。
具体的には、文書に含まれる語が「娘、結婚式、喜び、寂しい」である場合には、背景色あるいは画像フレームに使用する色としては、「喜び」に加えて寂しさからくる「哀しみ」を考慮した紫色から青紫色に至る範囲の色が選択されることとなる。
また、文書に含まれる語が「家族旅行、温泉、楽しい」である場合には、背景色あるいは画像フレームに使用する色としては、「楽しみ」を考慮した黄色から黄赤色に至る範囲の色が選択されることとなる。
Next, a specific method for assigning the color used for the background of the image or the image frame using the document (or text in the document) as the attribute vector will be described.
FIG. 3 is an explanatory diagram of an example in which colors used for the background of an image or an image frame are allocated two-dimensionally as an image reproduction method.
FIG. 3 shows the color used by the color palette changing unit 41 of the image reproduction
Specifically, if the word contained in the document is “daughter, wedding, joy, loneliness”, the color used for the background color or image frame comes from loneliness in addition to “joy”. A color ranging from purple to blue-purple in consideration of “sadness” will be selected.
In addition, when the word included in the document is “family trip, hot spring, fun”, the color used for the background color or image frame ranges from yellow to yellow-red considering “fun”. Will be selected.
次に、画像に対し、画像再生方法としての画像効果を、属性ベクトルとしての撮影日時を用いて割り当てる場合の具体的手法について説明する。
図4は、画像切替の画像効果であるスライドインおよびストリップイン(クロスフェード)を3次元空間に割り当てた場合の説明図である。
この図4は、画像再生方法記憶部36の画像効果付与部42が属性ベクトルとしての撮影日時を用いて画像切替の画像効果であるスライドインおよびストリップイン(クロスフェード)を割り当てる場合のものである。
例えば、X−Y平面において、第1象限には、右からのスライドインあるいは右からのストリップインが割り当てられ、第2象限には、上からのスライドインあるいは上からのストリップインが割り当てられ、第3象限には、左からのスライドインあるいは左からのストリップインが割り当てられ、第4象限には、下からのスライドインあるいは下からのストリップインが割り当てられている。
そして、Z軸には、画像効果の強度(強−弱)、あるいは、速度(早−遅)が割り当てられている。
したがって、撮影日時が「11月15日の午後6時」である場合には、画像効果は、左からのスライドインが、強度弱(最弱)となるように付与される。
Next, a specific method for assigning an image effect as an image reproduction method to an image using a shooting date and time as an attribute vector will be described.
FIG. 4 is an explanatory diagram in the case of assigning slide-in and strip-in (crossfade), which are image effects of image switching, to a three-dimensional space.
FIG. 4 shows a case where the image
For example, in the XY plane, a slide-in from the right or a strip-in from the right is assigned to the first quadrant, and a slide-in from the top or a strip-in from the top is assigned to the second quadrant. A slide-in from the left or a strip-in from the left is assigned to the third quadrant, and a slide-in from the bottom or a strip-in from the bottom is assigned to the fourth quadrant.
The Z-axis is assigned image effect intensity (strong-weak) or speed (fast-slow).
Therefore, when the shooting date is “November 15 6:00 pm”, the image effect is given so that the slide-in from the left is weak (weakest).
続いて、画像に対し、BGMを、属性ベクトルとしての撮影日時を用いて割り当てる場合の具体的手法について説明する。
図5は、BGMを2次元空間に割り当てた場合の説明図である。
BGMを撮影日時を用いて割り当てる場合には、図5に示すように、人間の印象に基づき、ベクトル空間上にBGMを配置することができる。
具体的には、3月〜5月は春を連想させるクラシック曲、6月〜8月は夏を連想させるクラシック曲、9月〜11月は秋を連想させるクラシック曲、12月〜2月は冬を連想させるクラシック曲を割り当てるようにすればよい。
この場合に、紙面垂直方向に、さらに属性ベクトルとしての撮影時刻を割り当て、紙面手前側に昼間を連想させる曲を配置し、紙面奥側に夜間を連想させる曲を配置し、例えば、撮影日時が「4月5日午前5時」である場合には、春の夜明けを連想させるクラシック曲を割り当て、撮影日時が「10月15日の午後11時」である場合には、秋の夜長を連想させるクラシック曲を割り当てるようにすればよい。
この場合において、原則的には、画像の属性ベクトルに最も近い楽曲を選択することとなるが、楽曲の選択が単調になるような場合には、変化が生まれるように、画像の属性ベクトルと同一象限の他の楽曲を選択するようにしても良い。なお、楽曲をベクトル空間に割り当てた情報は外部記憶装置16(楽曲ベクトル空間記憶部に相当)に記憶される。
Next, a specific method for assigning BGM to an image using a shooting date and time as an attribute vector will be described.
FIG. 5 is an explanatory diagram when BGM is assigned to a two-dimensional space.
When the BGM is assigned using the shooting date and time, as shown in FIG. 5, the BGM can be arranged on the vector space based on the human impression.
Specifically, March-May is a classic song reminiscent of spring, June-August is a classic song reminiscent of summer, September-November is a classic song reminiscent of autumn, December-February is Assign a classic song reminiscent of winter.
In this case, a shooting time as an attribute vector is further assigned in the vertical direction on the page, a song reminiscent of daytime is arranged on the front side of the page, and a song reminiscent of night is arranged on the back side of the page. If it is “April 5, 5:00 am”, assign a classic song reminiscent of the spring dawn, and if the shooting date is “October 15 1:00 pm”, remind it of the autumn night length Assign a classic song.
In this case, in principle, the music piece closest to the attribute vector of the image is selected. However, when the music selection becomes monotonous, it is the same as the attribute vector of the image so that a change occurs. You may make it select the other music of a quadrant. In addition, the information which allocated the music to the vector space is memorize | stored in the external storage device 16 (equivalent to a music vector space memory | storage part).
また、例えば、特開2003−58147号に開示されている技術によってBGMを楽曲特徴量によって自動分類しても良い。具体的には、BGMのテンポ、調、周波数特性により3次元の空間に分類することができ、同様に撮影日時(撮影時刻を含む)に応じていずれかのBGMを割り当てればよい。
以上の説明は、属性ベクトルの次元数が割り当てるべき色、画像効果、あるいは、BGMの次元数以下である場合を前提として説明したが、文書の属性ベクトル、あるいは、高次元化したベクトルは、割り当てるべき色、画像効果、BGM等の画像再生方法の次元数よりも高い次元数になる場合には、そのままでは、対応させることができない。
そこで、このような場合には、次元削減部35が、属性ベクトルの集合を主成分分析を行い、必要な次元数に合わせて次元数を削減、あるいは、主に考慮すべき属性ベクトルに対応する軸を主軸として選択するようにしている。
Further, for example, BGM may be automatically classified based on the music feature amount by a technique disclosed in Japanese Patent Laid-Open No. 2003-58147. Specifically, it can be classified into a three-dimensional space according to the tempo, key, and frequency characteristics of BGM, and any BGM may be assigned in accordance with the shooting date and time (including the shooting time).
The above description has been made on the assumption that the dimension number of the attribute vector is equal to or less than the color, image effect, or BGM dimension to be allocated. However, the attribute vector of the document or the higher-dimensional vector is allocated. If the number of dimensions is higher than the number of dimensions of the image reproduction method such as power color, image effect, BGM, etc., it cannot be handled as it is.
Therefore, in such a case, the
図6は、実施形態の概要処理フローチャートである。
画像再生装置10は、映像・画像入力部31として機能する画像入力装置12を介して入力された画像に対し、画像再生装置本体11のMPU21は、入力された画像に付加されているメタデータ(本実施形態の場合、撮影日時、撮影場所)、入力された画像に関連する文書(あるいは文書内のテキスト)に基づいて属性ベクトルを生成する(ステップS11)。
この場合において、画像再生装置本体11のMPU21は、複数のデータに基づいて属性ベクトルを生成することも可能である。
次に、画像再生装置10のMPU21は、次元削減部35として機能し、属性ベクトルの次元数が、画像再生方法に対応する属性ベクトルの次元数を超えている場合には、次元数が収まるように削減する(ステップS12)。
これにより、画像再生装置10のMPU21は、共働して画像再生方法記憶部36として機能している外部記憶装置16を参照し、ステップS11において生成した画像の属性ベクトルの値に基づいて、画像再生方法を選択する(ステップS13)。
FIG. 6 is a flowchart of an outline process according to the embodiment.
For the image input through the
In this case, the
Next, the
As a result, the
具体的には、MPU21および外部記憶装置16は、共働してカラーパレット変更部41、画像効果付与部42およびBGM付与部43として機能し、上述したように画像再生方法を選択することととなる。
この結果、MPU21は、選択した画像再生方法に従って、画像を再生し、表示装置14に表示することとなる(ステップS14)。
以上の説明のように、本実施形態によれば、画像に関連した属性ベクトルを用いることにより、画像内容に対応した画像再生方法を自動的に選択することができ、元の画像に対して自然な流れで画像効果やBGMを付与して再生を行うことができ、視聴者は違和感なく再生された画像を視聴することができる。
Specifically, the
As a result, the
As described above, according to the present embodiment, by using an attribute vector associated with an image, an image reproduction method corresponding to the image content can be automatically selected, and the original image can be naturally selected. It is possible to perform reproduction with an image effect and BGM in a smooth flow, and the viewer can view the reproduced image without a sense of incongruity.
以上の説明においては、画像に付与される属性ベクトルのうち、いずれのベクトルを画像再生方法の選択に使用するかは、予め設定されている場合について説明したが、ユーザが目的に応じて選択するように構成することも可能である。
例えば、以上の説明においては、カラーパレットを喜怒哀楽に分類した語に基づいて参照するように構成していたが、季節と昼夜を属性ベクトルとして用いるようにユーザが設定することも可能である。
この場合において、図3に示した円の外周に近づくほど彩度が高く、内側ほど彩度を低くするようにし、撮影日時の基点、即ちθ=0が緑になるようにしておく。そして、撮影時刻をtとしたとき、(cosθ、sinθ)を円周方向の座標、(sin(φ)+1)/2を半径方向の座標に対応させればよい。これにより、季節の変化と一日の変化に対応した色を定めることができ、季節との対応がわかりやすい画像再生(例えば、スライドショー)を行うことができる。
以上の説明においては、画像の特徴に対応づけて属性ベクトルを画像に付与する構成を採っていたが、画像の特徴に対応づけて属性ベクトルに代えて属性ベクトルの終点の座標(空間座標)を画像に付与する構成とすることも可能である。
以上の説明においては、特徴量としての撮影場所については、メタデータとして予め画像に付与されている場合について説明したが、撮影後に地図データベースから抽出された撮影場所および撮影場所近辺に関する情報を用いるように構成することも可能である。
In the above description, among the attribute vectors assigned to the image, which vector is used for selection of the image reproduction method has been described in advance, but the user selects according to the purpose. It is also possible to configure as described above.
For example, in the above description, the color palette is configured to be referred to based on words classified into emotions, but the user can also set the season and day and night as attribute vectors. .
In this case, the saturation is higher as it approaches the outer periphery of the circle shown in FIG. 3, and the saturation is lower as it is closer to the inner side, so that the base point of the shooting date, that is, θ = 0 is green. Then, when the shooting time is t, (cos θ, sin θ) may correspond to the circumferential coordinate, and (sin (φ) +1) / 2 may correspond to the radial coordinate. As a result, it is possible to determine colors corresponding to changes in the season and changes in the day, and to perform image reproduction (for example, a slide show) in which the correspondence with the season is easy to understand.
In the above description, the attribute vector is assigned to the image in association with the feature of the image. However, the coordinates (spatial coordinates) of the end point of the attribute vector are used instead of the attribute vector in association with the feature of the image. It is also possible to adopt a configuration for adding to an image.
In the above description, the shooting location as the feature amount has been described as being given to the image in advance as metadata. However, information about the shooting location and the vicinity of the shooting location extracted from the map database after shooting is used. It is also possible to configure.
以上の説明においては、画像再生装置10は、具体的には、パーソナルコンピュータ、PDA、携帯型電話機等に適用可能であるが、ディジタルスチルカメラ、ディジタルビデオカメラ、スキャナ、プロジェクタ、テレビ、プリンタおよびその他の画像再生処理を行う電子機器に実装または接続することが可能である。
以上の説明においては、上記各機能を実現するための制御プログラムが、予めROM22に格納されている場合について説明したが、制御プログラムを、コンピュータ(CPU)読取可能な記録媒体に記録するようにしてもよい。このような構成であれば、コンピュータによってプログラムが記憶媒体から読み取られ、読み取られたプログラムに従ってコンピュータが処理を実行すると、上記各実施形態と同等の作用および効果が得られる。
ここで、記憶媒体とは、RAM、ROM等の半導体記憶媒体、FD、HD等の磁気記憶型記憶媒体、CD、CDV、LD、DVD等の光学的読取方式記憶媒体、MO等の磁気記憶型/光学的読取方式記憶媒体であって、電子的、磁気的、光学的等の読み取り方法のいかんにかかわらず、コンピュータで読み取り可能な記憶媒体であれば、どのような記憶媒体であってもよい。
また、インターネット、LANなどの通信ネットワークおよび通信インタフェース部24を介して制御用プログラムをダウンロードし、インストールして実行するように構成することも可能である。
In the above description, the
In the above description, the case where the control program for realizing the above functions is stored in the ROM 22 in advance has been described. However, the control program is recorded on a computer (CPU) readable recording medium. Also good. With such a configuration, when the program is read from the storage medium by the computer and the computer executes processing according to the read program, the same operations and effects as those in the above embodiments can be obtained.
Here, the storage medium is a semiconductor storage medium such as RAM or ROM, a magnetic storage type storage medium such as FD or HD, an optical reading type storage medium such as CD, CDV, LD, or DVD, or a magnetic storage type such as MO. / Optical reading type storage medium, and any storage medium can be used as long as it can be read by a computer regardless of electronic, magnetic, optical, etc. .
It is also possible to configure such that a control program is downloaded, installed and executed via a communication network such as the Internet or a LAN and the
10…画像再生装置、11…画像再生装置本体、11…午後、12…画像入力装置、13…入力装置、14…表示装置、15…出力装置、16…外部記憶装置、21…MPU、22…ROM、23…RAM、24…通信インタフェース部、31…映像・画像入力部、32…テキスト抽出部、33…形態素解析部、34…重要度算出部、35…次元削減部、36…画像再生方法記憶部、41…カラーパレット変更部、42…画像効果付与部、43…BGM付与部。
DESCRIPTION OF
Claims (9)
前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出する特徴量抽出部と、
n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記特徴量抽出部により抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行う再生制御部と、
を備えたことを特徴とする画像再生装置。 An image reproduction apparatus for reproducing a plurality of reproduction target images including a moving image, a still image, or a combination thereof,
A feature amount extraction unit that extracts the feature amount of each image included in the reproduction target image;
Assuming an n-dimensional image feature amount space represented by n types (n is an integer of 2 or more), the feature amount of each image extracted by the feature amount extraction unit is the n-dimensional image feature. A reproduction control unit configured to perform reproduction control of the plurality of reproduction target images based on the attribute vector or the spatial coordinate in the quantity space, and based on the attribute vector or the spatial coordinate;
An image reproducing apparatus comprising:
複数の楽曲データを、前記楽曲データの特徴に基づいて、少なくとも季節および時刻を空間軸とするベクトル空間に割り当てた楽曲ベクトル空間情報を記憶する楽曲ベクトル空間記憶部を備え、
前記特徴量として、前記画像を撮影した撮影日時に関する情報を含み、
前記再生制御部は、前記楽曲ベクトル空間情報を参照して、前記撮影日時が属する季節および時刻に基づいて、前記楽曲データを選択し、前記選択された前記楽曲データを前記画像のBGMとして付与することを特徴とする画像再生装置。 The image reproducing apparatus according to claim 1,
A music vector space storage unit for storing music vector space information assigned to a vector space having at least a season and a time as a space axis based on the characteristics of the music data, and a plurality of music data,
As the feature amount, including information on the shooting date and time when the image was shot,
The playback control unit refers to the music vector space information, selects the music data based on the season and time to which the shooting date belongs, and assigns the selected music data as BGM of the image. An image reproducing apparatus characterized by that.
前記特徴量として、前記画像に関連する文書に含まれる重要語のTF/IDF値を用いることを特徴とする画像再生装置。 The image reproduction apparatus according to claim 1 or 2,
An image reproduction apparatus characterized in that a TF / IDF value of an important word contained in a document related to the image is used as the feature amount.
前記特徴量として、前記画像に予め付与されたメタデータを用いることを特徴とする画像再生装置。 The image reproduction apparatus according to any one of claims 1 to 3,
An image reproducing apparatus using metadata previously given to the image as the feature amount.
前記メタデータは、撮影日時または撮影場所の少なくともいずれかを含むことを特徴とする画像再生装置。 The image reproduction apparatus according to claim 4, wherein
The image reproduction apparatus, wherein the metadata includes at least one of a shooting date and a shooting location.
前記特徴量として、地図データベースから抽出された撮影場所および撮影場所近辺に関する情報を用いることを特徴とする画像再生装置。 The image reproduction apparatus according to any one of claims 1 to 5,
An image reproduction apparatus characterized in that information relating to a shooting location extracted from a map database and the vicinity of the shooting location is used as the feature amount.
前記画像に対応する前記属性ベクトルあるいは前記空間座標の次元が、n次元を超える場合に前記属性ベクトルあるいは前記空間座標の次元を削減する次元削減部を備えたことを特徴とする画像再生装置。 The image reproducing apparatus according to claim 2, wherein
An image reproducing apparatus comprising: a dimension reduction unit that reduces the dimension of the attribute vector or the spatial coordinate when the dimension of the attribute vector or the spatial coordinate corresponding to the image exceeds n dimensions.
前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出する特徴量抽出過程と、
n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記特徴量抽出部により抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行う再生制御過程と、
を備えたことを特徴とする画像再生装置の制御方法。 A control method for an image playback apparatus for playing back a plurality of playback target images including moving images, still images, or a combination thereof,
A feature amount extraction process for extracting each feature amount of each image included in the reproduction target image;
Assuming an n-dimensional image feature amount space represented by n types (n is an integer of 2 or more), the feature amount of each image extracted by the feature amount extraction unit is the n-dimensional image feature. A reproduction control process for performing reproduction control of the plurality of reproduction target images based on the attribute vector or the spatial coordinates in the quantity space, and based on the attribute vector or the spatial coordinates;
An image reproducing apparatus control method comprising:
前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出させ、
n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行わせる、
ことを特徴とする制御プログラム。 A control program for controlling, by a computer, an image playback device that plays back a plurality of playback target images including moving images, still images, or combinations thereof,
Extracting each feature amount of each image included in the reproduction target image;
Assuming an n-dimensional image feature amount space represented by n types (n is an integer of 2 or more), the extracted feature values of the images are attribute vectors in the n-dimensional image feature amount space. Alternatively, spatial coordinates are used, and reproduction control of the plurality of reproduction target images is performed based on the attribute vector or the spatial coordinates.
A control program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007130847A JP2008288804A (en) | 2007-05-16 | 2007-05-16 | Image reproducing device, and control method and control program of image reproducing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007130847A JP2008288804A (en) | 2007-05-16 | 2007-05-16 | Image reproducing device, and control method and control program of image reproducing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008288804A true JP2008288804A (en) | 2008-11-27 |
Family
ID=40148135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007130847A Pending JP2008288804A (en) | 2007-05-16 | 2007-05-16 | Image reproducing device, and control method and control program of image reproducing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008288804A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011199671A (en) * | 2010-03-19 | 2011-10-06 | Sony Corp | Image processing apparatus, method and program |
JP2014134860A (en) * | 2013-01-08 | 2014-07-24 | Canon Inc | Image retrieval device, image retrieval method, retrieval original image providing device, retrieval original image providing method and program |
JP2014158295A (en) * | 2014-04-28 | 2014-08-28 | Nec Corp | Digital camera, image recording method, and image recording program |
-
2007
- 2007-05-16 JP JP2007130847A patent/JP2008288804A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011199671A (en) * | 2010-03-19 | 2011-10-06 | Sony Corp | Image processing apparatus, method and program |
JP2014134860A (en) * | 2013-01-08 | 2014-07-24 | Canon Inc | Image retrieval device, image retrieval method, retrieval original image providing device, retrieval original image providing method and program |
JP2014158295A (en) * | 2014-04-28 | 2014-08-28 | Nec Corp | Digital camera, image recording method, and image recording program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9372926B2 (en) | Intelligent video summaries in information access | |
JP5121367B2 (en) | Apparatus, method and system for outputting video | |
CN101300567B (en) | Method for media sharing and authoring on the web | |
US9213705B1 (en) | Presenting content related to primary audio content | |
US20090259623A1 (en) | Systems and Methods for Associating Metadata with Media | |
WO2008079249A2 (en) | Storyshare automation | |
KR20090004990A (en) | Internet search-based television | |
JP2010507316A (en) | Encoding method and apparatus, and decoding method and apparatus | |
JP2007049387A (en) | Image output device and image output method | |
WO2007029917A1 (en) | Method and apparatus for encoding multimedia contents and method and system for applying encoded multimedia contents | |
WO2014103123A1 (en) | Device, method, and program for digest generation | |
TW200849030A (en) | System and method of automated video editing | |
JP6603925B1 (en) | Movie editing server and program | |
KR101927965B1 (en) | System and method for producing video including advertisement pictures | |
US20060010366A1 (en) | Multimedia content generator | |
JP2005033619A (en) | Contents management device and contents management method | |
JP2020065307A (en) | Server, program, and moving image distribution system | |
KR102252522B1 (en) | Method and system for automatic creating contents list of video based on information | |
JP2008288804A (en) | Image reproducing device, and control method and control program of image reproducing device | |
JP6730760B2 (en) | Server and program, video distribution system | |
JP2008160512A (en) | Reproducing device, electronic equipment, reproducing method, and program | |
KR100860510B1 (en) | Method for creating slide show having visual effect in mobile device | |
US7353451B2 (en) | Meta data creation apparatus and meta data creation method | |
WO2009044351A1 (en) | Generation of image data summarizing a sequence of video frames | |
Shim et al. | CAMEO-camera, audio and motion with emotion orchestration for immersive cinematography |