JP2008288804A - Image reproducing device, and control method and control program of image reproducing device - Google Patents

Image reproducing device, and control method and control program of image reproducing device Download PDF

Info

Publication number
JP2008288804A
JP2008288804A JP2007130847A JP2007130847A JP2008288804A JP 2008288804 A JP2008288804 A JP 2008288804A JP 2007130847 A JP2007130847 A JP 2007130847A JP 2007130847 A JP2007130847 A JP 2007130847A JP 2008288804 A JP2008288804 A JP 2008288804A
Authority
JP
Japan
Prior art keywords
image
feature amount
reproduction
images
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007130847A
Other languages
Japanese (ja)
Inventor
Toshinori Nagahashi
敏則 長橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2007130847A priority Critical patent/JP2008288804A/en
Publication of JP2008288804A publication Critical patent/JP2008288804A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reproduce images by automatically impart various kinds of effects corresponding to image contents of the respective images when reproducing the plurality of images as moving images, still images or their combination. <P>SOLUTION: When reproducing a plurality of reproduction object images including the moving images, the still images or their combination, an image reproducing device 10 respectively extracts the feature quantities of the respective images included in the reproduction object images, assumes an n-dimensional image feature quantity space indicated by n kinds (n is an integer ≥2) of feature quantities, defines the extracted feature quantities of the respective images as attribute vectors or space coordinates in the n-dimensional image feature quantity space, and controls the reproduction of the plurality of reproduction object images on the basis of the attribute vectors or the space coordinates. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像再生装置、画像再生装置の制御方法および制御プログラムに係り、特に動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合に画像効果やBGMを自動的に付与して再生するための技術に関する。   The present invention relates to an image playback device, a control method of the image playback device, and a control program. In particular, when a plurality of images as a moving image, a still image, or a combination thereof are played back, an image effect and BGM are automatically provided. And technology for playback.

従来、動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合には、画像毎にどのような効果を付与して再生するかを手作業で設定する必要があり、特に多数の画像を用いて再生を行う場合、多大な時間を費やしてしまうとともに、慣れないユーザにとってはとても煩雑な作業となっていた。
例えば、複数の静止画を用いてスライドショーを作成する場合、画像の画像効果やBGMがないか、あるいは、常に同一の画像効果やBGMを用いるなど単調なものであれば、演出効果のない、退屈なスライドショーとなり、再生効果が損なわれてしまう。
さらに、これらの画像効果やBGMが、再生している画像と全く関係なく行われれば、視聴者は、画像からストーリ性を感じることもできない。
特開2006−186505号公報
Conventionally, when reproducing a plurality of images as a moving image, a still image, or a combination thereof, it is necessary to manually set what kind of effect is to be reproduced for each image. When playing back using images, it takes a lot of time and is a very complicated operation for users who are not used to it.
For example, when creating a slide show using a plurality of still images, if there is no image effect or BGM of the image, or if it is monotonous such as always using the same image effect or BGM, there is no production effect, boring And the playback effect is lost.
Furthermore, if these image effects and BGM are performed regardless of the image being reproduced, the viewer cannot feel the story from the image.
JP 2006-186505 A

これを解決するため、特許文献1記載の技術では、無音区間を検出することにより、画像とBGMの再生時間が一致するようにしているが、画像の内容的なものは考慮しておらず、画像により好適なBGMを再生させたり、再生対象の画像により好適な画像効果を付与することもできないという問題点があった。
ところで、近年、ディジタルカメラやディジタルビデオ、カメラ付携帯電話等の普及により、個人が保存している画像等のコンテンツは増加する一方である。代表的なコンテンツであるディジタル画像データには、ディジタルカメラの機能によって、撮影日時を示す情報等を含むメタデータが付加されることが多い。このメタデータに含まれる情報を利用すれば、例えば特定の日に撮影されたディジタル画像データを検索することができ、ディジタル画像データの管理の一助としていた。しかしながら、メタデータはあくまで管理のために用いるものであり、再生制御に用いられてはいなかった。
そこで、本発明の目的は、動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合に、各画像の画像内容に応じて、各種効果を自動的に付与して画像再生を行うことが可能な画像再生装置、画像再生装置の制御方法および制御プログラムを提供することにある。
In order to solve this, the technique described in Patent Document 1 detects the silent section so that the playback time of the image and the BGM coincide with each other. However, the content of the image is not considered, There is a problem that it is not possible to reproduce a BGM that is more suitable for an image or to impart a suitable image effect to an image to be reproduced.
In recent years, with the spread of digital cameras, digital videos, camera-equipped mobile phones, etc., content such as images stored by individuals is increasing. Digital image data, which is representative content, is often added with metadata including information indicating the shooting date and time by the function of the digital camera. If the information contained in this metadata is used, for example, digital image data taken on a specific day can be retrieved, which helps to manage the digital image data. However, the metadata is only used for management and has not been used for playback control.
Therefore, an object of the present invention is to reproduce images by automatically applying various effects according to the image contents of each image when reproducing a plurality of images as a moving image, a still image, or a combination thereof. It is an object to provide an image reproducing apparatus, a control method for the image reproducing apparatus, and a control program.

上記課題を解決するため、本発明の第一形態は、動画像、静止画像あるいはそれらの組み合わせを含む複数の再生対象画像を再生する画像再生装置であって、前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出する特徴量抽出部と、n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記特徴量抽出部により抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行う再生制御部と、を備えたことを特徴としている。
上記構成によれば、特徴量抽出部は、再生対象画像に含まれる各画像の特徴量をそれぞれ抽出する。
これにより、再生制御部は、特徴量抽出部により抽出された各画像の特徴量をn次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行う。
したがって、動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合に、各画像の特徴量に応じて、各種効果を自動的に付与して画像再生を行うことができる。
In order to solve the above-described problem, a first aspect of the present invention is an image reproduction device that reproduces a plurality of reproduction target images including moving images, still images, or a combination thereof, and each image included in the reproduction target images. Assuming a feature quantity extraction unit that extracts each of the feature quantities and an n-dimensional image feature quantity space represented by n types (n is an integer of 2 or more), the feature quantity extraction unit extracts the feature quantity. A reproduction control unit that performs the reproduction control of the plurality of reproduction target images based on the attribute vector or the spatial coordinates, and the feature quantity of each of the images as an attribute vector or a spatial coordinate in the n-dimensional image feature quantity space; It is characterized by having.
According to the above configuration, the feature amount extraction unit extracts the feature amount of each image included in the reproduction target image.
Accordingly, the reproduction control unit sets the feature amount of each image extracted by the feature amount extraction unit as an attribute vector or a spatial coordinate in the n-dimensional image feature amount space, and based on the attribute vector or the spatial coordinate, Perform playback control of the playback target image.
Therefore, when reproducing a plurality of images as a moving image, a still image, or a combination thereof, image reproduction can be performed by automatically applying various effects according to the feature amount of each image.

また、本発明の第二形態は、第一形態の画像再生装置において、複数の楽曲データを、前記楽曲データの特徴に基づいて、少なくとも季節および時刻を空間軸とするベクトル空間に割り当てた楽曲ベクトル空間情報を記憶する楽曲ベクトル空間記憶部を備え、前記特徴量として、前記画像を撮影した撮影日時に関する情報を含み、前記再生制御部は、前記楽曲ベクトル空間情報を参照して、前記撮影日時が属する季節および時刻に基づいて、前記楽曲データを選択し、前記選択された前記楽曲データを前記画像のBGMとして付与することを特徴としている。
上記構成によれば、楽曲ベクトル空間記憶部は、複数の楽曲データを、前記楽曲データの特徴に基づいて、少なくとも季節および時刻を空間軸とするベクトル空間に割り当てた楽曲ベクトル空間情報を記憶し、再生制御部は、楽曲ベクトル空間情報を参照して、撮影日時が属する季節および時刻に基づいて、楽曲データを選択し、画像のBGMとして付与するので、撮影日時が属する季節及び時刻に対応した楽曲データが自動的にBGMとして再生される。
また、本発明の第三形態は、第一形態または第二形態の画像再生装置において、前記特徴量として、前記画像に関連する文書に含まれる重要語のTF/IDF値を用いることを特徴としている。
上記構成によれば、画像に関連する文書に含まれる重要語のうち、TF/IDF値に基づいて、より関連性の高い重要語に基づいて再生制御を行えるので、視聴者にとってより画像内容に則した違和感のない再生制御が行える。
According to a second aspect of the present invention, there is provided a music vector in which a plurality of music data is allocated to a vector space having at least a season and a time axis as a space axis based on the characteristics of the music data in the image reproduction device of the first aspect. A music vector space storage unit that stores spatial information, and includes information related to a shooting date and time when the image was shot as the feature amount, and the reproduction control unit refers to the music vector space information and the shooting date and time is The music data is selected based on the season and time to which it belongs, and the selected music data is assigned as BGM of the image.
According to the above configuration, the music vector space storage unit stores music vector space information in which a plurality of music data is assigned to a vector space having at least the season and time as a space axis based on the characteristics of the music data. The playback control unit refers to the music vector space information, selects music data based on the season and time to which the shooting date belongs, and assigns it as the BGM of the image, so the music corresponding to the season and time to which the shooting date belongs Data is automatically played back as BGM.
According to a third aspect of the present invention, in the image reproduction device of the first aspect or the second aspect, a TF / IDF value of an important word contained in a document related to the image is used as the feature amount. Yes.
According to the above configuration, since the reproduction control can be performed based on the more important important words included in the document related to the image based on the TF / IDF value, the content of the image is improved for the viewer. It is possible to perform playback control without any sense of incongruity.

また、本発明の第四形態は、第一形態ないし第三形態のいずれかの画像再生装置において、前記特徴量として、前記画像に予め付与されたメタデータを用いることを特徴としている。
上記構成によれば、より確実に画像内容に則した違和感のない再生制御が行える。
また、本発明の第五形態は、第四形態の画像再生装置において、前記メタデータは、撮影日時または撮影場所の少なくともいずれかを含むことを特徴としている。
上記構成によれば、撮影日時あるいは撮影場所に対応づけて、画像内容に則した最適な画像再生制御が行える。
According to a fourth aspect of the present invention, in the image reproduction device according to any one of the first to third aspects, metadata previously given to the image is used as the feature amount.
According to the above configuration, it is possible to perform reproduction control without any sense of incongruity according to the image content.
According to a fifth aspect of the present invention, in the image reproducing device according to the fourth aspect, the metadata includes at least one of a shooting date and time or a shooting location.
According to the above configuration, it is possible to perform optimal image reproduction control in accordance with the image content in association with the shooting date and time or the shooting location.

また、本発明の第六形態は、第一形態ないし第五形態のいずれかの画像再生装置において、前記特徴量として、地図データベースから抽出された撮影場所および撮影場所近辺に関する情報を用いることを特徴としている。
上記構成によれば、地図データベースから抽出された撮影場所および撮影場所近辺に関する情報は、再生対象の画像に関連した情報を含むこととなり、より画像内容に則した最適な画像再生制御が行える。
また、本発明の第七形態は、第2形態の画像再生装置において、前記画像に対応する前記属性ベクトルあるいは前記空間座標の次元が、n次元を超える場合に前記属性ベクトルあるいは前記空間座標の次元を削減する次元削減部を備えたことを特徴としている。
上記構成によれば、次元削減部は、画像に対応する属性ベクトルあるいは空間座標の次元が、n次元を超える場合に属性ベクトルあるいは空間座標の次元を削減するので、確実に対応付けを行って、画像再生制御を行える。
According to a sixth aspect of the present invention, in the image reproduction device according to any one of the first to fifth aspects, information relating to a shooting location extracted from a map database and the vicinity of the shooting location is used as the feature amount. It is said.
According to the above configuration, the information regarding the shooting location and the vicinity of the shooting location extracted from the map database includes information related to the image to be played back, and optimal image playback control can be performed according to the image content.
Further, according to a seventh aspect of the present invention, in the image reproduction device according to the second aspect, the dimension of the attribute vector or the spatial coordinate when the dimension of the attribute vector or the spatial coordinate corresponding to the image exceeds n dimensions. It is characterized by having a dimension reduction unit that reduces
According to the above configuration, the dimension reduction unit reduces the dimension of the attribute vector or the spatial coordinate when the dimension of the attribute vector or the spatial coordinate corresponding to the image exceeds n dimensions. Image playback control can be performed.

また、本発明の第八形態は、動画像、静止画像あるいはそれらの組み合わせを含む複数の再生対象画像を再生する画像再生装置の制御方法であって、前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出する特徴量抽出過程と、n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記特徴量抽出部により抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行う再生制御過程と、を備えたことを特徴としている。
上記構成によれば、動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合に、各画像の特徴量に応じて、各種効果を自動的に付与して画像再生を行うことができる。
Further, an eighth aspect of the present invention is a control method for an image playback device that plays back a plurality of playback target images including moving images, still images, or a combination thereof, and features of each image included in the playback target images Assuming a feature quantity extraction process for extracting quantities respectively, and an n-dimensional image feature quantity space represented by n types (n is an integer of 2 or more), each feature quantity extraction unit extracts each A reproduction control step of setting the feature quantity of the image as an attribute vector or a spatial coordinate in the n-dimensional image feature quantity space, and performing reproduction control of the plurality of reproduction target images based on the attribute vector or the spatial coordinate. It is characterized by that.
According to the above configuration, when reproducing a plurality of images as a moving image, a still image, or a combination thereof, image reproduction can be performed by automatically applying various effects according to the feature amount of each image. it can.

また、本発明の第九形態は、動画像、静止画像あるいはそれらの組み合わせを含む複数の再生対象画像を再生する画像再生装置をコンピュータにより制御するための制御プログラムであって、前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出させ、n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行わせる、ことを特徴としている。
上記構成によれば、動画像、静止画像あるいはそれらの組み合わせとしての複数の画像を再生する場合に、各画像の特徴量に応じて、各種効果を自動的に付与して画像再生を行うことができる。
この場合において、制御プログラムをコンピュータ読取可能な記録媒体に記録するようにしても良い。
According to a ninth aspect of the present invention, there is provided a control program for controlling, by a computer, an image playback device that plays back a plurality of playback target images including moving images, still images, or combinations thereof. A feature amount of each image included is extracted, an n-dimensional image feature amount space represented by n types (n is an integer of 2 or more) of the feature amount is assumed, and the feature of each of the extracted images A quantity is an attribute vector or a spatial coordinate in the n-dimensional image feature quantity space, and reproduction control of the plurality of reproduction target images is performed based on the attribute vector or the spatial coordinate.
According to the above configuration, when reproducing a plurality of images as a moving image, a still image, or a combination thereof, image reproduction can be performed by automatically applying various effects according to the feature amount of each image. it can.
In this case, the control program may be recorded on a computer-readable recording medium.

次に図面を参照して本発明の好適な実施形態について説明する。
図1は、実施形態の画像再生装置の概要構成ブロック図である。
画像再生装置10は、パーソナルコンピュータとして構成されており、画像処理を行う画像再生装置本体11と、各種画像入力を行う画像入力装置12と、各種操作を行うためのキーボード、マウスなどの入力装置13と、各種表示を行う液晶ディスプレイなどの表示装置14と、印刷を行うプリンタなどの出力装置15と、後述する画像再生方法に関連するデータを含む各種データを記憶するハードディスク装置などの外部記憶装置16と、を備えている。
画像再生装置本体11は、当該画像再生装置本体11全体の制御を行うマイクロプロセッサユニット(MPU)21と、各種制御プログラムを含む各種データを記憶するROM22と、MPU21のワークエリアとして機能するRAM23と、LAN、インターネットなどの外部の通信ネットワークとの間のインタフェース動作を行う通信インタフェース部24と、を備えている。
Next, preferred embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic configuration block diagram of an image reproducing apparatus according to an embodiment.
The image reproduction device 10 is configured as a personal computer, and includes an image reproduction device main body 11 that performs image processing, an image input device 12 that performs various image inputs, and an input device 13 such as a keyboard and a mouse for performing various operations. A display device 14 such as a liquid crystal display that performs various displays; an output device 15 such as a printer that performs printing; and an external storage device 16 such as a hard disk device that stores various data including data related to an image reproduction method to be described later. And.
The image reproduction apparatus main body 11 includes a microprocessor unit (MPU) 21 that controls the entire image reproduction apparatus main body 11, a ROM 22 that stores various data including various control programs, a RAM 23 that functions as a work area of the MPU 21, And a communication interface unit 24 that performs an interface operation with an external communication network such as a LAN or the Internet.

図2は、画像再生装置の機能ブロック図である。
画像再生装置10は、大別すると、映像・画像入力部31と、テキスト抽出部32と、形態素解析部33と、重要度算出部34と、次元削減部35と、画像再生方法記憶部36と、を備えている。
映像・画像入力部31は、放送電波、通信ネットワークあるいはICメモリカードなどのデータ記憶媒体を介して動画像データ(動画像に対応)あるいは静止画像データ(静止画に対応)を入力する。具体的には、様々な画像フォーマットの画像を、様々な圧縮形式、ファイル形式を有するファイルや、スキャナ、ディジタルカメラ、ディジタルビデオカメラなどの入力装置から抽出あるいは受け取ることとなる。この場合において、圧縮形式としては、JPEG、MPEG−4、H.264等が挙げられる。
FIG. 2 is a functional block diagram of the image reproducing apparatus.
The image reproduction device 10 is roughly classified into a video / image input unit 31, a text extraction unit 32, a morpheme analysis unit 33, an importance calculation unit 34, a dimension reduction unit 35, and an image reproduction method storage unit 36. It is equipped with.
The video / image input unit 31 inputs moving image data (corresponding to moving images) or still image data (corresponding to still images) via a broadcast radio wave, a communication network, or a data storage medium such as an IC memory card. Specifically, images of various image formats are extracted or received from files having various compression formats and file formats, and input devices such as scanners, digital cameras, and digital video cameras. In this case, compression formats include JPEG, MPEG-4, H.264. H.264 or the like.

テキスト抽出部32は、XHTML(個人のホームページ、ブログなど)、送受信した電子メール、XML(楽曲の検索用メタデータなど)で記述されているハイパーテキストデータや地図データベースからタグ情報以外のテキストデータを抽出する。
形態素解析部33は、ブログなどのテキストデータあるいは音声認識部により音声認識したテキストデータに対応するテキストの形態素解析を行い、単語(語句)を抽出し、必要に応じてステミングを行う。
The text extraction unit 32 receives text data other than tag information from hypertext data or map database described in XHTML (personal homepage, blog, etc.), sent / received e-mails, XML (music search metadata, etc.). Extract.
The morpheme analysis unit 33 performs morpheme analysis on text corresponding to text data such as a blog or text data speech-recognized by the speech recognition unit, extracts words (phrases), and performs stemming as necessary.

重要度算出部34は、複数の関連コンテンツから、最も関連が深い関連コンテンツ(コンテンツiと表記)、からメタデータとする語句を抽出する。
この場合において、関連コンテンツを代表する語句、すなわち、当該関連コンテンツの中で重要度の高い語句を、動画像あるいは静止画像を最も良く表現する語句とみなして、重要語句と表現する。
ここでは、TF/IDF(Term Frequency & Inverse Document Frequency)処理によって重要度を算出する。そして、重要度算出部34は、下記式(1)によって、形態素解析部33によりコンテンツiから抽出された各々の語句jの重要度tfidf(i,j)を求める。
The importance calculation unit 34 extracts a word / phrase as metadata from a related content (denoted as content i) that is most closely related from a plurality of related content.
In this case, a phrase representing the related content, that is, a phrase having a high importance in the related content is regarded as a phrase that best expresses a moving image or a still image, and is expressed as an important phrase.
Here, the importance is calculated by TF / IDF (Term Frequency & Inverse Document Frequency) processing. Then, the importance calculation unit 34 obtains the importance tfidf (i, j) of each word / phrase j extracted from the content i by the morpheme analysis unit 33 by the following equation (1).

以下、具体的に説明する。
まず、コンテンツiにおける語句jの出現頻度をFreq(i,j)とし、関連コンテンツでの出現頻度に関わるtf(i,j)を算出する。
tf(i,j)=log(Freq(i,j)+1)/log(コンテンツiの総語句数)
ここで、tf(i,j)は、関連コンテンツのテキストデータにおける出現頻度をもとに、語句の重要度を表す指標である。言い換えれば、コンテンツ中に多く出現する語句が、重要な語句とみなされる。
This will be specifically described below.
First, the appearance frequency of the phrase j in the content i is set to Freq (i, j), and tf (i, j) related to the appearance frequency in the related content is calculated.
tf (i, j) = log (Freq (i, j) +1) / log (total number of phrases of content i)
Here, tf (i, j) is an index representing the importance of a phrase based on the appearance frequency of related content in text data. In other words, phrases that frequently appear in the content are regarded as important phrases.

次にdf(j)を語句jが出現するコンテンツ数として、idf(j)を算出する。
idf(j)=log(N/dt(j))
ここで、idf(j)は、検索された全てのコンテンツのうち、語句tが出現するコンテンツのテキストデータの数を語句tの出現頻度として計算したものである。
さらに、コンテンツiにおける、語句jの重要度を、
tfidf(i,j)=tf(i,j)×idf(j)
とする。したがって、検索用メタデータを選択する場合には、このtfidf(i,j)の値の大きい順に所定個数を選択すればよい。
Next, idf (j) is calculated with df (j) as the number of contents in which the phrase j appears.
idf (j) = log (N / dt (j))
Here, idf (j) is calculated from the number of text data of the content in which the phrase t appears among all the searched contents as the appearance frequency of the phrase t.
Furthermore, the importance of the phrase j in the content i is
tfidf (i, j) = tf (i, j) × idf (j)
And Therefore, when selecting the search metadata, a predetermined number may be selected in descending order of the value of tfidf (i, j).

次元削減部35は、n種類(nは、2以上の整数)の画像特徴量で表されるn次元画像特徴量空間を仮定し、抽出された各画像の特徴量をn次元画像特徴量空間における空間座標あるいはベクトルとして取り扱うに際し、実際の画像再生方法に対応する空間座標あるいはベクトルの次元mがより低い場合に、すなわち、n>mで有る場合に、再生対象となる画像の次元nを圧縮して実際の画像再生方法に対応する空間座標あるいはベクトルの次元mに合わせるように次元の圧縮を行う。
画像再生方法記憶部36は、大別すると、画像フレーム(画像枠)や画像を装飾する色を変更するカラーパレット変更部41と、画像の切り替えや画像そのものを変形したりして、演出効果(画像効果)を生成する画像効果付与部42と、画像の再生に同期して楽曲(BGM)を再生するBGM付与部43と、を備えている。
The dimension reduction unit 35 assumes an n-dimensional image feature amount space represented by n types (n is an integer of 2 or more) of image feature amounts, and extracts the feature amount of each extracted image as an n-dimensional image feature amount space. When the spatial coordinate or vector corresponding to the actual image reproduction method is lower, that is, when n> m, the dimension n of the image to be reproduced is compressed. Then, the dimensions are compressed so as to match the spatial coordinates or vector dimension m corresponding to the actual image reproduction method.
The image reproduction method storage unit 36 can be broadly divided into an image frame (image frame) and a color palette changing unit 41 that changes the color that decorates the image, an image switching, and a transformation of the image itself, thereby producing an effect ( An image effect providing unit 42 that generates an image effect) and a BGM adding unit 43 that reproduces music (BGM) in synchronization with the reproduction of the image.

以下の説明においては、画像の特徴量をベクトルとして取り扱う場合について述べる。
まず、各画像の特徴量としての属性ベクトルの生成について説明する。
各画像の特徴量としての属性ベクトルとしては、撮影日時、撮影場所、文書、メタデータ等が挙げられる。
属性ベクトルとして、撮影日時を用いる場合には、nを年初からの経過日数、Year=365とすれば、θは、
In the following description, a case where the feature amount of an image is handled as a vector will be described.
First, generation of an attribute vector as a feature amount of each image will be described.
Examples of the attribute vector as the feature amount of each image include shooting date / time, shooting location, document, and metadata.
When shooting date / time is used as the attribute vector, if n is the number of days since the beginning of the year and Year = 365, θ is

Figure 2008288804
と定義することができる。
撮影日時の属性ベクトルaは、
Figure 2008288804
Can be defined as
The attribute vector a of the shooting date is

Figure 2008288804
と表すことができる。
撮影時刻tまで考慮に入れる場合は、Day=24とすれば、φは
Figure 2008288804
と定義することができる。
また、属性ベクトルaは、経過日数と合わせて、
Figure 2008288804
It can be expressed as.
When taking into account shooting time t, if Day = 24, φ is
Figure 2008288804
Can be defined as
In addition, the attribute vector a is combined with the elapsed days,

Figure 2008288804
としてもよい。
ここで、撮影日時を周期関数で写像しているのは、年または日の区切りを遷移的にするためである。
さらに、経過日数、または時刻をそのまま属性ベクトルの成分とするようにしても良い。
属性ベクトルとして、撮影場所を用いる場合には、撮影場所の緯度をx、経度yとすれば、
Figure 2008288804
It is good.
The reason why the shooting date and time is mapped by a periodic function is to make the year or day separator transition.
Furthermore, the elapsed days or time may be used as the component of the attribute vector as it is.
When the shooting location is used as the attribute vector, if the latitude of the shooting location is x and longitude y,

Figure 2008288804
として表すことができる。
あるいは、撮影場所の平均位置の緯度をx0、経度をy0として、
Figure 2008288804
Can be expressed as
Alternatively, the latitude of the average location of the shooting location is x 0 and the longitude is y 0 .

Figure 2008288804
として表すことができる。
属性ベクトルとして、文書(あるいは文書内のテキスト)を用いる場合には、画像に関連する文書の特徴を使用することとなる。
ここで、画像に関連する文書とは、例えば、以下のようなものが挙げられる。
撮影日時や撮影場所、イベントに関連した記述が含まれる、ニュースサイトや観光地のガイド、撮影日時および前後に送受信した電子メール、更新されたブログの内容などである。
Figure 2008288804
Can be expressed as
When a document (or text in the document) is used as the attribute vector, the document features related to the image are used.
Here, examples of the document related to the image include the following.
These include news sites and sightseeing spot guides, shooting date and time, e-mails sent and received before and after, and updated blog contents.

より具体的には、文書集合の中で、文書i、語j、文書iに出現する語jの出現頻度をfreq(i,j)とし、文書中の出現頻度に関わるtf(i,j)を以下のように定義する。
tf(i,j)=log(freq(i,j)+1)
/log(文書iに出現する語の種類数)
語jの出現する文書数をdf(j)で表し、さらに文書集合の数Nを考慮した逆数を、
idf(j)=log(N/df(j))
として定義すれば、文書iにおける語jのTF/IDF値w(i,j)は、
w(i,j)=tf(i,j)×idf(j)
となる。文書iの属性ベクトルは、w(i,j)を用いて、
More specifically, in the document set, the appearance frequency of the document i, the word j, and the word j appearing in the document i is set to freq (i, j), and tf (i, j) related to the appearance frequency in the document. Is defined as follows.
tf (i, j) = log (freq (i, j) +1)
/ Log (number of types of words appearing in document i)
The number of documents in which the word j appears is represented by df (j), and the reciprocal number considering the number N of document sets is
idf (j) = log (N / df (j))
TF / IDF value w (i, j) of word j in document i is
w (i, j) = tf (i, j) × idf (j)
It becomes. The attribute vector of document i is w (i, j)

Figure 2008288804
そして、文書集合のうち、対応する画像に最も関係が深いと思われる、文書の属性ベクトルを用いればよい。
属性ベクトルとして、TV番組や画像データベース等のように、あらかじめ画像に付与された検索用のメタデータがある場合には、付与されたメタデータとして用いられている語を、上述した文書に含まれている語と同様に扱えばよい。
以上の説明は、属性ベクトルを単独に用いる場合のものであったが、上述した手法により生成した複数の属性ベクトルを合成し、さらに高次元のベクトルを生成して画像再生方法と細かく対応させるようにしても良い。
例えば、生成した複数の属性ベクトルa1、a2を次式のように合成し、新しい属性ベクトルa3を生成しても良い。
Figure 2008288804
Then, a document attribute vector that is considered to be most closely related to the corresponding image in the document set may be used.
When there is search metadata previously assigned to an image, such as a TV program or an image database, as an attribute vector, the word used as the assigned metadata is included in the above-described document. It can be treated in the same way as
The above description is for the case where attribute vectors are used alone, but a plurality of attribute vectors generated by the above-described method are combined, and a higher-dimensional vector is generated so as to correspond closely to the image reproduction method. Anyway.
For example, a plurality of generated attribute vectors a 1 and a 2 may be synthesized as in the following equation to generate a new attribute vector a 3 .

Figure 2008288804
ここで、C1〜Cm、Cnはベクトルの成分の重み付け係数である。
Figure 2008288804
Here, C 1 to C m and C n are weighting coefficients of vector components.

次に、画像の背景あるいは画像フレームに使用する色を、属性ベクトルとしての文書(あるいは文書内のテキスト)を用いて割り当てる場合の具体的手法について説明する。
図3は、画像再生方法として、画像の背景あるいは画像フレームに使用する色を2次元に割り当てる場合の一例の説明図である。
図3は、画像再生方法記憶部36のカラーパレット変更部41が画像の背景、画像フレームに使用する色を、属性ベクトルとしての文書(あるいは文書内のテキスト)を用い、文書をさらに喜怒哀楽に対応させて選択する場合のものである。
具体的には、文書に含まれる語が「娘、結婚式、喜び、寂しい」である場合には、背景色あるいは画像フレームに使用する色としては、「喜び」に加えて寂しさからくる「哀しみ」を考慮した紫色から青紫色に至る範囲の色が選択されることとなる。
また、文書に含まれる語が「家族旅行、温泉、楽しい」である場合には、背景色あるいは画像フレームに使用する色としては、「楽しみ」を考慮した黄色から黄赤色に至る範囲の色が選択されることとなる。
Next, a specific method for assigning the color used for the background of the image or the image frame using the document (or text in the document) as the attribute vector will be described.
FIG. 3 is an explanatory diagram of an example in which colors used for the background of an image or an image frame are allocated two-dimensionally as an image reproduction method.
FIG. 3 shows the color used by the color palette changing unit 41 of the image reproduction method storage unit 36 for the image background and image frame as a document (or text in the document) as an attribute vector. This is the case where selection is made in correspondence with.
Specifically, if the word contained in the document is “daughter, wedding, joy, loneliness”, the color used for the background color or image frame comes from loneliness in addition to “joy”. A color ranging from purple to blue-purple in consideration of “sadness” will be selected.
In addition, when the word included in the document is “family trip, hot spring, fun”, the color used for the background color or image frame ranges from yellow to yellow-red considering “fun”. Will be selected.

次に、画像に対し、画像再生方法としての画像効果を、属性ベクトルとしての撮影日時を用いて割り当てる場合の具体的手法について説明する。
図4は、画像切替の画像効果であるスライドインおよびストリップイン(クロスフェード)を3次元空間に割り当てた場合の説明図である。
この図4は、画像再生方法記憶部36の画像効果付与部42が属性ベクトルとしての撮影日時を用いて画像切替の画像効果であるスライドインおよびストリップイン(クロスフェード)を割り当てる場合のものである。
例えば、X−Y平面において、第1象限には、右からのスライドインあるいは右からのストリップインが割り当てられ、第2象限には、上からのスライドインあるいは上からのストリップインが割り当てられ、第3象限には、左からのスライドインあるいは左からのストリップインが割り当てられ、第4象限には、下からのスライドインあるいは下からのストリップインが割り当てられている。
そして、Z軸には、画像効果の強度(強−弱)、あるいは、速度(早−遅)が割り当てられている。
したがって、撮影日時が「11月15日の午後6時」である場合には、画像効果は、左からのスライドインが、強度弱(最弱)となるように付与される。
Next, a specific method for assigning an image effect as an image reproduction method to an image using a shooting date and time as an attribute vector will be described.
FIG. 4 is an explanatory diagram in the case of assigning slide-in and strip-in (crossfade), which are image effects of image switching, to a three-dimensional space.
FIG. 4 shows a case where the image effect imparting unit 42 of the image reproduction method storage unit 36 assigns slide-in and strip-in (cross fade), which are image effects of image switching, using the shooting date and time as an attribute vector. .
For example, in the XY plane, a slide-in from the right or a strip-in from the right is assigned to the first quadrant, and a slide-in from the top or a strip-in from the top is assigned to the second quadrant. A slide-in from the left or a strip-in from the left is assigned to the third quadrant, and a slide-in from the bottom or a strip-in from the bottom is assigned to the fourth quadrant.
The Z-axis is assigned image effect intensity (strong-weak) or speed (fast-slow).
Therefore, when the shooting date is “November 15 6:00 pm”, the image effect is given so that the slide-in from the left is weak (weakest).

続いて、画像に対し、BGMを、属性ベクトルとしての撮影日時を用いて割り当てる場合の具体的手法について説明する。
図5は、BGMを2次元空間に割り当てた場合の説明図である。
BGMを撮影日時を用いて割り当てる場合には、図5に示すように、人間の印象に基づき、ベクトル空間上にBGMを配置することができる。
具体的には、3月〜5月は春を連想させるクラシック曲、6月〜8月は夏を連想させるクラシック曲、9月〜11月は秋を連想させるクラシック曲、12月〜2月は冬を連想させるクラシック曲を割り当てるようにすればよい。
この場合に、紙面垂直方向に、さらに属性ベクトルとしての撮影時刻を割り当て、紙面手前側に昼間を連想させる曲を配置し、紙面奥側に夜間を連想させる曲を配置し、例えば、撮影日時が「4月5日午前5時」である場合には、春の夜明けを連想させるクラシック曲を割り当て、撮影日時が「10月15日の午後11時」である場合には、秋の夜長を連想させるクラシック曲を割り当てるようにすればよい。
この場合において、原則的には、画像の属性ベクトルに最も近い楽曲を選択することとなるが、楽曲の選択が単調になるような場合には、変化が生まれるように、画像の属性ベクトルと同一象限の他の楽曲を選択するようにしても良い。なお、楽曲をベクトル空間に割り当てた情報は外部記憶装置16(楽曲ベクトル空間記憶部に相当)に記憶される。
Next, a specific method for assigning BGM to an image using a shooting date and time as an attribute vector will be described.
FIG. 5 is an explanatory diagram when BGM is assigned to a two-dimensional space.
When the BGM is assigned using the shooting date and time, as shown in FIG. 5, the BGM can be arranged on the vector space based on the human impression.
Specifically, March-May is a classic song reminiscent of spring, June-August is a classic song reminiscent of summer, September-November is a classic song reminiscent of autumn, December-February is Assign a classic song reminiscent of winter.
In this case, a shooting time as an attribute vector is further assigned in the vertical direction on the page, a song reminiscent of daytime is arranged on the front side of the page, and a song reminiscent of night is arranged on the back side of the page. If it is “April 5, 5:00 am”, assign a classic song reminiscent of the spring dawn, and if the shooting date is “October 15 1:00 pm”, remind it of the autumn night length Assign a classic song.
In this case, in principle, the music piece closest to the attribute vector of the image is selected. However, when the music selection becomes monotonous, it is the same as the attribute vector of the image so that a change occurs. You may make it select the other music of a quadrant. In addition, the information which allocated the music to the vector space is memorize | stored in the external storage device 16 (equivalent to a music vector space memory | storage part).

また、例えば、特開2003−58147号に開示されている技術によってBGMを楽曲特徴量によって自動分類しても良い。具体的には、BGMのテンポ、調、周波数特性により3次元の空間に分類することができ、同様に撮影日時(撮影時刻を含む)に応じていずれかのBGMを割り当てればよい。
以上の説明は、属性ベクトルの次元数が割り当てるべき色、画像効果、あるいは、BGMの次元数以下である場合を前提として説明したが、文書の属性ベクトル、あるいは、高次元化したベクトルは、割り当てるべき色、画像効果、BGM等の画像再生方法の次元数よりも高い次元数になる場合には、そのままでは、対応させることができない。
そこで、このような場合には、次元削減部35が、属性ベクトルの集合を主成分分析を行い、必要な次元数に合わせて次元数を削減、あるいは、主に考慮すべき属性ベクトルに対応する軸を主軸として選択するようにしている。
Further, for example, BGM may be automatically classified based on the music feature amount by a technique disclosed in Japanese Patent Laid-Open No. 2003-58147. Specifically, it can be classified into a three-dimensional space according to the tempo, key, and frequency characteristics of BGM, and any BGM may be assigned in accordance with the shooting date and time (including the shooting time).
The above description has been made on the assumption that the dimension number of the attribute vector is equal to or less than the color, image effect, or BGM dimension to be allocated. However, the attribute vector of the document or the higher-dimensional vector is allocated. If the number of dimensions is higher than the number of dimensions of the image reproduction method such as power color, image effect, BGM, etc., it cannot be handled as it is.
Therefore, in such a case, the dimension reduction unit 35 performs principal component analysis on a set of attribute vectors, reduces the number of dimensions according to the required number of dimensions, or mainly corresponds to attribute vectors to be considered. The axis is selected as the main axis.

図6は、実施形態の概要処理フローチャートである。
画像再生装置10は、映像・画像入力部31として機能する画像入力装置12を介して入力された画像に対し、画像再生装置本体11のMPU21は、入力された画像に付加されているメタデータ(本実施形態の場合、撮影日時、撮影場所)、入力された画像に関連する文書(あるいは文書内のテキスト)に基づいて属性ベクトルを生成する(ステップS11)。
この場合において、画像再生装置本体11のMPU21は、複数のデータに基づいて属性ベクトルを生成することも可能である。
次に、画像再生装置10のMPU21は、次元削減部35として機能し、属性ベクトルの次元数が、画像再生方法に対応する属性ベクトルの次元数を超えている場合には、次元数が収まるように削減する(ステップS12)。
これにより、画像再生装置10のMPU21は、共働して画像再生方法記憶部36として機能している外部記憶装置16を参照し、ステップS11において生成した画像の属性ベクトルの値に基づいて、画像再生方法を選択する(ステップS13)。
FIG. 6 is a flowchart of an outline process according to the embodiment.
For the image input through the image input device 12 that functions as the video / image input unit 31, the MPU 21 of the image playback device main body 11 uses the metadata ( In the case of the present embodiment, an attribute vector is generated based on the shooting date / time and shooting location) and the document (or text in the document) related to the input image (step S11).
In this case, the MPU 21 of the image reproduction device main body 11 can also generate an attribute vector based on a plurality of data.
Next, the MPU 21 of the image reproduction device 10 functions as the dimension reduction unit 35. When the number of dimensions of the attribute vector exceeds the number of dimensions of the attribute vector corresponding to the image reproduction method, the number of dimensions is reduced. (Step S12).
As a result, the MPU 21 of the image reproduction device 10 refers to the external storage device 16 that cooperates and functions as the image reproduction method storage unit 36, and determines the image based on the value of the attribute vector of the image generated in step S11. A reproduction method is selected (step S13).

具体的には、MPU21および外部記憶装置16は、共働してカラーパレット変更部41、画像効果付与部42およびBGM付与部43として機能し、上述したように画像再生方法を選択することととなる。
この結果、MPU21は、選択した画像再生方法に従って、画像を再生し、表示装置14に表示することとなる(ステップS14)。
以上の説明のように、本実施形態によれば、画像に関連した属性ベクトルを用いることにより、画像内容に対応した画像再生方法を自動的に選択することができ、元の画像に対して自然な流れで画像効果やBGMを付与して再生を行うことができ、視聴者は違和感なく再生された画像を視聴することができる。
Specifically, the MPU 21 and the external storage device 16 work together as a color palette changing unit 41, an image effect applying unit 42, and a BGM adding unit 43 to select an image reproduction method as described above. Become.
As a result, the MPU 21 reproduces an image according to the selected image reproduction method and displays it on the display device 14 (step S14).
As described above, according to the present embodiment, by using an attribute vector associated with an image, an image reproduction method corresponding to the image content can be automatically selected, and the original image can be naturally selected. It is possible to perform reproduction with an image effect and BGM in a smooth flow, and the viewer can view the reproduced image without a sense of incongruity.

以上の説明においては、画像に付与される属性ベクトルのうち、いずれのベクトルを画像再生方法の選択に使用するかは、予め設定されている場合について説明したが、ユーザが目的に応じて選択するように構成することも可能である。
例えば、以上の説明においては、カラーパレットを喜怒哀楽に分類した語に基づいて参照するように構成していたが、季節と昼夜を属性ベクトルとして用いるようにユーザが設定することも可能である。
この場合において、図3に示した円の外周に近づくほど彩度が高く、内側ほど彩度を低くするようにし、撮影日時の基点、即ちθ=0が緑になるようにしておく。そして、撮影時刻をtとしたとき、(cosθ、sinθ)を円周方向の座標、(sin(φ)+1)/2を半径方向の座標に対応させればよい。これにより、季節の変化と一日の変化に対応した色を定めることができ、季節との対応がわかりやすい画像再生(例えば、スライドショー)を行うことができる。
以上の説明においては、画像の特徴に対応づけて属性ベクトルを画像に付与する構成を採っていたが、画像の特徴に対応づけて属性ベクトルに代えて属性ベクトルの終点の座標(空間座標)を画像に付与する構成とすることも可能である。
以上の説明においては、特徴量としての撮影場所については、メタデータとして予め画像に付与されている場合について説明したが、撮影後に地図データベースから抽出された撮影場所および撮影場所近辺に関する情報を用いるように構成することも可能である。
In the above description, among the attribute vectors assigned to the image, which vector is used for selection of the image reproduction method has been described in advance, but the user selects according to the purpose. It is also possible to configure as described above.
For example, in the above description, the color palette is configured to be referred to based on words classified into emotions, but the user can also set the season and day and night as attribute vectors. .
In this case, the saturation is higher as it approaches the outer periphery of the circle shown in FIG. 3, and the saturation is lower as it is closer to the inner side, so that the base point of the shooting date, that is, θ = 0 is green. Then, when the shooting time is t, (cos θ, sin θ) may correspond to the circumferential coordinate, and (sin (φ) +1) / 2 may correspond to the radial coordinate. As a result, it is possible to determine colors corresponding to changes in the season and changes in the day, and to perform image reproduction (for example, a slide show) in which the correspondence with the season is easy to understand.
In the above description, the attribute vector is assigned to the image in association with the feature of the image. However, the coordinates (spatial coordinates) of the end point of the attribute vector are used instead of the attribute vector in association with the feature of the image. It is also possible to adopt a configuration for adding to an image.
In the above description, the shooting location as the feature amount has been described as being given to the image in advance as metadata. However, information about the shooting location and the vicinity of the shooting location extracted from the map database after shooting is used. It is also possible to configure.

以上の説明においては、画像再生装置10は、具体的には、パーソナルコンピュータ、PDA、携帯型電話機等に適用可能であるが、ディジタルスチルカメラ、ディジタルビデオカメラ、スキャナ、プロジェクタ、テレビ、プリンタおよびその他の画像再生処理を行う電子機器に実装または接続することが可能である。
以上の説明においては、上記各機能を実現するための制御プログラムが、予めROM22に格納されている場合について説明したが、制御プログラムを、コンピュータ(CPU)読取可能な記録媒体に記録するようにしてもよい。このような構成であれば、コンピュータによってプログラムが記憶媒体から読み取られ、読み取られたプログラムに従ってコンピュータが処理を実行すると、上記各実施形態と同等の作用および効果が得られる。
ここで、記憶媒体とは、RAM、ROM等の半導体記憶媒体、FD、HD等の磁気記憶型記憶媒体、CD、CDV、LD、DVD等の光学的読取方式記憶媒体、MO等の磁気記憶型/光学的読取方式記憶媒体であって、電子的、磁気的、光学的等の読み取り方法のいかんにかかわらず、コンピュータで読み取り可能な記憶媒体であれば、どのような記憶媒体であってもよい。
また、インターネット、LANなどの通信ネットワークおよび通信インタフェース部24を介して制御用プログラムをダウンロードし、インストールして実行するように構成することも可能である。
In the above description, the image reproducing apparatus 10 is specifically applicable to a personal computer, a PDA, a mobile phone, etc., but a digital still camera, a digital video camera, a scanner, a projector, a television, a printer, and others. It is possible to mount or connect to an electronic device that performs the image reproduction process.
In the above description, the case where the control program for realizing the above functions is stored in the ROM 22 in advance has been described. However, the control program is recorded on a computer (CPU) readable recording medium. Also good. With such a configuration, when the program is read from the storage medium by the computer and the computer executes processing according to the read program, the same operations and effects as those in the above embodiments can be obtained.
Here, the storage medium is a semiconductor storage medium such as RAM or ROM, a magnetic storage type storage medium such as FD or HD, an optical reading type storage medium such as CD, CDV, LD, or DVD, or a magnetic storage type such as MO. / Optical reading type storage medium, and any storage medium can be used as long as it can be read by a computer regardless of electronic, magnetic, optical, etc. .
It is also possible to configure such that a control program is downloaded, installed and executed via a communication network such as the Internet or a LAN and the communication interface unit 24.

実施形態の画像再生装置の概要構成ブロック図である。1 is a schematic configuration block diagram of an image reproduction apparatus according to an embodiment. 画像再生装置の機能ブロック図である。It is a functional block diagram of an image reproducing device. 画像再生方法として、画像の背景あるいは画像フレームに使用する色を2次元に割り当てる場合の一例の説明図である。It is explanatory drawing of an example in the case of assigning the color used for the background or image frame of an image as an image reproduction method in two dimensions. 画像切替の画像効果であるスライドインおよびストリップイン(クロスフェード)を3次元空間に割り当てた場合の説明図である。It is explanatory drawing at the time of allocating the slide-in and strip-in (cross fade) which are the image effects of image switching to three-dimensional space. BGMを2次元空間に割り当てた場合の説明図である。It is explanatory drawing at the time of allocating BGM to two-dimensional space. 実施形態の概要処理フローチャートである。It is an outline processing flowchart of an embodiment.

符号の説明Explanation of symbols

10…画像再生装置、11…画像再生装置本体、11…午後、12…画像入力装置、13…入力装置、14…表示装置、15…出力装置、16…外部記憶装置、21…MPU、22…ROM、23…RAM、24…通信インタフェース部、31…映像・画像入力部、32…テキスト抽出部、33…形態素解析部、34…重要度算出部、35…次元削減部、36…画像再生方法記憶部、41…カラーパレット変更部、42…画像効果付与部、43…BGM付与部。   DESCRIPTION OF SYMBOLS 10 ... Image reproduction apparatus, 11 ... Image reproduction apparatus main body, 11 ... Afternoon, 12 ... Image input apparatus, 13 ... Input apparatus, 14 ... Display apparatus, 15 ... Output apparatus, 16 ... External storage device, 21 ... MPU, 22 ... ROM, 23 ... RAM, 24 ... communication interface unit, 31 ... video / image input unit, 32 ... text extraction unit, 33 ... morpheme analysis unit, 34 ... importance calculation unit, 35 ... dimension reduction unit, 36 ... image reproduction method Storage unit 41... Color palette changing unit 42. Image effect applying unit 43.

Claims (9)

動画像、静止画像あるいはそれらの組み合わせを含む複数の再生対象画像を再生する画像再生装置であって、
前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出する特徴量抽出部と、
n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記特徴量抽出部により抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行う再生制御部と、
を備えたことを特徴とする画像再生装置。
An image reproduction apparatus for reproducing a plurality of reproduction target images including a moving image, a still image, or a combination thereof,
A feature amount extraction unit that extracts the feature amount of each image included in the reproduction target image;
Assuming an n-dimensional image feature amount space represented by n types (n is an integer of 2 or more), the feature amount of each image extracted by the feature amount extraction unit is the n-dimensional image feature. A reproduction control unit configured to perform reproduction control of the plurality of reproduction target images based on the attribute vector or the spatial coordinate in the quantity space, and based on the attribute vector or the spatial coordinate;
An image reproducing apparatus comprising:
請求項1記載の画像再生装置において、
複数の楽曲データを、前記楽曲データの特徴に基づいて、少なくとも季節および時刻を空間軸とするベクトル空間に割り当てた楽曲ベクトル空間情報を記憶する楽曲ベクトル空間記憶部を備え、
前記特徴量として、前記画像を撮影した撮影日時に関する情報を含み、
前記再生制御部は、前記楽曲ベクトル空間情報を参照して、前記撮影日時が属する季節および時刻に基づいて、前記楽曲データを選択し、前記選択された前記楽曲データを前記画像のBGMとして付与することを特徴とする画像再生装置。
The image reproducing apparatus according to claim 1,
A music vector space storage unit for storing music vector space information assigned to a vector space having at least a season and a time as a space axis based on the characteristics of the music data, and a plurality of music data,
As the feature amount, including information on the shooting date and time when the image was shot,
The playback control unit refers to the music vector space information, selects the music data based on the season and time to which the shooting date belongs, and assigns the selected music data as BGM of the image. An image reproducing apparatus characterized by that.
請求項1または請求項2記載の画像再生装置において、
前記特徴量として、前記画像に関連する文書に含まれる重要語のTF/IDF値を用いることを特徴とする画像再生装置。
The image reproduction apparatus according to claim 1 or 2,
An image reproduction apparatus characterized in that a TF / IDF value of an important word contained in a document related to the image is used as the feature amount.
請求項1ないし請求項3のいずれかに記載の画像再生装置において、
前記特徴量として、前記画像に予め付与されたメタデータを用いることを特徴とする画像再生装置。
The image reproduction apparatus according to any one of claims 1 to 3,
An image reproducing apparatus using metadata previously given to the image as the feature amount.
請求項4記載の画像再生装置において、
前記メタデータは、撮影日時または撮影場所の少なくともいずれかを含むことを特徴とする画像再生装置。
The image reproduction apparatus according to claim 4, wherein
The image reproduction apparatus, wherein the metadata includes at least one of a shooting date and a shooting location.
請求項1ないし請求項5のいずれかに記載の画像再生装置において、
前記特徴量として、地図データベースから抽出された撮影場所および撮影場所近辺に関する情報を用いることを特徴とする画像再生装置。
The image reproduction apparatus according to any one of claims 1 to 5,
An image reproduction apparatus characterized in that information relating to a shooting location extracted from a map database and the vicinity of the shooting location is used as the feature amount.
請求項2記載の画像再生装置において、
前記画像に対応する前記属性ベクトルあるいは前記空間座標の次元が、n次元を超える場合に前記属性ベクトルあるいは前記空間座標の次元を削減する次元削減部を備えたことを特徴とする画像再生装置。
The image reproducing apparatus according to claim 2, wherein
An image reproducing apparatus comprising: a dimension reduction unit that reduces the dimension of the attribute vector or the spatial coordinate when the dimension of the attribute vector or the spatial coordinate corresponding to the image exceeds n dimensions.
動画像、静止画像あるいはそれらの組み合わせを含む複数の再生対象画像を再生する画像再生装置の制御方法であって、
前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出する特徴量抽出過程と、
n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記特徴量抽出部により抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行う再生制御過程と、
を備えたことを特徴とする画像再生装置の制御方法。
A control method for an image playback apparatus for playing back a plurality of playback target images including moving images, still images, or a combination thereof,
A feature amount extraction process for extracting each feature amount of each image included in the reproduction target image;
Assuming an n-dimensional image feature amount space represented by n types (n is an integer of 2 or more), the feature amount of each image extracted by the feature amount extraction unit is the n-dimensional image feature. A reproduction control process for performing reproduction control of the plurality of reproduction target images based on the attribute vector or the spatial coordinates in the quantity space, and based on the attribute vector or the spatial coordinates;
An image reproducing apparatus control method comprising:
動画像、静止画像あるいはそれらの組み合わせを含む複数の再生対象画像を再生する画像再生装置をコンピュータにより制御するための制御プログラムであって、
前記再生対象画像に含まれる各画像の特徴量をそれぞれ抽出させ、
n種類(nは、2以上の整数)の前記特徴量で表されるn次元画像特徴量空間を仮定し、前記抽出された各前記画像の特徴量を前記n次元画像特徴量空間における属性ベクトルあるいは空間座標とし、当該属性ベクトルあるいは当該空間座標に基づいて、前記複数の再生対象画像の再生制御を行わせる、
ことを特徴とする制御プログラム。
A control program for controlling, by a computer, an image playback device that plays back a plurality of playback target images including moving images, still images, or combinations thereof,
Extracting each feature amount of each image included in the reproduction target image;
Assuming an n-dimensional image feature amount space represented by n types (n is an integer of 2 or more), the extracted feature values of the images are attribute vectors in the n-dimensional image feature amount space. Alternatively, spatial coordinates are used, and reproduction control of the plurality of reproduction target images is performed based on the attribute vector or the spatial coordinates.
A control program characterized by that.
JP2007130847A 2007-05-16 2007-05-16 Image reproducing device, and control method and control program of image reproducing device Pending JP2008288804A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007130847A JP2008288804A (en) 2007-05-16 2007-05-16 Image reproducing device, and control method and control program of image reproducing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007130847A JP2008288804A (en) 2007-05-16 2007-05-16 Image reproducing device, and control method and control program of image reproducing device

Publications (1)

Publication Number Publication Date
JP2008288804A true JP2008288804A (en) 2008-11-27

Family

ID=40148135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007130847A Pending JP2008288804A (en) 2007-05-16 2007-05-16 Image reproducing device, and control method and control program of image reproducing device

Country Status (1)

Country Link
JP (1) JP2008288804A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011199671A (en) * 2010-03-19 2011-10-06 Sony Corp Image processing apparatus, method and program
JP2014134860A (en) * 2013-01-08 2014-07-24 Canon Inc Image retrieval device, image retrieval method, retrieval original image providing device, retrieval original image providing method and program
JP2014158295A (en) * 2014-04-28 2014-08-28 Nec Corp Digital camera, image recording method, and image recording program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011199671A (en) * 2010-03-19 2011-10-06 Sony Corp Image processing apparatus, method and program
JP2014134860A (en) * 2013-01-08 2014-07-24 Canon Inc Image retrieval device, image retrieval method, retrieval original image providing device, retrieval original image providing method and program
JP2014158295A (en) * 2014-04-28 2014-08-28 Nec Corp Digital camera, image recording method, and image recording program

Similar Documents

Publication Publication Date Title
US9372926B2 (en) Intelligent video summaries in information access
JP5121367B2 (en) Apparatus, method and system for outputting video
CN101300567B (en) Method for media sharing and authoring on the web
US9213705B1 (en) Presenting content related to primary audio content
US20090259623A1 (en) Systems and Methods for Associating Metadata with Media
WO2008079249A2 (en) Storyshare automation
KR20090004990A (en) Internet search-based television
JP2010507316A (en) Encoding method and apparatus, and decoding method and apparatus
JP2007049387A (en) Image output device and image output method
WO2007029917A1 (en) Method and apparatus for encoding multimedia contents and method and system for applying encoded multimedia contents
WO2014103123A1 (en) Device, method, and program for digest generation
TW200849030A (en) System and method of automated video editing
JP6603925B1 (en) Movie editing server and program
KR101927965B1 (en) System and method for producing video including advertisement pictures
US20060010366A1 (en) Multimedia content generator
JP2005033619A (en) Contents management device and contents management method
JP2020065307A (en) Server, program, and moving image distribution system
KR102252522B1 (en) Method and system for automatic creating contents list of video based on information
JP2008288804A (en) Image reproducing device, and control method and control program of image reproducing device
JP6730760B2 (en) Server and program, video distribution system
JP2008160512A (en) Reproducing device, electronic equipment, reproducing method, and program
KR100860510B1 (en) Method for creating slide show having visual effect in mobile device
US7353451B2 (en) Meta data creation apparatus and meta data creation method
WO2009044351A1 (en) Generation of image data summarizing a sequence of video frames
Shim et al. CAMEO-camera, audio and motion with emotion orchestration for immersive cinematography