JP2013183259A - Image reproduction device - Google Patents

Image reproduction device Download PDF

Info

Publication number
JP2013183259A
JP2013183259A JP2012045274A JP2012045274A JP2013183259A JP 2013183259 A JP2013183259 A JP 2013183259A JP 2012045274 A JP2012045274 A JP 2012045274A JP 2012045274 A JP2012045274 A JP 2012045274A JP 2013183259 A JP2013183259 A JP 2013183259A
Authority
JP
Japan
Prior art keywords
image
facial expression
classification
music data
color tone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012045274A
Other languages
Japanese (ja)
Inventor
Ami Yokoyama
あみ 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012045274A priority Critical patent/JP2013183259A/en
Publication of JP2013183259A publication Critical patent/JP2013183259A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To run background music linked with a picture being reproduced in a slide show as against a conventional slide show in which background music not linked with a picture being reproduced, that is selected from predetermined background music, is run.SOLUTION: An image reproduction apparatus comprises: a display unit which displays an image; an analysis unit which analyzes a color tone and facial expression in the image and sorts them into predetermined types; and a control unit which holds plural pieces of music data and reproduces a predetermined piece of the music data corresponding to the types of the color tone and the expression in the image when displaying the image on the display unit.

Description

本発明は、画像再生装置に関する。   The present invention relates to an image reproduction device.

従来、ユーザーが選択した感情に基づいてスライドショー表示する写真や表示効果を切り替えるスライドショー再生システムが知られている(例えば、特許文献1参照)。一方、色調と感情とを関連付ける検討が行われている(例えば、非特許文献1参照)。また、BGMの音の雰囲気に基づいてスライドショー表示する写真や効果を演出するスライドショー再生システムも考えられている。   2. Description of the Related Art Conventionally, a slide show reproduction system that switches photos and display effects for slide show display based on emotions selected by a user is known (see, for example, Patent Document 1). On the other hand, a study of associating a color tone with an emotion has been made (for example, see Non-Patent Document 1). In addition, a slide show reproduction system that produces photos and effects that are displayed as a slide show based on the atmosphere of BGM sound is also considered.

特開2011−160032JP2011-160032A

URL:http://www.sipec-square.net/~mt-home/students/miyazono/project/kanjyo/page06.htmlURL: http: //www.sipec-square.net/~mt-home/students/miyazono/project/kanjyo/page06.html

ところが、一般に写真撮影された顔の表情は笑顔が多いので、背景音楽(BGM)に対応する喜怒哀楽などの感情にマッチする表情の写真を抽出してスライドショー表示することは難しく、選択された感情に対応する顔の表情の写真が無い場合がある。また、スライドショー再生時に、再生したい写真が決まっていて、それらの写真の感情に合致するBGMを流したい場合、従来のスライドショーでは予め決められたBGMの中から選択されるので、再生する写真とは関連が無いBGMが流されるという問題がある。   However, since the facial expressions of the photographed faces are generally smiles, it is difficult to extract slides and display facial expressions that match emotions such as emotions corresponding to background music (BGM). There may be no photo of facial expressions corresponding to emotions. In addition, when a slide show is played, if the photos to be played are determined and you want to play a BGM that matches the emotions of those photos, the conventional slide show is selected from the predetermined BGMs. There is a problem that unrelated BGM is flown.

上記課題に鑑み、本発明の目的は、スライドショーで再生する写真に含まれる顔の表情や色調などを解析して、再生する写真の雰囲気に最適なBGMを流すことができる画像再生装置を提供することである。   In view of the above problems, an object of the present invention is to provide an image reproducing apparatus that can analyze the facial expression and color tone included in photos to be reproduced in a slide show and play the optimum BGM for the atmosphere of the photos to be reproduced. That is.

本発明に係る画像再生装置は、画像を表示する表示部と、前記画像の色調と顔の表情とを解析して予め決められた複数の種類に分類する解析部と、複数の音楽データを保持し、前記画像を前記表示部に表示する時に当該画像の前記色調と前記表情の分類に対応する予め決められた前記音楽データを再生する制御部とを有することを特徴とする。   An image reproduction apparatus according to the present invention holds a display unit that displays an image, an analysis unit that analyzes the color tone and facial expression of the image and classifies the image into a plurality of predetermined types, and a plurality of music data And a control unit that reproduces the predetermined music data corresponding to the tone of the image and the classification of the facial expression when the image is displayed on the display unit.

特に、前記表示部に表示する画像が複数ある場合、前記解析部は、前記複数の各画像の色調の分類結果と前記複数の画像のうち顔が含まれる画像の表情の分類結果とをそれぞれ統計的に解析して最大頻度の色調の分類と最大頻度の表情の分類とを求め、前記制御部は、前記最大頻度の色調の分類と前記最大頻度の表情の分類とに対応する予め決められた前記音楽データを再生することを特徴とする。   In particular, when there are a plurality of images to be displayed on the display unit, the analysis unit statistically analyzes a color tone classification result of each of the plurality of images and a facial expression classification result of an image including a face among the plurality of images. Analysis to obtain a maximum frequency tone classification and a maximum frequency facial expression classification, and the control unit determines in advance corresponding to the maximum frequency color tone classification and the maximum frequency facial expression classification. The music data is reproduced.

また、前記表示部に表示する画像が複数ある場合、前記解析部は、前記複数の画像のうち予め設定された代表画像の色調と顔の表情とを解析して予め決められた複数の種類に分類し、前記制御部は、前記複数の画像を前記表示部に表示する時に前記代表画像の前記色調と前記表情の分類に対応する予め決められた前記音楽データを再生することを特徴とする。   In addition, when there are a plurality of images to be displayed on the display unit, the analysis unit analyzes the color tone of the representative image set in advance and the facial expression of the plurality of images into a plurality of predetermined types. The control unit reproduces the predetermined music data corresponding to the color tone and the facial expression classification of the representative image when the plurality of images are displayed on the display unit.

或いは、前記表示部に表示する画像の撮影日時、撮影場所、撮影モードの少なくとも1つの付加情報を取得する付加情報取得部をさらに設け、前記制御部は、前記色調の分類と前記表情の分類と前記付加情報とに対応する予め決められた前記音楽データを再生することを特徴とする。   Alternatively, an additional information acquisition unit that acquires at least one additional information of a shooting date and time, a shooting location, and a shooting mode of the image displayed on the display unit is further provided, and the control unit includes the color classification and the facial expression classification. The predetermined music data corresponding to the additional information is reproduced.

または、前記表示部に画像表示を行う再生日時、再生場所の少なくとも1つの付加情報を取得する付加情報取得部をさらに設け、前記制御部は、前記色調の分類と前記表情の分類と前記付加情報とに対応する予め決められた前記音楽データを再生することを特徴とする。   Alternatively, the display unit further includes an additional information acquisition unit that acquires at least one additional information of a reproduction date and time and a reproduction place for displaying an image, and the control unit includes the color classification, the facial expression classification, and the additional information. The predetermined music data corresponding to the above is reproduced.

さらに、前記解析部は、前記画像の中の予め設定された主要被写体または特定領域の色調を解析することを特徴とする。   Furthermore, the analysis unit analyzes a color tone of a predetermined main subject or a specific area in the image.

特に、前記主要被写体または特定領域は、フォーカスのずれが予め設定された閾値以下の被写体または領域であることを特徴とする。   In particular, the main subject or the specific region is a subject or region whose focus shift is equal to or less than a preset threshold value.

さらに、前記解析部が解析する色調と顔の表情の分類と、前記複数の音楽データとの対応を示すテーブルを有することを特徴とする。   Furthermore, it is characterized by having a table indicating the correspondence between the color and facial expression classification analyzed by the analysis unit and the plurality of music data.

また、前記音楽データのヘッダ情報として当該音楽に対応する前記色調と前記表情の分類を予め付加しておき、前記制御部は、前記解析部の解析結果に対応する前記ヘッダ情報の前記音楽データを検索し、検索結果が複数ある場合は、予め設定された条件に従って再生する前記音楽データを決定することを特徴とする。   Further, the color tone and facial expression classification corresponding to the music are added in advance as header information of the music data, and the control unit converts the music data of the header information corresponding to the analysis result of the analysis unit. If there are a plurality of search results, the music data to be played is determined according to preset conditions.

特に、前記制御部は、前記検索結果が複数ある場合は、表示する画像の撮影日時、撮影場所、再生日時、再生場所の少なくとも1つの条件に従って再生する前記音楽データを決定することを特徴とする。   In particular, when there are a plurality of search results, the control unit determines the music data to be played according to at least one of the shooting date / time, shooting location, playback date / time, and playback location of the image to be displayed. .

本発明に係る画像再生装置は、スライドショーで再生する写真の雰囲気に最適なBGMを流すことができる。   The image reproducing apparatus according to the present invention can play BGM that is optimal for the atmosphere of photos to be reproduced in a slide show.

本実施形態に係る画像再生装置101のブロック図である。1 is a block diagram of an image playback device 101 according to the present embodiment. 顔の表情解析の一例を示す図である。It is a figure which shows an example of the facial expression analysis. 色調の感情的雰囲気の一例を示す図である。It is a figure which shows an example of the emotional atmosphere of a color tone. 音楽分類テーブル162の一例を示す図である。It is a figure which shows an example of the music classification table 162. FIG. スライドショー実行時の処理例を示すフローチャートである。It is a flowchart which shows the process example at the time of slide show execution. 応用例1に係る電子カメラ101aのブロック図である。10 is a block diagram of an electronic camera 101a according to application example 1. FIG. 応用例2に係る画像再生装置101b(電子カメラ101b)のブロック図である。It is a block diagram of the image reproduction apparatus 101b (electronic camera 101b) which concerns on the application example 2. FIG. スライドショー実行時の処理例を示すフローチャートである。It is a flowchart which shows the process example at the time of slide show execution.

以下、図面を参照して本発明に係る画像再生装置について説明する。
(第1の実施形態)
図1に、第1の実施形態に係る画像再生装置101のブロック図を示す。画像再生装置101は、表示部102と、音声出力部103と、操作部104と、制御部105と、画像解析部106と、記憶部107とで基本的に構成される。各ブロックは共通バス108により互いに接続され、画像データや音声データ、或いは動作に必要な制御コマンドやパラメータなどが入出力される。また、画像再生装置101にメモリカード109aなどの外部記憶媒体に記憶された画像データを入力するための画像入力部109を設けてもよい。
Hereinafter, an image reproducing apparatus according to the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 shows a block diagram of an image reproduction apparatus 101 according to the first embodiment. The image reproduction device 101 basically includes a display unit 102, an audio output unit 103, an operation unit 104, a control unit 105, an image analysis unit 106, and a storage unit 107. The blocks are connected to each other via a common bus 108, and input / output of image data, audio data, control commands and parameters necessary for operation, and the like. Further, the image reproduction device 101 may be provided with an image input unit 109 for inputting image data stored in an external storage medium such as a memory card 109a.

本実施形態に係る画像再生装置101は、記憶部107やメモリカード109aに記憶された画像データを読み出して表示部102の画面に表示するスライドショーを行う装置である。特に本実施形態に係る画像再生装置101は、表示部102に表示する画像の感情的雰囲気に合致するBGM(バックグランドミュージック)を記憶部107に記憶された音楽データの中から自動的に選択して音声出力部103のスピーカ103aから再生する機能を有している。以下、図1の各ブロックについて説明する。   The image reproduction apparatus 101 according to the present embodiment is an apparatus that performs a slide show in which image data stored in the storage unit 107 or the memory card 109a is read and displayed on the screen of the display unit 102. In particular, the image playback apparatus 101 according to the present embodiment automatically selects BGM (background music) that matches the emotional atmosphere of the image displayed on the display unit 102 from the music data stored in the storage unit 107. And a function of reproducing from the speaker 103a of the audio output unit 103. Hereinafter, each block of FIG. 1 will be described.

表示部102は、液晶モニタおよび表示回路などで構成され、共通バス108を介して入力する画像データを表示回路で画像信号に変換して液晶モニタに表示する。尚、画像再生装置101に液晶モニタを内蔵せずに表示部102に画像信号の出力端子を設け、外部のテレビやモニタに表示するようにしてもよい。   The display unit 102 includes a liquid crystal monitor and a display circuit, and converts image data input via the common bus 108 into an image signal by the display circuit and displays the image signal on the liquid crystal monitor. Note that an image signal output terminal may be provided in the display unit 102 without displaying a liquid crystal monitor in the image reproducing apparatus 101 so as to display on an external television or monitor.

音声出力部103は、D/A変換回路やアンプなどで構成され、共通バス108を介して入力する音声データをD/A変換回路で音声信号に変換してスピーカ103aに出力する。尚、画像再生装置101にスピーカ103aを内蔵せずに音声出力部103に音声信号の出力端子を設け、外部のテレビやオーディオ機器に出力するようにしてもよい。   The audio output unit 103 is configured by a D / A conversion circuit, an amplifier, and the like, converts audio data input via the common bus 108 into an audio signal by the D / A conversion circuit, and outputs the audio signal to the speaker 103a. Note that the audio output unit 103 may be provided with an audio signal output terminal without providing the speaker 103a in the image reproduction apparatus 101 and output to an external television or audio device.

操作部104は、電源ボタン、メニューボタン、カーソルキー、決定ボタンなどで構成される。ユーザは、表示部102の画面に表示される操作メニューをカーソルキーや決定ボタンを用いて選択し、画像表示装置101を操作する。尚、操作部104を表示部102の画面上に配置されたタッチパネルで構成して、画面にグラフィック表示される操作ボタンを操作するようにしてもよい。   The operation unit 104 includes a power button, a menu button, a cursor key, a determination button, and the like. The user operates the image display apparatus 101 by selecting an operation menu displayed on the screen of the display unit 102 using a cursor key or a determination button. Note that the operation unit 104 may be configured by a touch panel arranged on the screen of the display unit 102, and an operation button displayed graphically on the screen may be operated.

制御部105は、CPUなどで構成され、内部に予め記憶されたプログラムに従って動作し、画像再生装置101全体の動作を制御する。例えば操作部104の電源ボタンが押下されると画像再生装置101を起動し、メニューボタンが押下されると表示部102の画面に操作メニューを表示する。操作メニューは、例えばスライドショーで表示する画像選択ボタン、選択した画像でスライドショーを開始する開始ボタンなどである。例えば、カーソルキーで画像選択ボタンを選択して決定ボタンを押下すると、記憶部107に記憶されている画像データ163のサムネイル画像やファイル名が表示部102に表示される。そして、カーソルキーでスライドショーで表示したい画像を選択して決定ボタンを押下する。尚、操作方法の詳細については周知の技術なので詳しい説明を省略するが、任意の複数の画像を選択できるようにしてもよいし、フォルダ内の画像データ全てを選択してもよい。そして、例えばスライドショー開始ボタンをカーソルキーで選択して決定ボタンを押下すると、選択された画像のスライドショーが開始される。   The control unit 105 is configured by a CPU or the like, and operates according to a program stored in advance therein, and controls the operation of the entire image reproduction apparatus 101. For example, when the power button of the operation unit 104 is pressed, the image playback apparatus 101 is activated, and when the menu button is pressed, an operation menu is displayed on the screen of the display unit 102. The operation menu includes, for example, an image selection button for displaying in a slide show, a start button for starting a slide show with selected images, and the like. For example, when the image selection button is selected with the cursor key and the determination button is pressed, the thumbnail image and the file name of the image data 163 stored in the storage unit 107 are displayed on the display unit 102. Then, use the cursor key to select an image to be displayed in the slide show and press the enter button. Although details of the operation method are well-known techniques, a detailed description thereof is omitted, but an arbitrary plurality of images may be selected, or all image data in a folder may be selected. For example, when a slide show start button is selected with the cursor key and the enter button is pressed, a slide show of the selected image is started.

画像解析部106は、スライドショーで表示する画像の解析を行う。特に本実施形態に係る画像再生装置101では、表情解析部151と、色解析部152とを有する。表情解析部151は、画像内に顔がある場合に顔の表情解析を行って予め設定された種類に分類する。色解析部152は、画像の色調を解析して予め設定された種類に分類する。尚、解析処理については後で詳しく説明する。   The image analysis unit 106 analyzes images displayed in the slide show. In particular, the image reproduction apparatus 101 according to the present embodiment includes a facial expression analysis unit 151 and a color analysis unit 152. When there is a face in the image, the facial expression analysis unit 151 performs facial expression analysis and classifies it into a preset type. The color analysis unit 152 analyzes the color tone of the image and classifies it into a preset type. The analysis process will be described in detail later.

記憶部107は、不揮発性のメモリやハードディスクなどで構成される。記憶部107には、音楽データ161と、音楽分類テーブル162とが基本的に記憶されている。また、記憶部107にスライドショーで表示する画像データ163を記憶するようにしてもよいし、画像入力部109に装着されるメモリカード109a記憶された画像データを用いてもよい。同様に、音楽データ161をメモリカード109aに記憶しておいてもよい。この場合、画像入力部109は一般的なメモリカードインターフェースとして動作する。   The storage unit 107 is configured by a nonvolatile memory, a hard disk, or the like. The storage unit 107 basically stores music data 161 and a music classification table 162. Further, the image data 163 to be displayed in the slide show may be stored in the storage unit 107, or the image data stored in the memory card 109a attached to the image input unit 109 may be used. Similarly, the music data 161 may be stored in the memory card 109a. In this case, the image input unit 109 operates as a general memory card interface.

このように、本実施形態に係る画像再生装置101は構成され、表示部102に表示する画像を解析して、画像の感情的雰囲気に合致するBGMをスピーカ103aから再生することができる。
[画像の感情的雰囲気の解析]
次に、画像の感情的雰囲気の解析について説明する。図2は、表情解析部151が行う顔の表情解析の一例を示した図である。図2の例では、主成分クラスタリングなどの手法を用いて、顔の表情を口と目と眉毛の形状から「喜(F1)」「怒(F2)」「哀(F3)」「楽(F4)」の4つに分類している。例えば「喜」は喜びの表情を表し、例えば口の両端は上がった形状に特徴がある。「怒」は怒りの表情を表し、例えば口の両端は下がり、目や眉毛は吊り上った形状に特徴がある。「哀」は悲しみの表情を表し、例えば目尻や眉毛は下がった形状に特徴がある。「楽」は楽しみの表情を表し、例えば口や目が大きく開いた形状に特徴がある。このように、画像内の顔を検出して口や目や眉毛の特徴を解析することにより、当該人物の感情を推定することができる。尚、上記の特徴解析は一例であり、他の方法や他の特徴を判別して顔の表情を解析するようにしてもよい。
As described above, the image reproducing apparatus 101 according to the present embodiment is configured, and can analyze the image displayed on the display unit 102 and reproduce BGM that matches the emotional atmosphere of the image from the speaker 103a.
[Analysis of emotional atmosphere of images]
Next, analysis of the emotional atmosphere of the image will be described. FIG. 2 is a diagram illustrating an example of facial expression analysis performed by the facial expression analysis unit 151. In the example of FIG. 2, the facial expression is changed from the shape of the mouth, eyes, and eyebrows to “joy (F1)”, “anger (F2)”, “sadness (F3)”, “easy (F4) using a method such as principal component clustering. ) ”. For example, “joy” represents an expression of joy, for example, both ends of the mouth are characterized by a raised shape. “Anger” represents an angry expression, for example, characterized by a shape in which both ends of the mouth are lowered and eyes and eyebrows are lifted. “Sorrow” represents an expression of sadness. For example, the corners of the eyes and eyebrows are characterized by a lowered shape. “Raku” expresses a fun expression, and is characterized by, for example, a shape with a wide mouth and eyes. As described above, by detecting the face in the image and analyzing the characteristics of the mouth, eyes, and eyebrows, it is possible to estimate the emotion of the person. Note that the above feature analysis is an example, and other methods and other features may be discriminated to analyze facial expressions.

次に、図3は、色解析部152が行う画像の色解析の一例を示した図である。図3の例では、色解析部152は、画像全体の色調を解析して画像中に最も多く含まれる色を判別し、9種類の色に分類する。9種類の色は、例えば「赤系(C1)」、「緑系(C2)」、「青系(C3)」、「シアン系(C4)」、「イエロー系(C5)」、「マゼンタ系(C6)」、「白系(C7)」、「灰系(C8)」、「黒系(C9)」に分類する。尚、各色はある程度の色調の範囲を有し、例えば赤系では赤だけでなくオレンジや紅色なども含まれる。   Next, FIG. 3 is a diagram illustrating an example of image color analysis performed by the color analysis unit 152. In the example of FIG. 3, the color analysis unit 152 analyzes the color tone of the entire image, determines the most contained color in the image, and classifies it into nine types of colors. The nine colors are, for example, “red (C1)”, “green (C2)”, “blue (C3)”, “cyan (C4)”, “yellow (C5)”, “magenta” (C6), “white (C7)”, “ash (C8)”, and “black (C9)”. Each color has a range of a certain color tone. For example, in a red system, not only red but also orange and red are included.

「赤系」の画像例としては、太陽、炎などがあり、感情的雰囲気は例えば活動的、情熱、興奮などである。「緑系」の画像例としては、森林や芝生などがあり、感情的雰囲気は例えば平和、安らぎなどである。「青系」の画像例としては、深みのある空や海などがあり、感情的雰囲気は例えば誠実、清潔などである。「シアン系」の画像例としては、明るい空などがあり、感情的雰囲気は例えば開放的、さわやかなどである。「イエロー系」の画像例としては、レモンやひまわりなどがあり、感情的雰囲気は例えば陽気、元気などである。「マゼンタ系」の画像例としては、ふじの花やスミレなどがあり、感情的雰囲気は例えば高貴、神秘的などである。「白系」の画像例としては、雪や雲などがあり、感情的雰囲気は例えば清潔、無邪気などである。「灰系」の画像例としては、煙や雨雲などがあり、感情的雰囲気は例えば憂鬱、不安などである。「黒系」の画像例としては、暗闇や喪服などがあり、感情的雰囲気は例えば恐怖、悲哀などである。このように、画像内の色調を解析することにより、その画像が鑑賞者に与える感情的雰囲気を推定することができる。尚、上記の各色の感情的雰囲気は一例であり、各色に他の感情的雰囲気を設定してもよい。   Examples of “red” images include the sun and flames, and the emotional atmosphere is, for example, active, passion, or excitement. Examples of “green” images include forests and lawns, and the emotional atmosphere is, for example, peace and peace. Examples of “blue” images include a deep sky and the sea, and the emotional atmosphere is, for example, sincerity and cleanliness. Examples of “cyan” images include bright sky, and the emotional atmosphere is, for example, open or refreshing. Examples of “yellow” images include lemons and sunflowers, and the emotional atmosphere is, for example, cheerful or fine. Examples of “magenta” images include Fuji flowers and violets, and the emotional atmosphere is, for example, noble or mysterious. Examples of “white” images include snow and clouds, and the emotional atmosphere is, for example, cleanliness or innocence. Examples of “ash-based” images include smoke and rain clouds, and the emotional atmosphere is, for example, depression or anxiety. Examples of “black” images include darkness and mourning, and the emotional atmosphere is, for example, fear or sadness. Thus, by analyzing the color tone in the image, it is possible to estimate the emotional atmosphere that the image gives to the viewer. Note that the emotional atmosphere of each color is an example, and other emotional atmospheres may be set for each color.

このようにして、本実施形態に係る画像再生装置101は、表示部102に表示する画像の感情的雰囲気を解析することができる。そして、スライドショーで表示する画像の解析した感情的雰囲気に合致する音楽を記憶部107に記憶された音楽データの中から自動的に選択してスピーカ103aから再生することができる。
[音楽分類テーブル162の一例]
次に、音楽分類テーブル162の一例を図4に示す。音楽分類テーブル162は、先に説明した表情解析部151および色解析部152の解析結果の分類でマトリクスを作成し、マトリクスの各要素の感情的雰囲気に合致した音楽データのファイル名を記載したテーブルである。例えば、画像の色調の解析結果が「赤系(C1)」で、顔の表情の解析結果が「喜(F1)」であった場合は、図4のマトリクスのC1とF1の要素に対応するBGM1の音楽データが選択される。同様に、画像の色調の解析結果が「白系(C7)」で、顔の表情の解析結果が「楽(F4)」であった場合は、図4のマトリクスのC7とF4の要素に対応するBGM34の音楽データが選択される。
In this way, the image reproduction device 101 according to the present embodiment can analyze the emotional atmosphere of the image displayed on the display unit 102. Then, music that matches the emotional atmosphere analyzed in the images displayed in the slide show can be automatically selected from the music data stored in the storage unit 107 and reproduced from the speaker 103a.
[Example of music classification table 162]
Next, an example of the music classification table 162 is shown in FIG. The music classification table 162 is a table in which a matrix is created by the classification of the analysis results of the expression analysis unit 151 and the color analysis unit 152 described above, and the file name of music data that matches the emotional atmosphere of each element of the matrix is described. It is. For example, when the analysis result of the color tone of the image is “red (C1)” and the analysis result of the facial expression is “joy (F1)”, it corresponds to the elements C1 and F1 of the matrix of FIG. The music data of BGM1 is selected. Similarly, when the analysis result of the color tone of the image is “white (C7)” and the analysis result of the facial expression is “Easy (F4)”, it corresponds to the elements C7 and F4 of the matrix of FIG. BGM 34 music data is selected.

このようにして、本実施形態に係る画像再生装置101は、スライドショーで表示される画像の感情的雰囲気に合致した音楽を記憶部107に記憶された音楽データの中から選択して再生することができる。
[スライドショー実行時の処理]
次に、スライドショー実行時の処理について、図5のフローチャートを用いて説明する。尚、図5のフローチャートは、制御部105および画像解析部106によって実行される処理である。
(ステップS101)ユーザは、操作部104のメニューボタン、カーソルキー、決定ボタンなどを操作して、先に説明したように、記憶部107に記憶されている画像データ163の中から複数の画像を選択し、画面上のスライドショー開始ボタンをカーソルキーで選択して決定ボタンを押下する。これを受けて、制御部105は、選択された画像のスライドショーを開始する。ここで、複数の画像にうちユーザのお気に入りの代表画像を選択できるようにしてもよい。尚、代表画像は、1枚でもよいし複数枚でもよい。
(ステップS102)制御部105は、選択された画像の画像データを記憶部105から読み出し、画像解析部106に出力する。
(ステップS103)画像解析部106は、画像毎に顔検出を行う。尚、顔検出の方法は、周知の技術なので詳細な説明は省略するが、顔の輪郭や目、鼻、口などの配置などの特徴を抽出したパターンマッチングなどの手法が用いられる。
(ステップS104)制御部105は、画像内に顔が検出されたか否かを判別する。画像内に顔が検出された場合はステップS105に進み、顔が検出されなかった場合はステップS106に進む。
(ステップS105)画像解析部106の表情解析部151は、顔が検出された画像の表情解析を行う。本実施形態に係る画像再生装置101では、図2で説明したように、顔の表情を口と目と眉毛の形状から「喜」、「怒」、「哀」、「楽」の4つの表情に分類する。ここで、顔が検出された画像が複数枚ある場合は、例えば解析結果の分類を統計処理して最も多い表情の分類を代表表情とする。例えば5枚の画像に顔が含まれていて、「喜」が4枚で「怒」が1枚の場合は、代表表情は「喜」となる。或いは、ステップS101で代表画像を選択するようにして、代表画像に含まれる顔の表情を分析した結果のみを用いるようにしてもよい。尚、代表画像が複数枚ある場合は、上記と同様に統計処理を行う。
(ステップS106)画像解析部106の色解析部152は、各画像の色調解析を行う。本実施形態に係る画像再生装置101では、図3で説明したように、「赤系」、「緑系」、「青系」、「シアン系」、「イエロー系」、「マゼンタ系」、「白系」、「灰系」、「黒系」の9つの色系統に分類する。ここで、画像が複数枚ある場合は、ステップS105で説明したように、例えば解析結果の分類を統計処理して最も多い色調の分類を代表色調とする。例えば5枚の画像が選択されている場合、「赤系」が1枚で「緑系」が4枚の場合は、代表表情は「緑系」となる。或いは、ステップS101で代表画像を選択するようにして、代表画像に含まれる顔の表情を分析した結果のみを用いるようにしてもよい。尚、代表画像が複数枚ある場合は、上記と同様に統計処理を行う。
(ステップS107)制御部105は、ステップS105およびステップS106の解析結果に基づいて、スライドショー中に再生する音楽(背景音楽:BGM)を決定する。尚、背景音楽は、先に図4で説明したように、記憶部107に予め記憶されている音楽分類テーブル162を参照して決定される。
(ステップS108)制御部105は、ステップS107で決定した音楽データを記憶部107から読み出して音声出力部103で音声信号に変換してスピーカ103aから出力すると共に、ステップS101で選択された画像の画像データを記憶部105から順番に読み出し、予め決められたスライドショーの設定(画像の表示間隔、画像の切り替え時の効果など)に従って表示部102に画像を表示する。尚、読み出す順番は、撮影日時の古い画像から読み出すようにしてもよいし、ファイル名をあいうえお順に並べ替えて読み出すようにしてもよい。
(ステップS109)制御部105は、選択された画像の再生が全て終了したか否かを判別する。全て終了した場合はスライドショーを終了し、残っている場合はステップS108に戻って同様の処理を繰り返す。尚、音楽の再生が終了するまで同じ画像を最初から繰り返して表示するようにしてもよい。
In this way, the image playback apparatus 101 according to the present embodiment can select and play music that matches the emotional atmosphere of the images displayed in the slide show from the music data stored in the storage unit 107. it can.
[Process during slide show execution]
Next, the processing at the time of executing the slide show will be described with reference to the flowchart of FIG. 5 is a process executed by the control unit 105 and the image analysis unit 106.
(Step S101) The user operates a menu button, a cursor key, an enter button, etc. of the operation unit 104 to select a plurality of images from the image data 163 stored in the storage unit 107 as described above. Select the slide show start button on the screen with the cursor keys and press the enter button. In response to this, the control unit 105 starts a slide show of the selected images. Here, a user's favorite representative image may be selected from among a plurality of images. The representative image may be one or a plurality of images.
(Step S <b> 102) The control unit 105 reads the image data of the selected image from the storage unit 105 and outputs it to the image analysis unit 106.
(Step S103) The image analysis unit 106 performs face detection for each image. The face detection method is a well-known technique and will not be described in detail. However, a method such as pattern matching that extracts features such as the contour of the face and the arrangement of eyes, nose, mouth and the like is used.
(Step S104) The control unit 105 determines whether or not a face is detected in the image. If a face is detected in the image, the process proceeds to step S105, and if no face is detected, the process proceeds to step S106.
(Step S105) The facial expression analysis unit 151 of the image analysis unit 106 performs facial expression analysis of the image from which the face is detected. In the image reproducing apparatus 101 according to the present embodiment, as described with reference to FIG. 2, the facial expression is expressed by four expressions of “joy”, “anger”, “sorrow”, and “easy” based on the shape of the mouth, eyes, and eyebrows. Classify into: Here, when there are a plurality of images in which a face is detected, for example, the classification of the analysis result is statistically processed, and the classification of the most facial expressions is set as the representative expression. For example, if a face is included in five images, “joy” is four and “anger” is one, the representative expression is “joy”. Alternatively, the representative image may be selected in step S101, and only the result of analyzing the facial expression included in the representative image may be used. When there are a plurality of representative images, statistical processing is performed in the same manner as described above.
(Step S106) The color analysis unit 152 of the image analysis unit 106 performs color tone analysis of each image. In the image reproducing apparatus 101 according to the present embodiment, as described in FIG. 3, “red”, “green”, “blue”, “cyan”, “yellow”, “magenta”, “ It is classified into nine color systems of “white”, “ash”, and “black”. Here, when there are a plurality of images, as described in step S105, for example, the classification of the analysis result is statistically processed, and the classification of the most color tone is set as the representative color tone. For example, when five images are selected, if “red” is one and “green” is four, the representative expression is “green”. Alternatively, the representative image may be selected in step S101, and only the result of analyzing the facial expression included in the representative image may be used. When there are a plurality of representative images, statistical processing is performed in the same manner as described above.
(Step S107) The control unit 105 determines music (background music: BGM) to be played back during the slide show based on the analysis results of steps S105 and S106. The background music is determined with reference to the music classification table 162 stored in advance in the storage unit 107 as described above with reference to FIG.
(Step S108) The control unit 105 reads out the music data determined in step S107 from the storage unit 107, converts the music data into an audio signal by the audio output unit 103, outputs the audio signal from the speaker 103a, and displays the image selected in step S101. Data is sequentially read from the storage unit 105, and an image is displayed on the display unit 102 in accordance with a predetermined slide show setting (image display interval, image switching effect, etc.). Note that the reading order may be read from an image with the oldest shooting date and time, or the file names may be rearranged in order and read.
(Step S109) The control unit 105 determines whether or not the reproduction of the selected image has been completed. If all of the slide shows are finished, the slide show is finished. If the slide shows remain, the process returns to step S108 and the same processing is repeated. Note that the same image may be repeatedly displayed from the beginning until the music reproduction ends.

このように、本実施形態に係る画像再生装置101は、スライドショーで表示部102に表示する画像の感情的雰囲気に合致する音楽を自動的に選択してスピーカ103aから再生することができる。   As described above, the image reproducing apparatus 101 according to the present embodiment can automatically select music that matches the emotional atmosphere of the image displayed on the display unit 102 in a slide show and reproduce it from the speaker 103a.

尚、ステップS101で選択された全ての画像に顔が含まれていない場合は、色調のみの分類で再生する音楽を決定する。この場合、例えば図4の音楽分類テーブル162を参照すると、C1からC9までの各色調にF1からF4の4種類の音楽データがあるので、例えば顔が含まれていない場合は「喜」のC1の音楽データを選択する。或いは、顔が含まれていない場合の音楽データを音楽分類テーブル162に設定しておいてもよい。
(応用例1)
上記の実施形態では、図1に示したように、予め撮影された画像が記憶部107またはメモリカード109aに記憶されているものとしたが、図6に示すように、画像再生装置101に撮像部110を設けた電子カメラ101aであってもよい。この場合は、撮像部110で撮影した画像を記憶部107またはメモリカード109aに追加することができる。
Note that if all the images selected in step S101 do not include a face, the music to be played back is determined based on the color tone classification. In this case, for example, referring to the music classification table 162 in FIG. 4, there are four types of music data F1 to F4 in each color tone from C1 to C9. Select music data. Alternatively, music data when no face is included may be set in the music classification table 162.
(Application 1)
In the above embodiment, as shown in FIG. 1, it is assumed that an image captured in advance is stored in the storage unit 107 or the memory card 109a. However, as shown in FIG. The electronic camera 101a provided with the unit 110 may be used. In this case, an image captured by the imaging unit 110 can be added to the storage unit 107 or the memory card 109a.

尚、電子カメラ101aの場合は、撮像部110で画像を撮影する毎に、画像解析部106で撮影画像の感情的雰囲気を解析して、解析結果(色調の分類、表情の分類など)を画像データのヘッダ情報として付加してもよい。これにより、記憶部107またはメモリカード109aに記憶される撮影画像をスライドショー表示する際に、画像解析部106で画像解析を行う必要がなくなるので、スライドショー実行時の処理負荷を低減することができる。例えば図5のフローチャートにおいて、ステップS103からステップS106の処理を実行する必要が無くなる。
(応用例2)
図1の画像再生装置101または図6の電子カメラ101aにおいて、図7に示すように、通信部111を更に設け、画像再生装置101bまたは撮像部110を有する電子カメラ101bとしてもよい。或いは、携帯電話101bやスマートホン101bであってもよい。
In the case of the electronic camera 101a, every time an image is captured by the imaging unit 110, the emotional atmosphere of the captured image is analyzed by the image analysis unit 106, and the analysis results (color tone classification, facial expression classification, etc.) You may add as header information of data. This eliminates the need for the image analysis unit 106 to perform image analysis when the captured images stored in the storage unit 107 or the memory card 109a are displayed as a slide show, thereby reducing the processing load when executing the slide show. For example, in the flowchart of FIG. 5, it is not necessary to execute the processing from step S103 to step S106.
(Application example 2)
In the image reproducing device 101 in FIG. 1 or the electronic camera 101a in FIG. 6, as shown in FIG. 7, a communication unit 111 may be further provided, and the electronic camera 101b having the image reproducing device 101b or the imaging unit 110 may be used. Alternatively, the mobile phone 101b or the smart phone 101b may be used.

図7の場合、制御部105は、通信部111を介して接続されるネットワーク上の音楽データや画像データを取得することができるので、例えば撮影日時や再生日時、或いは撮影場所や再生場所に適した音楽データをネットワーク上から取得して、スライドショー実行時にスピーカ103aから再生することができる。これにより、記憶部107の記憶容量の削減を図ることができ、最新の音楽データなどネットワーク上の膨大な数の音楽データの中から最適な音楽データを再生することができる。尚、この場合でも、ネットワーク上から取得する音楽がどの色調の分類や表情の分類に対応するのかを知る必要があるので、音楽分類テーブル162に色調の分類や表情の分類に対応する曲名リストを予め記憶しておくものとする。   In the case of FIG. 7, the control unit 105 can acquire music data and image data on a network connected via the communication unit 111, and is suitable for, for example, a shooting date / time, playback date / time, or a shooting location / playback location. Music data can be acquired from the network and reproduced from the speaker 103a when the slide show is executed. As a result, the storage capacity of the storage unit 107 can be reduced, and optimal music data can be reproduced from an enormous number of music data on the network such as the latest music data. Even in this case, since it is necessary to know to which color classification and facial expression classification the music acquired from the network corresponds, a music title list corresponding to the color classification and facial expression classification is stored in the music classification table 162. It is assumed to be stored in advance.

或いは、音楽分類テーブル162自体をネットワーク上の特定のサーバに保持して、複数のユーザで共有できるようにしてもよい。この場合は、画像再生装置101の製造メーカがサーバを管理して曲名を適宜更新してメンテナンスすることができるので、世界中の膨大な種類の音楽データでも利用できる。これにより、画像再生装置101b(または電子カメラ101b)は、記憶部107に音楽データ161と音楽分類テーブル162を記憶する必要がなくなり、スライドショー表示する画像を画像解析部106で解析して、解析結果(色調の分類、表情の分類など)の情報をネットワーク上のサーバに問い合わせることによって再生する画像に適した音楽データを取得して再生することができる。尚、音楽データの著作権などを考慮して、ダウンロード後に再生するのではなく、ストリーミング配信技術を用いてリアルタイムで再生するようにしてもよいし、更に課金するようにしてもよい。   Alternatively, the music classification table 162 itself may be held in a specific server on the network so that it can be shared by a plurality of users. In this case, the manufacturer of the image playback apparatus 101 can manage the server and appropriately update and maintain the music title, so that it can be used for a huge amount of music data around the world. As a result, the image playback device 101b (or the electronic camera 101b) does not need to store the music data 161 and the music classification table 162 in the storage unit 107, and the image analysis unit 106 analyzes the images displayed in the slide show, and the analysis result. It is possible to acquire and reproduce music data suitable for an image to be reproduced by inquiring a server on the network for information on color classification, facial expression classification, and the like. In consideration of the copyright of music data and the like, it may be played back in real time using a streaming distribution technique instead of being played back after downloading, or may be charged further.

また、記憶部107またはメモリカード109aに記憶された画像だけでなく、当該画像の解析結果に合致するネットワーク上の画像データを取得して、記憶部107またはメモリカード109aに記憶された画像に織り交ぜてスライドショーを行うようにしてもよい。これにより、例えば撮影日時や撮影場所、或いは再生日時や再生場所に関連する様々な画像をネットワーク上から取得できるので、スライドショーをより楽しく鑑賞することができる。尚、音楽データと同様に、ネットワーク上の画像を特定のサーバで管理するようにして、ネットワーク上の画像の感情的雰囲気の解析結果(色調の分類、表情の分類など)を予め付加しておくことにより、スライドショー表示する記憶部107またはメモリカード109aに記憶された画像と同じ感情的雰囲気を有する画像のみをネットワーク上から取得して表示することができる。   Further, not only the image stored in the storage unit 107 or the memory card 109a but also the image data on the network that matches the analysis result of the image is acquired and woven into the image stored in the storage unit 107 or the memory card 109a. You may make it perform a slide show. Thereby, for example, various images related to the shooting date and time, the shooting location, or the playback date and time and the playback location can be acquired from the network, so that the slide show can be enjoyed more enjoyably. As with the music data, the image on the network is managed by a specific server, and the emotional atmosphere analysis result (color tone classification, facial expression classification, etc.) of the image on the network is added in advance. As a result, only images having the same emotional atmosphere as the images stored in the storage unit 107 or the memory card 109a for slide show display can be acquired from the network and displayed.

ここで、上記の実施形態および各応用例では、画像解析部106の色解析部152は、画像内の全ての領域を対象とするものとしたが、中央部分の領域の色調を解析するようにしてもよい。或いは、フォーカスのずれが予め設定された閾値以下の被写体または領域の色調を解析するようにしてもよい。また、画像データにフォーカス位置の情報が付加されている場合、例えばAF(オートフォーカス)位置を中心とする領域の色調を解析するようにしてもよい。または、画像を複数の領域に分割して領域毎に画像の高周波成分を解析し、高周波成分が高い領域をフォーカスが合っている領域として選択してもよい。このように、画像の中央部分やフォーカス位置を当該画像の主要被写体として色調解析を行ってもよいが、撮影時に主要被写体を設定できるようにして、設定された主要被写体位置を中心とする領域の色調を解析するようにしてもよい。さらに、中央部分の領域やフォーカス領域、主要被写体領域など特定領域とそれ以外の領域とで重み付けを行って画像の色調を分類するようにしてもよい。この場合、特定領域の色調を0.7、それ以外の領域の色調を0.3の比率で特定領域を重視するように解析する。   Here, in the above-described embodiment and each application example, the color analysis unit 152 of the image analysis unit 106 is intended for all regions in the image, but the color tone of the central region is analyzed. May be. Or you may make it analyze the color tone of the to-be-photographed object or area | region whose focus shift | offset is below a preset threshold value. In addition, when focus position information is added to image data, for example, the color tone of an area centered on an AF (autofocus) position may be analyzed. Alternatively, the image may be divided into a plurality of regions, the high frequency component of the image is analyzed for each region, and the region having a high high frequency component may be selected as the focused region. In this way, color analysis may be performed with the central portion and focus position of the image as the main subject of the image. You may make it analyze a color tone. Furthermore, the color tone of the image may be classified by weighting a specific area such as the central area, the focus area, and the main subject area and other areas. In this case, analysis is performed such that the specific area is emphasized at a ratio of 0.7 for the color tone of the specific area and 0.3 for the color tone of the other areas.

また、上記の実施形態および各応用例では、画像内に1つの顔が写っているものとして説明したが、例えば複数の顔が写っている場合、画像解析部106の表情解析部151は、中央部付近の顔の表情のみを解析するようにしてもよいし、全ての顔の表情を解析して統計的処理を行い、最多の表情を採用してもよい。或いは、一番大きい顔の表情を解析するようにしてもよいし、最もフォーカスが合っている顔の表情を解析するようにしてもよい。   Further, in the above-described embodiment and each application example, it has been described that one face is captured in the image. For example, when a plurality of faces are captured, the facial expression analysis unit 151 of the image analysis unit 106 is the center. Only facial expressions in the vicinity of the part may be analyzed, or all facial expressions may be analyzed and subjected to statistical processing to adopt the most facial expressions. Alternatively, the facial expression of the largest face may be analyzed, or the facial expression of the most focused face may be analyzed.

さらに、図5のフローチャートでは、顔の表情と色調の2つを解析するようにしたが、図8に示すように、ステップS106とステップS107との間にステップS106aを設けて、表情および色調以外の条件(例えば撮影日時、撮影場所、撮影モード、再生日時、再生場所など)で解析を行うようにしてもよい。この場合、次のステップS107では、表情および色調の解析結果に他の条件を加えて最適な音楽データを選択することができる。例えば、図4の音楽分類テーブル162では、マトリクスの1つの要素に1つの音楽を割り当てるようにしたが、マトリクスの1つの要素に複数の音楽を割り当てる。一例として、C1とF1の要素にBGM1、BGM1aおよびBGM1bの3つの音楽を割り当て、図8のフローチャートのステップS106aで色調と顔の表情以外の条件を解析して選択する音楽を切り替える。例えばBGM1、BGM1aおよびBGM1bは共にC1とF1に対応する感情的雰囲気を持った音楽であっても微妙な雰囲気の違いがあり、BGM1がBGM1aおよびBGM1bよりも朝の爽やかな雰囲気に適した曲、BGM1aがBGM1およびBGM1bよりも昼の明るい雰囲気に適した曲、BGM1bがBGM1およびBGM1aよりも夜の落ち着いた雰囲気に適した曲であるとする。この場合、表示する画像の画像データに付加された情報から撮影時間が朝の場合はBGM1、昼の場合はBGM1a、夜の場合はBGM1bをそれぞれ選択する。尚、同じ時間帯に対応する複数の画像がある場合は、統計的処理を行って最多の時間(例えば18:00以降の時間が最多である場合は夜)で判断する。同様に、撮影日で判別する場合は、5月に撮影された画像が最多である場合は5月向きの音楽を選択する。撮影場所についても同様に、地域(東北、関東、関西、日本、米国、欧州など)に応じて、その地域に関連する音楽を選択するようにしてもよい。   Furthermore, in the flowchart of FIG. 5, two expressions, facial expression and color tone, are analyzed, but as shown in FIG. 8, a step S106a is provided between step S106 and step S107, and other than facial expression and color tone. The analysis may be performed under the conditions (for example, shooting date / time, shooting location, shooting mode, playback date / time, playback location, etc.). In this case, in the next step S107, optimal music data can be selected by adding other conditions to the expression and tone analysis results. For example, in the music classification table 162 of FIG. 4, one music is assigned to one element of the matrix, but a plurality of music is assigned to one element of the matrix. As an example, three pieces of music BGM1, BGM1a, and BGM1b are assigned to the elements C1 and F1, and the music to be selected is switched by analyzing conditions other than the color tone and facial expression in step S106a of the flowchart of FIG. For example, BGM1, BGM1a and BGM1b are all music with an emotional atmosphere corresponding to C1 and F1, but there is a subtle difference in the atmosphere. It is assumed that BGM1a is a song suitable for a brighter daytime atmosphere than BGM1 and BGM1b, and BGM1b is a song suitable for a calm atmosphere at night than BGM1 and BGM1a. In this case, from the information added to the image data of the image to be displayed, BGM1 is selected when the shooting time is morning, BGM1a is selected at noon, and BGM1b is selected at night. In addition, when there are a plurality of images corresponding to the same time zone, statistical processing is performed, and the determination is made with the most time (for example, the night when the time after 18:00 is the most). Similarly, when discriminating by shooting date, music for May is selected when there are the most images shot in May. Similarly, for the shooting location, music related to the region may be selected according to the region (Tohoku, Kanto, Kansai, Japan, USA, Europe, etc.).

また、画像データのヘッダ情報として撮影時の撮影モード(夜景、風景、スポーツ、ポートレートなど)の情報が付加されている場合は、撮影モードなどの情報を利用してもよい。例えば、夜景モードで撮影された画像である場合は夜や暗い場合が多いので、落ち着いた感じの音楽を選択し、風景モードの場合は爽やかな感じの音楽を選択する。同様に、夜景モードで撮影された画像である場合は夜や暗い場合が多いので、落ち着いた感じの音楽を選択し、風景モードの場合は爽やかな感じの音楽を選択する。   In addition, when information on a shooting mode (night view, landscape, sports, portrait, etc.) at the time of shooting is added as header information of image data, information such as a shooting mode may be used. For example, in the case of an image shot in the night view mode, there are many cases that it is night or dark. Therefore, music with a calm feeling is selected, and music with a refreshing feeling is selected in the landscape mode. Similarly, in the case of an image shot in the night view mode, it is often night or dark, so calm music is selected, and in the landscape mode, refreshing music is selected.

さらに、画像再生装置101の制御部105に時計機能やGPS(全地球測位システム)機能を持たせて、スライドショーを実行する再生日時や再生場所を取得して、撮影日時や撮影場所と同様の考え方で、再生日時や再生場所に適した音楽を選択するようにしてもよい。   Further, the control unit 105 of the image reproduction apparatus 101 is provided with a clock function or a GPS (Global Positioning System) function to acquire a reproduction date and time and a reproduction place for executing the slide show, and the same concept as the photographing date and time and the photographing position. Thus, music suitable for the playback date and the playback location may be selected.

このように、各実施形態に係る画像再生装置101(または画像再生装置101a、101b(または電子カメラ101a、101b)は、スライドショーで表示部102に表示する画像の感情的雰囲気に合致する音楽を自動的に選択してスピーカ103aから再生することができる。   As described above, the image playback device 101 (or the image playback devices 101a and 101b (or the electronic cameras 101a and 101b) according to each embodiment automatically plays music that matches the emotional atmosphere of the images displayed on the display unit 102 in a slide show. Can be selected and reproduced from the speaker 103a.

以上、本発明に係る画像再生装置について、各実施形態で例を挙げて説明してきたが、その精神またはその主要な特徴から逸脱することなく他の多様な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。   As described above, the image reproducing apparatus according to the present invention has been described by way of example in each embodiment, but can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

101・・・画像再生装置
101a・・・電子カメラ
101b・・・画像再生装置(電子カメラ)
102・・・表示部
103・・・音声出力部
104・・・操作部
105・・・制御部
106・・・画像解析部
107・・・記憶部
108・・・共通バス
109・・・画像入力部
109a・・・メモリカード
110・・・撮像部
111・・・通信部
151・・・表情解析部
152・・・色解析部
161・・・音楽データ
162・・・音楽分類テーブル
163・・・画像データ
101... Image reproduction apparatus 101 a... Electronic camera 101 b... Image reproduction apparatus (electronic camera)
102 ... Display unit 103 ... Audio output unit 104 ... Operation unit 105 ... Control unit 106 ... Image analysis unit 107 ... Storage unit 108 ... Common bus 109 ... Image input Unit 109a ... Memory card 110 ... Imaging unit 111 ... Communication unit 151 ... Expression analysis unit 152 ... Color analysis unit 161 ... Music data 162 ... Music classification table 163 ... image data

Claims (10)

画像を表示する表示部と、
前記画像の色調と顔の表情とを解析して予め決められた複数の種類に分類する解析部と、
複数の音楽データを保持し、前記画像を前記表示部に表示する時に当該画像の前記色調と前記表情の分類に対応する予め決められた前記音楽データを再生する制御部と
を有することを特徴とする画像再生装置。
A display for displaying an image;
Analyzing the color tone and facial expression of the image and classifying the image into a plurality of predetermined types;
A controller that holds a plurality of music data and reproduces the predetermined music data corresponding to the color tone and facial expression classification of the image when the image is displayed on the display unit. An image playback device.
請求項1に記載の画像再生装置において、
前記表示部に表示する画像が複数ある場合、
前記解析部は、前記複数の各画像の色調の分類結果と前記複数の画像のうち顔が含まれる画像の表情の分類結果とをそれぞれ統計的に解析して最大頻度の色調の分類と最大頻度の表情の分類とを求め、
前記制御部は、前記最大頻度の色調の分類と前記最大頻度の表情の分類とに対応する予め決められた前記音楽データを再生する
ことを特徴とする画像再生装置。
The image reproduction apparatus according to claim 1,
When there are a plurality of images to be displayed on the display unit,
The analysis unit statistically analyzes the color tone classification result of each of the plurality of images and the facial expression classification result of an image including a face among the plurality of images, respectively, and performs the maximum frequency color tone classification and maximum frequency. Seeking facial expression classification
The control unit reproduces the predetermined music data corresponding to the maximum frequency tone classification and the maximum frequency facial expression classification.
請求項1に記載の画像再生装置において、
前記表示部に表示する画像が複数ある場合、
前記解析部は、前記複数の画像のうち予め設定された代表画像の色調と顔の表情とを解析して予め決められた複数の種類に分類し、
前記制御部は、前記複数の画像を前記表示部に表示する時に前記代表画像の前記色調と前記表情の分類に対応する予め決められた前記音楽データを再生する
ことを特徴とする画像再生装置。
The image reproduction apparatus according to claim 1,
When there are a plurality of images to be displayed on the display unit,
The analysis unit analyzes the color tone and facial expression of a representative image set in advance among the plurality of images and classifies them into a plurality of predetermined types,
The control unit reproduces the predetermined music data corresponding to the classification of the color tone and the facial expression of the representative image when the plurality of images are displayed on the display unit.
請求項1に記載の画像再生装置において、
前記表示部に表示する画像の撮影日時、撮影場所、撮影モードの少なくとも1つの付加情報を取得する付加情報取得部をさらに設け、
前記制御部は、前記色調の分類と前記表情の分類と前記付加情報とに対応する予め決められた前記音楽データを再生する
ことを特徴とする画像再生装置。
The image reproduction apparatus according to claim 1,
An additional information acquisition unit that acquires at least one additional information of a shooting date and time, a shooting location, and a shooting mode of the image displayed on the display unit;
The control unit reproduces the predetermined music data corresponding to the color classification, the facial expression classification, and the additional information.
請求項1に記載の画像再生装置において、
前記表示部に画像表示を行う再生日時、再生場所の少なくとも1つの付加情報を取得する付加情報取得部をさらに設け、
前記制御部は、前記色調の分類と前記表情の分類と前記付加情報とに対応する予め決められた前記音楽データを再生する
ことを特徴とする画像再生装置。
The image reproduction apparatus according to claim 1,
An additional information acquisition unit that acquires at least one additional information of a reproduction date and time and a reproduction place for displaying an image on the display unit;
The control unit reproduces the predetermined music data corresponding to the color classification, the facial expression classification, and the additional information.
請求項1から5のいずれか一項に記載の画像再生装置において、
前記解析部は、前記画像の中の予め設定された主要被写体または特定領域の色調を解析する
ことを特徴とする画像再生装置。
In the image reproducing device according to any one of claims 1 to 5,
The image reproduction apparatus characterized in that the analysis unit analyzes a color tone of a preset main subject or a specific area in the image.
請求項6に記載の画像再生装置において、
前記主要被写体または特定領域は、フォーカスのずれが予め設定された閾値以下の被写体または領域である
ことを特徴とする画像再生装置。
The image reproduction apparatus according to claim 6, wherein
The image reproducing apparatus according to claim 1, wherein the main subject or the specific region is a subject or region whose focus shift is equal to or less than a preset threshold value.
請求項1から7のいずれか一項に記載の画像再生装置において、
前記解析部が解析する色調と顔の表情の分類と、前記複数の音楽データとの対応を示すテーブルを有する
ことを特徴とする画像再生装置。
In the image reproducing device according to any one of claims 1 to 7,
An image reproducing apparatus comprising: a table indicating correspondence between color tone and facial expression classification analyzed by the analysis unit and the plurality of music data.
請求項1から8のいずれか一項に記載の画像再生装置において、
前記音楽データのヘッダ情報として当該音楽に対応する前記色調と前記表情の分類を予め付加しておき、
前記制御部は、前記解析部の解析結果に対応する前記ヘッダ情報の前記音楽データを検索し、検索結果が複数ある場合は、予め設定された条件に従って再生する前記音楽データを決定する
ことを特徴とする画像再生装置。
In the image reproducing device according to any one of claims 1 to 8,
As the header information of the music data, the color and the facial expression classification corresponding to the music are added in advance,
The control unit searches the music data of the header information corresponding to the analysis result of the analysis unit, and when there are a plurality of search results, determines the music data to be reproduced according to a preset condition. An image reproducing apparatus.
請求項9に記載の画像再生装置において、
前記制御部は、前記検索結果が複数ある場合は、表示する画像の撮影日時、撮影場所、再生日時、再生場所の少なくとも1つの条件に従って再生する前記音楽データを決定する
ことを特徴とする画像再生装置。
The image reproduction apparatus according to claim 9, wherein
When there are a plurality of search results, the control unit determines the music data to be played back according to at least one of the shooting date / time, shooting location, playback date / time, and playback location of an image to be displayed. apparatus.
JP2012045274A 2012-03-01 2012-03-01 Image reproduction device Pending JP2013183259A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012045274A JP2013183259A (en) 2012-03-01 2012-03-01 Image reproduction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012045274A JP2013183259A (en) 2012-03-01 2012-03-01 Image reproduction device

Publications (1)

Publication Number Publication Date
JP2013183259A true JP2013183259A (en) 2013-09-12

Family

ID=49273640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012045274A Pending JP2013183259A (en) 2012-03-01 2012-03-01 Image reproduction device

Country Status (1)

Country Link
JP (1) JP2013183259A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9685199B2 (en) 2014-12-22 2017-06-20 Olympus Corporation Editing apparatus and editing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9685199B2 (en) 2014-12-22 2017-06-20 Olympus Corporation Editing apparatus and editing method

Similar Documents

Publication Publication Date Title
CN109819313B (en) Video processing method, device and storage medium
JP5268595B2 (en) Image processing apparatus, image display method, and image display program
CN103620682B (en) Digital video camcorder system and the method forming video frequency abstract
CN104320571B (en) Electronic equipment and method for electronic equipment
US8212911B2 (en) Imaging apparatus, imaging system, and imaging method displaying recommendation information
CN105874780A (en) Method and apparatus for generating a text color for a group of images
US20060039674A1 (en) Image editing apparatus, method, and program
CN103842936A (en) Recording, editing and combining multiple live video clips and still photographs into a finished composition
US20220223181A1 (en) Method for synthesizing videos and electronic device therefor
JP2007094762A (en) Information processor, information processing method, and program
JP5870742B2 (en) Information processing apparatus, system, and information processing method
JP2010259064A (en) Display and image pickup device
TWI522823B (en) Techniques for intelligent media show across multiple devices
JP2016119600A (en) Editing device and editing method
US20060050166A1 (en) Digital still camera
US20130100329A1 (en) Image pickup apparatus
CN103258557B (en) Display control unit and display control method
JP2011091635A (en) Imaging apparatus
WO2014020816A1 (en) Display control device, display control method, and program
KR20090131220A (en) Imaging apparatus and method of controlling the same
JP2013171599A (en) Display control device and display control method
CN113852767A (en) Video editing method, device, equipment and medium
JP4339040B2 (en) Shooting and editing system, shooting and editing method, and program
KR102138835B1 (en) Apparatus and method for providing information exposure protecting image
CN104144286A (en) Imaging apparatus and imaging method