JP2014175733A - Image reproduction apparatus and image reproduction program - Google Patents

Image reproduction apparatus and image reproduction program Download PDF

Info

Publication number
JP2014175733A
JP2014175733A JP2013044674A JP2013044674A JP2014175733A JP 2014175733 A JP2014175733 A JP 2014175733A JP 2013044674 A JP2013044674 A JP 2013044674A JP 2013044674 A JP2013044674 A JP 2013044674A JP 2014175733 A JP2014175733 A JP 2014175733A
Authority
JP
Japan
Prior art keywords
image
atmosphere
emotional
images
color information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013044674A
Other languages
Japanese (ja)
Inventor
Yoshiaki Miyagawa
嘉明 宮川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013044674A priority Critical patent/JP2014175733A/en
Publication of JP2014175733A publication Critical patent/JP2014175733A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To retrieve an image with predetermined atmosphere, impression, emotion, etc. to a predetermined extent.SOLUTION: An image reproduction apparatus comprises: storage means which associates and stores plural pieces of color information and plural emotional features respectively expressing the atmospheres of images with respective pieces of the color information; selection means which selects at least one of the emotional features and the extent of the emotional feature; detection means which detects color information in plural images; level determination means which determines, on the basis of the detection result of the detection means, the extent of color information corresponding to the emotional feature selected by the selection means included in the respective images; and display means which on the basis of the determination result of the level determination means, displays an image corresponding to the extent of the emotional feature selected by the selection means, among the plural images.

Description

本発明は画像再生装置および画像再生プログラムに関する。   The present invention relates to an image reproduction device and an image reproduction program.

画像に感情的特徴の特徴量を付与しておき、その特徴量に基づいて未整理の画像データセットをグループ化する技術が知られている(特許文献1)。   A technique is known in which a feature amount of emotional features is assigned to an image, and an unorganized image data set is grouped based on the feature amount (Patent Document 1).

特開2011−154687号公報JP 2011-154687 A

所定の雰囲気、印象、感情などを有する画像を検索する技術が望まれている。特許文献1に記載の技術では、所定の感情的特徴を有する画像を検索することができるが、画像で表現されているその雰囲気、印象、感情などの程度を知ることができない。   A technique for searching for an image having a predetermined atmosphere, impression, emotion or the like is desired. With the technique described in Patent Document 1, an image having a predetermined emotional feature can be searched, but the degree of the atmosphere, impression, emotion, etc. expressed in the image cannot be known.

本発明の第1の態様による画像再生装置は、複数の色情報と、各色情報を有する画像の雰囲気をそれぞれ表す複数の感情的特徴とを対応付けて記憶する記憶手段と、複数の感情的特徴の少なくとも一つと、当該感情的特徴の程度とを選択する選択手段と、複数の画像中の色情報を検出する検出手段と、選択手段により選択された感情的特徴に対応する色情報が複数の画像の各々に含まれる程度を、検出手段の検出結果に基づき判定するレベル判定手段と、レベル判定手段の判定結果に基づいて、複数の画像のうち、選択手段によって選択された感情的特徴の程度に対応する画像を表示する表示手段と、を備えることを特徴とする。   The image reproducing device according to the first aspect of the present invention includes a storage unit that stores a plurality of color information in association with a plurality of emotional features each representing an atmosphere of an image having each color information, and a plurality of emotional features Selection means for selecting at least one of the emotional characteristics, detection means for detecting color information in a plurality of images, and a plurality of color information corresponding to the emotional characteristics selected by the selection means. Level determination means for determining the degree of inclusion in each image based on the detection result of the detection means, and the degree of the emotional feature selected by the selection means from among the plurality of images based on the determination result of the level determination means Display means for displaying an image corresponding to.

本発明の第2の態様による画像再生プログラムは、複数の色情報と各色情報を有する画像の雰囲気をそれぞれ表す複数の感情的特徴とを対応付けて記憶する記憶手段と、複数の感情的特徴の少なくとも一つと当該感情的特徴の程度とを選択する選択手段と、画像を表示する表示手段と、を備えた画像再生装置に適用される画像再生プログラムであって、
複数の画像それぞれに含まれる色情報を検出させ、選択手段により選択された感情的特徴に対応する色情報が複数の画像の各々に含まれる程度を、検出の結果に基づき判定させ、判定の結果に基づいて、複数の画像のうち、選択手段によって選択された感情的特徴の程度に対応する画像を、表示手段に表示させるように画像再生装置を動作させることを特徴とする。
An image reproduction program according to a second aspect of the present invention includes a storage unit that stores a plurality of color information and a plurality of emotional features that respectively represent atmospheres of an image having each color information, and stores a plurality of emotional features. An image reproduction program applied to an image reproduction apparatus comprising: selection means for selecting at least one and a degree of the emotional feature; and display means for displaying an image,
The color information included in each of the plurality of images is detected, and the degree to which the color information corresponding to the emotional feature selected by the selection unit is included in each of the plurality of images is determined based on the detection result. Based on the above, the image reproducing apparatus is operated so that an image corresponding to the degree of the emotional feature selected by the selection means among the plurality of images is displayed on the display means.

本発明による画像再生装置および画像再生プログラムを用いることにより、ユーザは、所定の雰囲気、印象、感情などを、所定の程度有する画像を検索することができる。   By using the image reproduction apparatus and the image reproduction program according to the present invention, the user can search for an image having a predetermined degree of a predetermined atmosphere, impression, emotion, and the like.

本発明の一実施の形態による画像再生装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image reproduction apparatus by one embodiment of this invention. 雰囲気データベースに含まれるデータのフォーマット例を示す図である。It is a figure which shows the format example of the data contained in an atmosphere database. 本発明の一実施の形態による撮像装置の制御部の機能ブロック図である。It is a functional block diagram of the control part of the imaging device by one embodiment of the present invention. 画像データに含まれるメタデータの一例を示す図である。It is a figure which shows an example of the metadata contained in image data. 画像選択画面の一例を示す図である。It is a figure which shows an example of an image selection screen. 画像選択画面を表示するための動作を示すフローチャートである。It is a flowchart which shows the operation | movement for displaying an image selection screen. 適合度決定部の処理に関するフローチャートである。It is a flowchart regarding the process of a fitness determination part. 表示制御部が表示する画面の一例を示す図である。It is a figure which shows an example of the screen which a display control part displays.

図1は、本発明の一実施の形態による画像再生装置の構成例を示すブロック図である。図1には、画像再生装置の一例として、デジタルカメラ100が例示されている。デジタルカメラ100は、撮影レンズ10と、撮像部11と、制御部12と、記憶部13と、表示用モニターを備えた表示部14と、操作部材15と、インタフェース部16と、GPSモジュール18とを備える。   FIG. 1 is a block diagram showing a configuration example of an image reproduction apparatus according to an embodiment of the present invention. FIG. 1 illustrates a digital camera 100 as an example of an image reproducing device. The digital camera 100 includes a photographing lens 10, an imaging unit 11, a control unit 12, a storage unit 13, a display unit 14 including a display monitor, an operation member 15, an interface unit 16, and a GPS module 18. Is provided.

デジタルカメラ100は、ポートレート、風景、夕焼けなど複数のシーンモードを有する。ポートレートモードは、人物の撮影に適したシーンモードである。風景モードは、風景の撮影に適したシーンモードである。夕焼けモードは、夕焼けや朝焼けにより赤みを帯びた被写体を撮影するのに適したシーンモードである。   The digital camera 100 has a plurality of scene modes such as portrait, landscape, and sunset. The portrait mode is a scene mode suitable for photographing a person. The landscape mode is a scene mode suitable for landscape photography. The sunset mode is a scene mode suitable for photographing a subject that is reddish due to sunset or sunrise.

撮影レンズ10は、撮像素子11aの撮像面上に被写体像を結像させる。撮像部11は、被写体像を撮像してRGB表色系のデジタル画像信号を制御部12へ出力する。なお、図1では、撮影レンズ10は、図を簡単にするため単レンズとして図示されているが、実際には不図示のフォーカシングレンズ、ズームレンズなど複数の光学系で構成される。   The taking lens 10 forms a subject image on the image pickup surface of the image pickup device 11a. The imaging unit 11 captures a subject image and outputs an RGB color system digital image signal to the control unit 12. In FIG. 1, the photographing lens 10 is illustrated as a single lens for the sake of simplicity, but actually includes a plurality of optical systems such as a focusing lens and a zoom lens (not illustrated).

制御部12は、例えばCPUと画像処理部とを含み、記憶部13に記憶されているプログラムを実行することにより、デジタルカメラ100の各部を制御する。制御部12により実行される各処理については詳細を後述する。   The control unit 12 includes, for example, a CPU and an image processing unit, and controls each unit of the digital camera 100 by executing a program stored in the storage unit 13. Details of each process executed by the control unit 12 will be described later.

記憶部13は、バッファメモリ13aなどの揮発性の記録媒体と、フラッシュメモリ13bやROM(不図示)などの不揮発性の記録媒体とを含む。バッファメモリ13aには、撮像部11から出力されたデジタル画像信号と、制御部12により画像処理中の各種画像データが一時的に格納される。フラッシュメモリ13bには、詳細を後述する雰囲気データベース130が記憶されている。フラッシュメモリ13bやROM(不図示)などの不揮発性の記録媒体には、制御部12が実行するプログラムと、地図データとが記憶されている。   The storage unit 13 includes a volatile recording medium such as a buffer memory 13a and a non-volatile recording medium such as a flash memory 13b and a ROM (not shown). The buffer memory 13a temporarily stores the digital image signal output from the imaging unit 11 and various image data being processed by the control unit 12. The flash memory 13b stores an atmosphere database 130 whose details will be described later. A program executed by the control unit 12 and map data are stored in a nonvolatile recording medium such as a flash memory 13b or a ROM (not shown).

表示部14は、LCDなどの表示用モニターを備え、デジタルカメラ100の背面などに設けられる。表示部14は、制御部12の制御のもと入力された画像データに基づいて、メニュー画面や画像再生画面を表示する。   The display unit 14 includes a display monitor such as an LCD, and is provided on the back surface of the digital camera 100. The display unit 14 displays a menu screen and an image reproduction screen based on the image data input under the control of the control unit 12.

操作部材15は、例えばレリーズ釦の半押し操作に応じてオンする半押しスイッチと全押し操作に応じてオンする全押しスイッチとを含むレリーズ操作用のレリーズスイッチ15a、各種選択操作に用いる十字スイッチ15bなどの入力装置である。十字スイッチ15bは、複数のスイッチの集合体であって、例えば上下左右方向をそれぞれ司るスイッチと、決定スイッチとを有する。操作部材15は、各入力装置による操作信号を制御部12へ送信する。   The operation member 15 includes, for example, a release switch 15a for release operation including a half-press switch that is turned on in response to a half-press operation of a release button and a full-press switch that is turned on in response to a full-press operation, and a cross switch used for various selection operations. An input device such as 15b. The cross switch 15b is an aggregate of a plurality of switches, and includes, for example, a switch that controls the vertical and horizontal directions, and a determination switch. The operation member 15 transmits an operation signal from each input device to the control unit 12.

インタフェース部16は、デジタルカメラ100に着脱可能に装着されるメモリカード17などの外部記録媒体への画像データの記録し、メモリカード17などからの画像データの読み出しを行うためのインタフェースである。
GPSモジュール18は、GPS衛星から送信される信号に基づいて、デジタルカメラ100が存在する場所を検出し、その場所に関する情報を制御部12に出力する。
The interface unit 16 is an interface for recording image data on an external recording medium such as a memory card 17 that is detachably attached to the digital camera 100 and reading the image data from the memory card 17 or the like.
The GPS module 18 detects a location where the digital camera 100 exists based on a signal transmitted from a GPS satellite, and outputs information regarding the location to the control unit 12.

図2は、雰囲気データベース130に記憶されているデータ(データテーブル)の一例である。雰囲気データベース130には、図2に示されるように、画像データ中の色相と彩度と明度のそれぞれの範囲を含む色情報と、シーンモードと、雰囲気キーワードとによって構成されるn個の雰囲気データD1〜Dnが含まれる。雰囲気データD1〜Dnの各々は、色およびシーンモードと、色が醸し出す雰囲気、色が見た人に与える印象、または色により表現もしくは連想される感情との関係をそれぞれ定義したデータである。以降では、色が醸し出す雰囲気、色が見た人に与える印象、色により表現または連想される感情のことを総称して雰囲気と記載する。   FIG. 2 is an example of data (data table) stored in the atmosphere database 130. As shown in FIG. 2, the atmosphere database 130 includes n pieces of atmosphere data including color information including ranges of hue, saturation, and brightness in image data, a scene mode, and an atmosphere keyword. D1 to Dn are included. Each of the atmosphere data D1 to Dn is data that defines the relationship between the color and the scene mode, the atmosphere that the color brings, the impression that the color gives to the person, or the emotion expressed or associated with the color. Hereinafter, the atmosphere created by the color, the impression given to the person who sees the color, and the emotion expressed or associated with the color are collectively referred to as the atmosphere.

雰囲気データD1〜Dnでは、雰囲気をもたらす色の範囲を、HSV色空間内に定めている。すなわち、雰囲気データD1〜Dnでは、雰囲気をもたらす色の範囲がその色相(H)と彩度(S)と明度(V)の範囲で定義されている。雰囲気データD1〜Dnを構成する各シーンモードは、デジタルカメラ100で利用することができるシーンモード、すなわちポートレート、風景、夕焼けなどのいずれかである。   In the atmosphere data D1 to Dn, a color range that brings about the atmosphere is defined in the HSV color space. That is, in the atmosphere data D1 to Dn, the color range that brings about the atmosphere is defined by the hue (H), saturation (S), and lightness (V) ranges. Each scene mode constituting the atmosphere data D1 to Dn is a scene mode that can be used by the digital camera 100, that is, portrait, landscape, sunset, or the like.

雰囲気キーワードは、雰囲気や感情的特徴を表現した文字列型のデータである。図2では、「爽快な」、「さわやかな」、「澄んだ」といった形容動詞が雰囲気キーワードとして例示されている。
図2のD1,D2から明らかように、同じ色相と彩度と明度の範囲の色であっても、シーンモードに応じて適用される雰囲気キーワードは異なるようにデータテーブル上で予め設定されている(風景モードなら「爽快な」だが、ポートレートモードなら「さわやかな」がデータテーブルに予め設定されている)。
また図2のD1、D3から明らかなように、同じシーンモード(風景モード)であっても、雰囲気のもたらす色(色相(H)と彩度(S)と明度(V)の範囲で定義される色)が異なれば、適用される雰囲気キーワードが異なるようにデータテーブル上で予め設定されている(「爽快な」と「澄んだ」が予め設定されている)。
The atmosphere keyword is character string type data expressing the atmosphere and emotional characteristics. In FIG. 2, adjective verbs such as “exhilarating”, “refreshing”, and “clear” are exemplified as atmosphere keywords.
As is clear from D1 and D2 in FIG. 2, the atmosphere keywords applied according to the scene mode are set in advance on the data table even in the same hue, saturation and lightness range colors. (In the landscape mode, it is “exhilarating”, but in the portrait mode, “fresh” is preset in the data table).
As is clear from D1 and D3 in FIG. 2, even in the same scene mode (landscape mode), the colors (hue (H), saturation (S), and lightness (V)) defined by the atmosphere are defined. If the color is different, the applied atmosphere keyword is set differently on the data table ("exhilarating" and "clear" are preset).

不図示ではあるが、上記した以外にも、雰囲気のもたらす色と、シーンモードと、雰囲気キーワードとの関係データとして、次のようなデータも雰囲気データベース130は含んでいる。例えば、色が緑色で且つシーンモードが風景モードである場合の雰囲気キーワードには、「ここちよい」が雰囲気データベース130に設定されている。また色がマリンブルーで且つシーンモードが風景モードである場合の雰囲気キーワードには、「きれいな」が雰囲気データベース130に設定されている。 Although not shown, in addition to the above, the atmosphere database 130 also includes the following data as relation data between the color brought about by the atmosphere, the scene mode, and the atmosphere keyword. For example, “here is good” is set in the atmosphere database 130 as the atmosphere keyword when the color is green and the scene mode is the landscape mode. Also, “beautiful” is set in the atmosphere database 130 as the atmosphere keyword when the color is marine blue and the scene mode is the landscape mode.

なお、雰囲気キーワードは、形容動詞だけに限定されず、例えば「爽快」などのような名詞、「ここちよい」のような形容詞、「とても爽快な」、「少しここちよい」のような副詞を伴う形容動詞または形容詞などであってもよい。なお、雰囲気キーワードに対して、その雰囲気キーワードが示す情態の「程度」を示すワードを伴って雰囲気キーワードを決定しても良い。例えば、副詞を伴う雰囲気キーワードを用いる場合、雰囲気をもたらす色の彩度に基づいて副詞の有無や付加する副詞を決定することにすればよい。一例として、彩度が高い雰囲気データから順に「とても爽快な」、「爽快な」、「少し爽快な」のように、爽快さの程度(度合い)を示す言葉(「とても」や「少し」等)を伴って雰囲気キーワードを設定しておけばよい。なお図2では、雰囲気データD1の雰囲気キーワードは「爽快な」(ノーマルな爽快さを示す表現)に設定されており、雰囲気データD2の雰囲気キーワードは「さわやかな」(ノーマルなさわやかさを示す表現)に設定されている。   Note that the atmosphere keyword is not limited to adjective verbs. For example, nouns such as “Exhilarating”, adjectives such as “Kokochiyo”, and adjective verbs with adverbs such as “Very Exhilarating” and “A little good here”. Or an adjective may be used. Note that the atmosphere keyword may be determined for the atmosphere keyword with a word indicating the “degree” of the situation indicated by the atmosphere keyword. For example, when an atmosphere keyword with an adverb is used, the presence or absence of an adverb and the adverb to be added may be determined based on the color saturation that brings the atmosphere. As an example, words indicating the degree (degree) of exhilaration (such as “very” or “little”), such as “very exhilarating”, “exhilarating”, “a little exhilarating” in order from the atmosphere data with high saturation ) With the atmosphere keyword. In FIG. 2, the atmosphere keyword of the atmosphere data D1 is set to “exhilarating” (expression indicating normal exhilaration), and the atmosphere keyword of the atmosphere data D2 is “refreshing” (expression indicating normal refreshing) Is set to

図3は、制御部12の機能ブロック図である。制御部12は、記憶部13に記憶されているプログラムを実行することにより、画像処理部120と、シーン判定部121と、代表色決定部122と、雰囲気決定部123と、画素検出部124と、レベル判定部125と、表示制御部126として機能する。   FIG. 3 is a functional block diagram of the control unit 12. The control unit 12 executes the program stored in the storage unit 13 to thereby execute the image processing unit 120, the scene determination unit 121, the representative color determination unit 122, the atmosphere determination unit 123, and the pixel detection unit 124. , Functions as a level determination unit 125 and a display control unit 126.

画像処理部120は、デジタル画像信号に対して種々の画像処理を行う。例えば、画像処理部120は、撮像部11から入力されたデジタル画像信号に対して、ホワイトバランス処理、ガンマ補正処理、色補間処理などを行い、画像データを生成する。画像処理部120が生成する画像データは、例えばEXIF形式など、種々のメタデータを付加することができる画像形式のデータである。また、画像処理部120は、色空間変換処理を行い、その画像信号の色空間をRGB色空間からHSV色空間へ変換する。   The image processing unit 120 performs various image processing on the digital image signal. For example, the image processing unit 120 performs white balance processing, gamma correction processing, color interpolation processing, and the like on the digital image signal input from the imaging unit 11 to generate image data. The image data generated by the image processing unit 120 is data in an image format to which various metadata such as the EXIF format can be added. Further, the image processing unit 120 performs color space conversion processing, and converts the color space of the image signal from the RGB color space to the HSV color space.

シーン判定部121は、撮像部11が出力したデジタル画像信号(画像処理部120から出力された画像データ)またはメモリカード17に記録された画像データ等に基づいて、それらの画像に対応するシーンモードを自動的に判定(判断)する。   Based on the digital image signal output from the image capturing unit 11 (image data output from the image processing unit 120), the image data recorded on the memory card 17, or the like, the scene determination unit 121 corresponds to the scene mode corresponding to those images. Is automatically determined (judged).

代表色決定部122は、シーン判定部121により判定されたシーンモードに基づいて、画像処理部120によりHSV色空間に変換された画像信号の中から、その画像信号に含まれる被写体像を代表する代表色を決定する。例えば、代表色決定部122は、入力された画像に含まれるシーンモードに対応する被写体画像の中で、最も広い面積(画素数)を占める色を代表色として決定する。代表色決定部122は、決定した代表色の色情報、すなわち代表色の色相と彩度と明度とに関する情報を出力する。   Based on the scene mode determined by the scene determination unit 121, the representative color determination unit 122 represents the subject image included in the image signal from the image signals converted into the HSV color space by the image processing unit 120. Determine the representative color. For example, the representative color determining unit 122 determines the color that occupies the widest area (number of pixels) as the representative color in the subject image corresponding to the scene mode included in the input image. The representative color determination unit 122 outputs color information of the determined representative color, that is, information on the hue, saturation, and brightness of the representative color.

雰囲気決定部123は、シーン判定部121により判定されたシーンモードと、代表色決定部122により出力された代表色の色相と彩度と明度とに関する情報とに基づいて、雰囲気データベース130を検索して、当該画像に対応する雰囲気キーワードを決定する。   The atmosphere determination unit 123 searches the atmosphere database 130 based on the scene mode determined by the scene determination unit 121 and the information on the hue, saturation, and brightness of the representative color output by the representative color determination unit 122. Thus, the atmosphere keyword corresponding to the image is determined.

画素検出部124は、メモリカード17に記憶された画像データの各々の中から(或いは画像処理部120から出力された画像データの各々の中から)、所定の雰囲気に対応する所定の色情報を有する画素を検出する。具体的には、画素検出部124は、色相、彩度、明度のそれぞれが雰囲気データベース130に所定の雰囲気キーワード(雰囲気、感情的特徴)に対応付けられている色相、彩度、明度の範囲にある画素を検出する。例えば、画素検出部124は、色相がH1〜H2の範囲内、彩度がS1〜S2の範囲内、明度がV1〜V2の範囲内にある画素を検出する。   The pixel detection unit 124 obtains predetermined color information corresponding to a predetermined atmosphere from each of the image data stored in the memory card 17 (or from each of the image data output from the image processing unit 120). A pixel having the same is detected. Specifically, the pixel detection unit 124 sets the hue, saturation, and brightness within the hue, saturation, and brightness ranges that are associated with predetermined atmosphere keywords (atmosphere and emotional characteristics) in the atmosphere database 130. A certain pixel is detected. For example, the pixel detection unit 124 detects pixels whose hue is in the range of H1 to H2, saturation is in the range of S1 to S2, and brightness is in the range of V1 to V2.

レベル判定部125は、画素検出部124により画像データから検出された画素の個数に基づいて、所定の雰囲気キーワード(雰囲気、感情的特徴)に対応する色情報がその画像データに含まれる程度を判定する。換言すると、レベル判定部125は、画像が有する所定の雰囲気の程度を判定する。レベル判定部125は、所定の雰囲気キーワード(雰囲気、感情的特徴)に対応する色情報がその画像データに含まれる程度を、例えば0〜10レベルで表す。   The level determination unit 125 determines, based on the number of pixels detected from the image data by the pixel detection unit 124, the degree to which color information corresponding to a predetermined atmosphere keyword (atmosphere, emotional feature) is included in the image data. To do. In other words, the level determination unit 125 determines the degree of a predetermined atmosphere that the image has. The level determination unit 125 represents the degree to which color information corresponding to a predetermined atmosphere keyword (atmosphere, emotional feature) is included in the image data, for example, at 0 to 10 levels.

表示制御部126は、後述する画像選択画面を生成し、表示部14に画像選択画面を表示させる。ユーザは、表示制御部126が表示する画像選択画面を用いて、所望の雰囲気(感情的特徴)の程度に対応する画像を検索する。   The display control unit 126 generates an image selection screen, which will be described later, and causes the display unit 14 to display the image selection screen. The user uses the image selection screen displayed by the display control unit 126 to search for an image corresponding to a desired atmosphere (emotional feature) level.

図4は、デジタルカメラ100がメモリカード17に記録する画像データのデータフォーマットの一例を示す図である。図4に例示された画像データ500は、メタデータのデータ領域501を有し、雰囲気(感情的特徴)に関するデータ511と、撮影日時に関するデータ512と、撮影場所に関するデータ513とがメタデータとして含まれている。雰囲気に関するデータ511は、雰囲気決定部123により決定された雰囲気キーワードに関する情報である。撮影場所に関するデータ513は、GPSモジュール18から取得される。   FIG. 4 is a diagram illustrating an example of a data format of image data recorded on the memory card 17 by the digital camera 100. The image data 500 illustrated in FIG. 4 includes a metadata data area 501, and includes data 511 regarding the atmosphere (emotional characteristics), data 512 regarding the shooting date and time, and data 513 regarding the shooting location as metadata. It is. The data 511 regarding the atmosphere is information regarding the atmosphere keyword determined by the atmosphere determination unit 123. Data 513 regarding the shooting location is acquired from the GPS module 18.

図5は、画像選択画面の表示例を示す図である。図5に例示した画像選択画面20は、メモリカード17に記録された画像データの中から所望の画像を検索するための画面であって、グラフ表示領域21と画像表示領域22と地図表示領域23とを有する。   FIG. 5 is a diagram illustrating a display example of the image selection screen. The image selection screen 20 illustrated in FIG. 5 is a screen for searching for a desired image from the image data recorded on the memory card 17, and includes a graph display area 21, an image display area 22, and a map display area 23. And have.

グラフ表示領域21には、メモリカード17に記録されている画像データの各々に関する情報がプロットされた折れ線グラフが表示される。グラフ表示領域21に表示された折れ線グラフは、横軸が画像の記録日時を表し、縦軸が雰囲気「爽快な」についてレベル判定部125が判定した結果を表す。なお、折れ線グラフの縦軸でレベルを示す雰囲気は、ユーザが操作部材15を用いて選択することができる。   In the graph display area 21, a line graph in which information regarding each piece of image data recorded on the memory card 17 is plotted is displayed. In the line graph displayed in the graph display area 21, the horizontal axis represents the image recording date and time, and the vertical axis represents the result of the level determination unit 125 determining the atmosphere “exhilarating”. The atmosphere indicating the level on the vertical axis of the line graph can be selected by the user using the operation member 15.

グラフ表示領域21において、メモリカード17に記録されている各画像データは、黒丸または丸囲み数字マークでそれぞれ表されている。グラフの縦軸が表す雰囲気について、所定レベルの程度を有する画像データは丸囲み数字マークで表され、それ以外は黒丸で表される。丸囲み数字マークが示す数字は、各画像データを識別可能とするために互いに異なった値となっている。   In the graph display area 21, each image data recorded on the memory card 17 is represented by a black circle or a circled numerical mark. Regarding the atmosphere represented by the vertical axis of the graph, image data having a predetermined level is represented by a circled number mark, and other than that, it is represented by a black circle. The numbers indicated by the circled number marks are different from each other so that each image data can be identified.

グラフ表示領域21には、基準線25が2本表示されている。基準線25は、グラフの縦軸が表す雰囲気についてユーザが所望したレベル(程度)をそれぞれ表している。ユーザは、画像の検索を行うとき、操作部材15を用いて、基準線25を少なくとも一つ設定する。なお、ユーザは、操作部材15を用いた各種操作により、新規に基準線25をグラフ表示領域21に追加したり、グラフ表示領域21から基準線25を削除したり、基準線25を上下に移動させたりすることができる。   Two reference lines 25 are displayed in the graph display area 21. The reference line 25 represents the level (degree) desired by the user for the atmosphere represented by the vertical axis of the graph. When searching for an image, the user sets at least one reference line 25 using the operation member 15. The user can add a new reference line 25 to the graph display area 21, delete the reference line 25 from the graph display area 21, or move the reference line 25 up and down by various operations using the operation member 15. You can make it.

画像表示領域22は、グラフ表示領域21に丸囲み数字マークで表示された画像データについて、各丸囲みマークを伴ってサムネイル画像が表示される。画像表示領域22は、基準線25が示すレベルごとに区分けされている。画像表示領域22の上側の領域には、雰囲気「爽快な」について7レベルの画像データに関するサムネイル画像がそれぞれ表示されている。同様に、画像表示領域22の下側の領域には、雰囲気「爽快な」について10レベルの画像データに関するサムネイル画像がそれぞれ表示されている。ユーザがグラフ表示領域21に表示されている折れ線グラフの縦軸でレベルを示す雰囲気を変えた場合や、ユーザが基準線25を上下に移動させた場合、画像表示領域22の表示もそれらの変化に合わせて変化する。   In the image display area 22, thumbnail images are displayed with the respective circled marks for the image data displayed in the graph display area 21 with circled numerical marks. The image display area 22 is divided for each level indicated by the reference line 25. In the upper area of the image display area 22, thumbnail images related to 7-level image data are displayed for the atmosphere “exhilarating”. Similarly, in the area below the image display area 22, thumbnail images relating to 10-level image data are displayed for the atmosphere “exhilarating”. When the user changes the atmosphere indicating the level on the vertical axis of the line graph displayed in the graph display area 21, or when the user moves the reference line 25 up and down, the display of the image display area 22 also changes. It changes according to.

地図表示領域23は、グラフ表示領域21に丸囲み数字マークで表示された画像データについて、画像データの撮影場所に関する情報が地図上に表示される。地図は、フラッシュメモリ13b等に記憶された地図データに基づいて表示される。   In the map display area 23, information regarding the shooting location of the image data is displayed on the map for the image data displayed by the circled numerical marks in the graph display area 21. The map is displayed based on the map data stored in the flash memory 13b or the like.

図6は、画像選択画面20を表示するための動作に関するフローチャートである。
ステップS200では、制御部12は、インタフェース部16を介してメモリカード17から画像データを読み出す。
ステップS201では、制御部12は、グラフ表示領域21の折れ線グラフの縦軸においてレベルを示す雰囲気をユーザに選択させる。ユーザは、操作部材15を用いた所定の操作により、所望の雰囲気を選択する。
ステップS202では、制御部12は、ユーザに基準線25を表示するレベルを選択させる。ユーザは、操作部材15を用いた所定の操作により、所望のレベルを選択する。
FIG. 6 is a flowchart regarding the operation for displaying the image selection screen 20.
In step S <b> 200, the control unit 12 reads image data from the memory card 17 via the interface unit 16.
In step S <b> 201, the control unit 12 causes the user to select an atmosphere indicating a level on the vertical axis of the line graph in the graph display area 21. The user selects a desired atmosphere by a predetermined operation using the operation member 15.
In step S202, the control unit 12 causes the user to select a level for displaying the reference line 25. The user selects a desired level by a predetermined operation using the operation member 15.

ステップS203では、制御部12は、レベル判定部125を用いて、ステップS200で読み出した各画像データについて、ステップS201で選択した雰囲気に対するレベルを判定する。
ステップS204では、制御部12は、ステップS203で判定したレベルに基づいて、ステップS200で読み出した画像データの中から、ステップS202で選択したレベルに対応する画像データを抽出する。
In step S203, the control unit 12 uses the level determination unit 125 to determine the level for the atmosphere selected in step S201 for each image data read in step S200.
In step S204, based on the level determined in step S203, the control unit 12 extracts image data corresponding to the level selected in step S202 from the image data read in step S200.

ステップS205では、制御部12は、表示制御部126を用いて、画像選択画面20を生成して、表示部14に表示する。例えば、ステップS200で読み出した画像データのメタデータに含まれる撮影日時に関するデータ512とステップS203で判定したレベルに関する情報とに基づいてグラフ表示領域21に表示する折れ線グラフを生成して、ステップS204で抽出した画像データに基づいて画像表示領域22に表示するサムネイル画像を生成して、ステップS204で抽出した画像データのメタデータに含まれる撮像場所に関するデータ513と地図データに基づいて地図表示領域23に表示する画像を生成する。   In step S <b> 205, the control unit 12 generates the image selection screen 20 using the display control unit 126 and displays it on the display unit 14. For example, a line graph to be displayed in the graph display area 21 is generated based on the data 512 related to the shooting date and time included in the metadata of the image data read in step S200 and the information related to the level determined in step S203, and in step S204. A thumbnail image to be displayed in the image display area 22 is generated based on the extracted image data, and the map display area 23 is generated based on the data 513 relating to the imaging location and the map data included in the metadata of the image data extracted in step S204. Generate an image to display.

ユーザは、こうして表示された画像選択画面20を見ることにより、所望の雰囲気(感情的特徴)を所望の程度有する画像データの検索結果を確認することができる。ユーザは、検索の結果得られた画像データのいずれかを選択して、画像を再生することができる。   By viewing the image selection screen 20 displayed in this manner, the user can confirm the search result of image data having a desired atmosphere (emotional feature) in a desired degree. The user can select one of the image data obtained as a result of the search and reproduce the image.

図7は、図6のステップS203の処理で用いられるレベル判定部125の処理に関するフローチャートである。ステップS301では、制御部12は、図6のステップS201で選択された雰囲気を雰囲気キーワードとする雰囲気データを雰囲気データベース130から検索して、その雰囲気データに含まれる色相の範囲、彩度の範囲、明度の範囲に関する情報を取得する。   FIG. 7 is a flowchart relating to the processing of the level determination unit 125 used in the processing of step S203 of FIG. In step S301, the control unit 12 searches the atmosphere database 130 for atmosphere data using the atmosphere selected in step S201 of FIG. 6 as the atmosphere keyword, and the hue range, saturation range, Get information about the brightness range.

ステップS302では、制御部12は、画素検出部124を用いて、図6のステップS200で読み出された各画像データの各々の中から、ステップS301で取得した色相の範囲、彩度の範囲、明度の範囲に含まれる色情報を有する画素を検出する。   In step S302, the control unit 12 uses the pixel detection unit 124 to select the hue range, saturation range, and the like acquired in step S301 from each of the image data read in step S200 of FIG. Pixels having color information included in the brightness range are detected.

ステップS303では、制御部12は、ステップS302で検出した画素の数を、各画像データごとに算出して、その画素数に基づいて、レベルを判定する。例えば、制御部12は、算出した画素数m1と画像データの総画素数m2との割合m=m1/m2を算出して、その割合mが0のときは0レベル、0<m≦0.1のときは1レベル、0.1<m≦0.2のときは2レベル、・・・、0.9<m≦1のとき10レベルといったように判定することにすればよい。   In step S303, the control unit 12 calculates the number of pixels detected in step S302 for each image data, and determines the level based on the number of pixels. For example, the control unit 12 calculates a ratio m = m1 / m2 between the calculated number of pixels m1 and the total number of pixels m2 of the image data, and when the ratio m is 0, 0 level, 0 <m ≦ 0. It may be determined such that 1 level is 1 level, 0.1 <m ≦ 0.2 is 2 level,..., 0.9 <m ≦ 1 is 10 level.

以上で説明した実施の形態によれば、以下の作用効果が得られる。
デジタルカメラ100は、フラッシュメモリ13bと制御部12とを備える。フラッシュメモリ13bには、複数の色情報と、各色情報を有する画像の雰囲気をそれぞれ表す複数の感情的特徴(雰囲気キーワード)とを対応付けた雰囲気データベース130が記憶されている。制御部12は、操作部材15を用いた手動選択操作を受けつけて、複数の感情的特徴の少なくとも一つと、当該感情的特徴の程度とを選択する(図5のステップS201およびステップS202)。また、制御部12は、メモリカード17から読み出した複数の画像中の色情報をそれぞれ検出して(画素検出部124、図6のステップS302)、ステップS201で選択された感情的特徴に対応する色情報(色相、彩度、明度)が複数の画像の各々に含まれる程度(画素数)を判定する(図6のステップS303)。制御部12は、レベル判定部125の判定結果に基づいて、複数の画像データのうち、ステップS202で選択された感情的特徴の程度に対応する画像を画像表示領域22に表示する。このような構成を有することにより、デジタルカメラ100は、所定の雰囲気、印象、感情などを、所定の程度有する画像を検索することができる。また、デジタルカメラ100では、基準線25を複数設定して、画像表示領域22に複数種類の適合度の画像をそれぞれ表示することができる。ユーザは、これら複数種類のレベルの画像を比較検討して、所定の雰囲気を有する画像を撮影するための構図について学ぶことができる。
According to the embodiment described above, the following operational effects can be obtained.
The digital camera 100 includes a flash memory 13b and a control unit 12. The flash memory 13b stores an atmosphere database 130 in which a plurality of pieces of color information and a plurality of emotional features (atmosphere keywords) each representing the atmosphere of an image having each piece of color information are associated with each other. The control unit 12 accepts a manual selection operation using the operation member 15 and selects at least one of the plurality of emotional features and the degree of the emotional feature (step S201 and step S202 in FIG. 5). Further, the control unit 12 detects color information in each of the plurality of images read from the memory card 17 (pixel detection unit 124, step S302 in FIG. 6), and corresponds to the emotional feature selected in step S201. The degree (number of pixels) that the color information (hue, saturation, brightness) is included in each of the plurality of images is determined (step S303 in FIG. 6). Based on the determination result of the level determination unit 125, the control unit 12 displays an image corresponding to the degree of the emotional feature selected in step S <b> 202 in the image display area 22 among the plurality of image data. By having such a configuration, the digital camera 100 can search for an image having a predetermined atmosphere, impression, emotion, and the like. In the digital camera 100, a plurality of reference lines 25 can be set and images of a plurality of types of fitness can be displayed in the image display area 22. The user can learn the composition for photographing an image having a predetermined atmosphere by comparing and examining these images of a plurality of types.

以上で説明した実施形態は、以下のように変形して実施できる。
〔変形例1〕 上記の実施の形態では、画像再生装置の一例としてデジタルカメラ100を用いて説明を行ったが、本発明の適用範囲はデジタルカメラ100だけに限定されない。表示用モニターおよびその表示用モニターに画像を再生表示する機能と、上述した動作(図6,7に示すフローチャートの動作)を実行させるプログラムを記憶する記憶部と、そのプログラムに従って動作制御する制御部とを有する電子機器であれば、本発明を適用することができる。例えば、本発明は、上述したような画像再生プログラム(図6,7)がインストールされたパーソナルコンピュータにも適用することができる。
The embodiment described above can be implemented with the following modifications.
[Modification 1] In the above embodiment, the digital camera 100 has been described as an example of the image reproducing device, but the scope of application of the present invention is not limited to the digital camera 100 alone. A display monitor, a function for reproducing and displaying an image on the display monitor, a storage unit for storing a program for executing the above-described operation (the operation of the flowcharts shown in FIGS. 6 and 7), and a control unit for controlling operation according to the program The present invention can be applied to any electronic device having the following. For example, the present invention can also be applied to a personal computer in which the above-described image reproduction program (FIGS. 6 and 7) is installed.

〔変形例2〕 表示制御部126が生成する画像選択画面20は、図5に例示した形式の画面だけに限定しない。例えば、画像選択画面20を以下のように変更してもよい。
(1) 地図表示領域23を表示しないことにしてもよい。
(2) グラフ表示領域21と画像表示領域22と地図表示領域23とは、同時に表示部14に表示しなくてもよい。例えば、所定の操作部材15を用いて、グラフ表示領域21と画像表示領域22と地図表示領域23とを順番に切り替えることにしてもよい。グラフ表示領域21または地図表示領域23を表示部14に表示させているときは、ステップS203で判定されたレベルがステップS202で選択されたレベルと一致するサムネイル画像をさらに表示することにしてもよい。
(3) グラフ表示領域21に複数の雰囲気に関する複数の折れ線グラフをそれぞれ表示することにしてもよい。このとき、複数の折れ線グラフを重ねて表示することにしてもよく、基準線25をそれらの折れ線グラフで共用することにしてもよい。
(4) グラフ表示領域21に折れ線グラフ以外のグラフを表示することにしてもよい。例えば、横軸が画像を識別するための情報であり、縦軸が所定の雰囲気についてレベル判定部125が判定したレベルである棒グラフを表示することにしてもよい。
[Modification 2] The image selection screen 20 generated by the display control unit 126 is not limited to the screen of the format illustrated in FIG. For example, the image selection screen 20 may be changed as follows.
(1) The map display area 23 may not be displayed.
(2) The graph display area 21, the image display area 22, and the map display area 23 may not be displayed on the display unit 14 at the same time. For example, the graph display area 21, the image display area 22, and the map display area 23 may be sequentially switched using a predetermined operation member 15. When the graph display area 21 or the map display area 23 is displayed on the display unit 14, a thumbnail image in which the level determined in step S203 matches the level selected in step S202 may be further displayed. .
(3) A plurality of line graphs related to a plurality of atmospheres may be displayed in the graph display area 21. At this time, a plurality of line graphs may be superimposed and displayed, or the reference line 25 may be shared by the line graphs.
(4) A graph other than the line graph may be displayed in the graph display area 21. For example, a bar graph in which the horizontal axis is information for identifying an image and the vertical axis is a level determined by the level determination unit 125 for a predetermined atmosphere may be displayed.

〔変形例3〕 表示制御部126が表示部14に表示する画像は、画像選択画面20だけに限定されない。例えば、図8のような雰囲気分布画面30を表示することにしてもよい。雰囲気分布画面30には、メモリカード17に記憶されている各雰囲気の画像データの個数を表すレーダーチャート31が含まれる。レーダーチャート31の周囲には、各雰囲気の適合度が最も高い画像が表示されている。 [Modification 3] The image displayed on the display unit 14 by the display control unit 126 is not limited to the image selection screen 20 alone. For example, an atmosphere distribution screen 30 as shown in FIG. 8 may be displayed. The atmosphere distribution screen 30 includes a radar chart 31 representing the number of image data of each atmosphere stored in the memory card 17. Around the radar chart 31, an image having the highest degree of suitability of each atmosphere is displayed.

〔変形例4〕 制御部12は、ステップS201で選択された雰囲気(感情的特徴)に対して反対の雰囲気(感情的特徴)についても、レベル判定部125を用いて、ステップS200で読み出された各画像データに対してレベルを判定させてもよい。そして、制御部12は、各画像データに対してステップS203で判定されたレベルに対して、反対の雰囲気(感情的特徴)に対するレベルを減ずる補正を行うことにしてもよい。反対の雰囲気とは、例えば「爽快な」に対しては「憂鬱な」、「きれいな」に対しては「汚い」、「楽しい」に対しては「苦しい」、「明るい」に対しては「暗い」である。また、制御部12はm、シーン判定部121によりポートレートモードが選択されているとき、ステップS201で選択された雰囲気(感情的特徴)と、顔認識(表情認識)により判断された人物の表情に基づいてレベル補正を行うことにしてもよい。例えば、雰囲気(感情的特徴)として「さわやかな」が選択されているとき、人物の表情が笑顔の場合はレベルを増加させ、人物が目をつむっている場合はレベルを減少させる補正を行ってもよい。 [Modification 4] The control unit 12 reads out the atmosphere (emotional feature) opposite to the atmosphere (emotional feature) selected in step S201 using the level determination unit 125 in step S200. The level may be determined for each image data. Then, the control unit 12 may perform correction to reduce the level for the opposite atmosphere (emotional feature) with respect to the level determined in step S203 for each image data. Opposite atmospheres are, for example, “depressed” for “exhilarating”, “dirty” for “clean”, “stressing” for “fun”, It's dark. When the portrait mode is selected by the scene determination unit 121, the control unit 12 determines that the atmosphere (emotional feature) selected in step S201 and the facial expression of the person determined by face recognition (expression recognition). The level correction may be performed based on the above. For example, when “Refreshing” is selected as the atmosphere (emotional feature), the level is increased if the person ’s facial expression is smiling, and the level is decreased if the person ’s eyes are closed. Also good.

〔変形例5〕 上記実施形態では、図6,7にて説明したように画像再生の際に、レベル判定部125による各画像のレベル判定を行っている。しかしながら撮像動作の際に、バッファメモリ13aに一時保存(メモリカード17に画像記録する前)された画像に対して、上述したレベル判定部125がベル判定動作(図7で既述した動作)を行うようにしても良い。この場合において、そのレベル判定結果は、撮影した(レベル判定した)画像と共に、その画像に付随するメタデータとしてメモリカード17に記録するようにしておけば、画像再生時にはそのメタデータに基づく検索処理を行うことで、上記実施形態で述べたのと同様な検索処理を行うことができる。 [Modification 5] In the above-described embodiment, as described with reference to FIGS. 6 and 7, the level determination unit 125 determines the level of each image during image reproduction. However, during the imaging operation, the level determination unit 125 described above performs the bell determination operation (the operation described above with reference to FIG. 7) on the image temporarily stored in the buffer memory 13a (before recording the image on the memory card 17). You may make it do. In this case, if the level determination result is recorded in the memory card 17 as metadata accompanying the captured image (level determined) with the image, a search process based on the metadata at the time of image reproduction is possible. By performing the above, it is possible to perform a search process similar to that described in the above embodiment.

以上で説明した実施の形態や変形例はあくまで例示に過ぎず、発明の特徴が損なわれない限り本発明はこれらの内容に限定されない。また、以上で説明した実施の形態や変形例は発明の特徴が損なわれない限り組み合わせて実行してもよい。   The embodiments and modifications described above are merely examples, and the present invention is not limited to these contents as long as the features of the invention are not impaired. Further, the embodiments and modifications described above may be combined and executed as long as the features of the invention are not impaired.

12 制御部
13 記憶部
14 表示部
15 操作部材
16 インタフェース部
17 メモリカード
20 画像選択画面
21 グラフ表示領域
22 画像表示領域
23 地図表示領域
25 基準線
30 雰囲気分布画面
100 デジタルカメラ
120 画像処理部
121 シーン判定部
122 代表色決定部
123 雰囲気決定部
124 画素検出部
125 レベル判定部
126 表示制御部
130 雰囲気データベース
12 control unit 13 storage unit 14 display unit 15 operation member 16 interface unit 17 memory card 20 image selection screen 21 graph display region 22 image display region 23 map display region 25 reference line 30 atmosphere distribution screen 100 digital camera 120 image processing unit 121 scene Determination unit 122 Representative color determination unit 123 Atmosphere determination unit 124 Pixel detection unit 125 Level determination unit 126 Display control unit 130 Atmosphere database

Claims (4)

複数の色情報と、各色情報を有する画像の雰囲気をそれぞれ表す複数の感情的特徴とを対応付けて記憶する記憶手段と、
前記複数の感情的特徴の少なくとも一つと、当該感情的特徴の程度とを選択する選択手段と、
複数の画像それぞれに含まれる色情報を検出する検出手段と、
前記選択手段により選択された前記感情的特徴に対応する色情報が前記複数の画像の各々に含まれる程度を、前記検出手段の検出結果に基づき判定するレベル判定手段と、
前記レベル判定手段の判定結果に基づいて、前記複数の画像のうち、前記選択手段によって選択された前記感情的特徴の程度に対応する画像を表示する表示手段と、
を備えることを特徴とする画像再生装置。
Storage means for storing a plurality of pieces of color information in association with a plurality of emotional features respectively representing the atmosphere of the image having each piece of color information;
A selection means for selecting at least one of the plurality of emotional characteristics and the degree of the emotional characteristics;
Detecting means for detecting color information included in each of the plurality of images;
Level determination means for determining the degree to which color information corresponding to the emotional feature selected by the selection means is included in each of the plurality of images based on a detection result of the detection means;
Display means for displaying an image corresponding to the degree of the emotional feature selected by the selection means among the plurality of images based on the determination result of the level determination means;
An image reproducing apparatus comprising:
請求項1に記載の画像再生装置において、
前記表示手段は、前記選択手段により選択された前記感情的特徴の程度に関する数値軸を有し、前記複数の画像の各々に対して前記レベル判定手段が判定した結果が表示されたグラフをさらに表示することを特徴とする画像再生装置。
The image reproduction apparatus according to claim 1,
The display means further has a numerical axis related to the degree of the emotional feature selected by the selection means, and further displays a graph on which the result determined by the level determination means is displayed for each of the plurality of images. An image reproducing apparatus characterized by:
請求項1または2に記載の画像再生装置において、
前記複数の画像の各々を代表する色情報を、前記複数の画像の各々から決定する代表色決定手段と、
前記記憶手段に記憶されている前記複数の感情的特徴から、前記複数の画像の各々の中から前記代表色決定手段により決定された色情報に対応付けられている感情的特徴を決定する雰囲気決定手段と、
をさらに備え、
前記表示手段は、前記複数の画像のうち、前記雰囲気決定手段により決定された感情的特徴が所定の感情的特徴である画像の数をさらに表示することを特徴とする画像再生装置。
The image reproduction apparatus according to claim 1 or 2,
Representative color determining means for determining color information representing each of the plurality of images from each of the plurality of images;
Atmosphere determination for determining an emotional feature associated with color information determined by the representative color determination unit from each of the plurality of images from the plurality of emotional features stored in the storage unit Means,
Further comprising
The image reproducing apparatus, wherein the display means further displays the number of images whose emotional characteristics determined by the atmosphere determination means are predetermined emotional characteristics among the plurality of images.
複数の色情報と各色情報を有する画像の雰囲気をそれぞれ表す複数の感情的特徴とを対応付けて記憶する記憶手段と、前記複数の感情的特徴の少なくとも一つと当該感情的特徴の程度とを選択する選択手段と、画像を表示する表示手段と、を備えた画像再生装置に適用される画像再生プログラムであって、
複数の画像それぞれに含まれる色情報を検出させ、
前記選択手段により選択された前記感情的特徴に対応する色情報が前記複数の画像の各々に含まれる程度を、前記検出の結果に基づき判定させ、
前記判定の結果に基づいて、前記複数の画像のうち、前記選択手段によって選択された前記感情的特徴の程度に対応する画像を、前記表示手段に表示させるように前記画像再生装置を動作させることを特徴とする画像再生プログラム。
A storage means for storing a plurality of color information and a plurality of emotional features each representing an atmosphere of an image having each color information, and selecting at least one of the plurality of emotional features and the degree of the emotional feature An image reproduction program applied to an image reproduction apparatus comprising a selection means for displaying and a display means for displaying an image,
Detect color information contained in each of multiple images,
The degree of color information corresponding to the emotional feature selected by the selection means is included in each of the plurality of images based on the detection result,
Based on the result of the determination, the image reproduction device is operated so that an image corresponding to the degree of the emotional feature selected by the selection unit among the plurality of images is displayed on the display unit. An image reproduction program characterized by the above.
JP2013044674A 2013-03-06 2013-03-06 Image reproduction apparatus and image reproduction program Pending JP2014175733A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013044674A JP2014175733A (en) 2013-03-06 2013-03-06 Image reproduction apparatus and image reproduction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013044674A JP2014175733A (en) 2013-03-06 2013-03-06 Image reproduction apparatus and image reproduction program

Publications (1)

Publication Number Publication Date
JP2014175733A true JP2014175733A (en) 2014-09-22

Family

ID=51696596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013044674A Pending JP2014175733A (en) 2013-03-06 2013-03-06 Image reproduction apparatus and image reproduction program

Country Status (1)

Country Link
JP (1) JP2014175733A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017164288A1 (en) * 2016-03-24 2017-09-28 日本電気株式会社 System, terminal, method, and program for displaying images
JP7027288B2 (en) 2018-09-19 2022-03-01 ヤフー株式会社 Decision device, decision method and decision program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318250A (en) * 2005-05-13 2006-11-24 Brother Ind Ltd Image edit device
JP2009141516A (en) * 2007-12-04 2009-06-25 Olympus Imaging Corp Image display device, camera, image display method, program, image display system
JP2010210746A (en) * 2009-03-09 2010-09-24 Nikon Systems Inc Image music reproduction device
JP2011154687A (en) * 2010-01-26 2011-08-11 Xerox Corp Method and apparatus for navigating image data set, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318250A (en) * 2005-05-13 2006-11-24 Brother Ind Ltd Image edit device
JP2009141516A (en) * 2007-12-04 2009-06-25 Olympus Imaging Corp Image display device, camera, image display method, program, image display system
JP2010210746A (en) * 2009-03-09 2010-09-24 Nikon Systems Inc Image music reproduction device
JP2011154687A (en) * 2010-01-26 2011-08-11 Xerox Corp Method and apparatus for navigating image data set, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017164288A1 (en) * 2016-03-24 2017-09-28 日本電気株式会社 System, terminal, method, and program for displaying images
JPWO2017164288A1 (en) * 2016-03-24 2018-10-18 日本電気株式会社 Image display system, terminal, method and program
JP7027288B2 (en) 2018-09-19 2022-03-01 ヤフー株式会社 Decision device, decision method and decision program

Similar Documents

Publication Publication Date Title
US8599251B2 (en) Camera
CN101325658B (en) Imaging device, imaging method and computer program
CN102014251B (en) Image processing apparatus and image processing method
CN101621628B (en) Photographic apparatus, setting method of photography conditions, and recording medium
JP4438871B2 (en) Imaging apparatus, control method thereof, and program
US8582891B2 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
US20090199226A1 (en) Image display apparatus, display control method, and display control program
US7672977B2 (en) Image reproducing apparatus, method of controlling same and control program therefor
CN101998050B (en) Digital photographing apparatus and method of controlling the same
KR20100055938A (en) Method and apparatus for displaying scene information, and digital photographing apparatus thereof
US8780226B2 (en) Image recording device and method which generates multi-image file based on classification
CN103685928A (en) Image processing device, and method for processing image
JP2008035125A (en) Image pickup device, image processing method, and program
JP2013228689A (en) Display device
JP2005250977A (en) Photographing apparatus, image reproducing device, image appreciation room, data accumulation/analysis apparatus, silver salt camera, and scanner
JP2014175733A (en) Image reproduction apparatus and image reproduction program
JP5381498B2 (en) Image processing apparatus, image processing program, and image processing method
JP2013165413A (en) Image display device
KR20100111092A (en) Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
JP5167964B2 (en) Display control apparatus, display control method, and program
US10410674B2 (en) Imaging apparatus and control method for combining related video images with different frame rates
JP2006237963A (en) Image display device, photographing device and image display method
JP7370762B2 (en) Imaging device and its control method
KR101946574B1 (en) Apparatus and method for reproducing image and computer-readable storage medium
JP2010157960A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170613