JP2013080464A - Image processing device, imaging device, and program - Google Patents

Image processing device, imaging device, and program Download PDF

Info

Publication number
JP2013080464A
JP2013080464A JP2012206297A JP2012206297A JP2013080464A JP 2013080464 A JP2013080464 A JP 2013080464A JP 2012206297 A JP2012206297 A JP 2012206297A JP 2012206297 A JP2012206297 A JP 2012206297A JP 2013080464 A JP2013080464 A JP 2013080464A
Authority
JP
Japan
Prior art keywords
color
label
unit
scene
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012206297A
Other languages
Japanese (ja)
Inventor
Tsukasa Murata
司 村田
Hiroko Kobayashi
寛子 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012206297A priority Critical patent/JP2013080464A/en
Priority to US14/239,445 priority patent/US20140198234A1/en
Priority to PCT/JP2012/074230 priority patent/WO2013042768A1/en
Priority to CN201280039636.6A priority patent/CN103718172A/en
Publication of JP2013080464A publication Critical patent/JP2013080464A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device, an imaging device, and a program which can reduce a load of calculation processing for labeling an image.SOLUTION: An image processing device comprises: an image acquisition unit for acquiring taken image data; a scene determination unit for determining a scene from the acquired image data; a main color extraction unit for extracting a main color on the basis of frequency distribution of color information from the acquired image data; a storage unit for prestoring color information and a first label in association for each scene; and a first label generation unit for reading out the first label prestored in association with the extracted main color and the determined scene from the storage unit, and generating the read first label as a label of the acquired image data.

Description

本発明は、画像処理装置、撮像装置、及びプログラムに関する。   The present invention relates to an image processing device, an imaging device, and a program.

画像を分類する従来技術の画像処理装置では、画像を予め定められているパターンの領域に分割し、各領域の色に関する分布のヒストグラムを作成する。そして、従来技術の画像処理装置では、特定のしきい値を超える最頻出色をその領域の代表領域色として決定する。さらに、従来技術の画像処理装置では、その領域の特徴量を抽出し、決定した領域の特徴量と代表色に基づき、特徴量を抽出した画像を定義して、画像辞書を構築していた。
従来技術の画像処理装置では、例えば、画像上部の大きな領域の代表色を抽出して、抽出した代表色に基づいて、「青空」、「曇り空」、「夜空」などを定義して画像辞書を構成していた(例えば、特許文献1参照)。
In a conventional image processing apparatus that classifies images, an image is divided into predetermined pattern areas, and a histogram of distribution relating to the color of each area is created. In the conventional image processing apparatus, the most frequently appearing color exceeding a specific threshold is determined as the representative region color of the region. Further, in the conventional image processing apparatus, the feature amount of the region is extracted, and based on the determined feature amount of the region and the representative color, the image from which the feature amount is extracted is defined, and the image dictionary is constructed.
In a conventional image processing apparatus, for example, a representative color of a large area at the top of an image is extracted, and based on the extracted representative color, an image dictionary is defined by defining “blue sky”, “cloudy sky”, “night sky”, and the like. It comprised (for example, refer patent document 1).

特開2001−160057号公報Japanese Patent Laid-Open No. 2001-160057

しかしながら、特許文献1に記載の従来技術では、予め定められた領域毎に抽出した特徴量と、最頻出色である代表色により分類していたため、画像を分類する(ラベリングする)ための演算処理の負担が大きかった。   However, in the prior art described in Patent Document 1, since the classification is performed based on the feature amount extracted for each predetermined region and the representative color that is the most frequently appearing color, the calculation process for classifying (labeling) the image The burden of was great.

本発明は、上記の問題点に鑑みてなされたものであって、画像をラベリングするための演算処理の負荷を軽減できる画像処理装置、撮像装置、及びプログラムを提供することを目的としている。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an imaging apparatus, and a program that can reduce the load of calculation processing for labeling an image.

上記目的を達成するため、本発明に係る画像処理装置は、撮像された画像データを取得する画像取得部と、前記取得された画像データからシーンを判別するシーン判別部と、前記取得された画像データから色情報の頻度分布に基づき主要色を抽出する主要色抽出部と、シーン毎に色情報と第1ラベルとが関連付けられて予め記憶されている記憶部と、前記記憶部から、前記抽出された主要色と前記判別されたシーンとに関連付けて予め記憶されている前記第1ラベルを読み出し、前記読み出した第1ラベルを前記取得された画像データのラベルとして生成する第1ラベル生成部と、を備えることを特徴としている。   To achieve the above object, an image processing apparatus according to the present invention includes an image acquisition unit that acquires captured image data, a scene determination unit that determines a scene from the acquired image data, and the acquired image. A main color extracting unit that extracts a main color from data based on a frequency distribution of color information; a storage unit in which color information and a first label are associated in advance for each scene; and the extraction from the storage unit A first label generation unit that reads the first label stored in advance in association with the determined main color and the determined scene, and generates the read first label as a label of the acquired image data; It is characterized by providing.

また、本発明に係る撮像装置は、上記に記載の画像処理装置を備えることを特徴としている。   In addition, an imaging apparatus according to the present invention includes the image processing apparatus described above.

また、本発明は、撮像部を有する画像処理装置の画像処理をコンピュータに実行させるためのプログラムであり、撮像した画像データを取得する画像取得手順と、前記取得された画像データからシーンを判別するシーン判別手順と、前記取得された画像データから色情報の頻度分布に基づき主要色を抽出する主要色抽出手順と、前記抽出された主要色と、シーン毎に色情報と第1ラベルとが関連付けられて予め記憶されている記憶部から前記第1ラベルを読み出し、前記読み出した第1ラベルを前記取得された画像データのラベルとして生成する第1ラベル生成手順と、をコンピュータに実行させることを特徴としている。   Further, the present invention is a program for causing a computer to execute image processing of an image processing apparatus having an imaging unit, and an image acquisition procedure for acquiring captured image data, and a scene is determined from the acquired image data. A scene determination procedure, a main color extraction procedure for extracting a main color from the acquired image data based on a frequency distribution of color information, the extracted main color, and color information and a first label associated with each scene A first label generation procedure for reading the first label from a storage unit stored in advance and generating the read first label as a label of the acquired image data. It is said.

また、本発明の一態様の画像処理装置は、人物撮影シーンであるか否かを判別するシーン判別部と、前記シーン判別部により人物撮影シーンではないと判別されたとき、前記画像データから色情報を抽出する色抽出部と、色情報と所定の意味を有する文字とが関連付けられて予め記憶されている記憶部と、前記シーン判別部により人物撮影シーンではないと判別されたとき、前記色抽出部に抽出された前記色情報に対応する前記所定の意味を有する文字を前記記憶部から読み出す読み出し部とを備えることを特徴とする。   An image processing apparatus according to an aspect of the present invention includes a scene determination unit that determines whether or not a person-captured scene, and a color from the image data when the scene determination unit determines that the scene is not a person-captured scene. A color extracting unit that extracts information; a storage unit that stores color information and characters having a predetermined meaning in association with each other; and the scene determination unit that determines that the color is not a person-captured scene. And a reading unit that reads out the character having the predetermined meaning corresponding to the color information extracted by the extraction unit from the storage unit.

本発明の画像処理装置によれば、好適な画像のラベリングを実現し得る。また、本発明によれば、この画像処理装置を備えた撮像装置及びプログラムを提供することができる。   According to the image processing apparatus of the present invention, suitable image labeling can be realized. In addition, according to the present invention, it is possible to provide an imaging apparatus and a program including the image processing apparatus.

本実施形態に係る撮像システム1の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the imaging system 1 which concerns on this embodiment. 同実施形態に係る画像処理部4のブロック図である。2 is a block diagram of an image processing unit 4 according to the embodiment. FIG. 同実施形態に係る記憶媒体200に画像データに関連付けられて記憶されている画像識別情報の一例を説明する図である。It is a figure explaining an example of the image identification information memorize | stored linked | related with the image data in the storage medium 200 based on the embodiment. 同実施形態に係るテーブル記憶部45に記憶されている主要色の組み合わせと第1ラベルの一例を説明する図である。It is a figure explaining an example of the combination of the main color memorize | stored in the table memory | storage part 45 based on the embodiment, and a 1st label. 同実施形態に係る画像データの主要色の一例を説明する図である。It is a figure explaining an example of the main colors of the image data concerning the embodiment. 図5で抽出された主要色のラベリングの一例を説明する図である。It is a figure explaining an example of labeling of the main color extracted in FIG. 同実施形態に係るスポーツの画像データと色ベクトルの図である。It is a figure of the image data and color vector of the sports which concern on the embodiment. 同実施形態に係るポートレートの画像データと色ベクトルの図である。It is a figure of portrait image data and color vectors according to the embodiment. 同実施形態に係る風景の画像データと色ベクトルの図である。It is a figure of the image data and color vector of the landscape concerning the embodiment. 同実施形態に係るシーン毎の主要色の組み合わせの第1ラベルの一例を説明する図である。It is a figure explaining an example of the 1st label of the combination of main colors for every scene concerning the embodiment. 同実施形態に係る時刻、季節と色ベクトルによる第1ラベルの例を説明する図である。It is a figure explaining the example of the 1st label by time, a season, and a color vector concerning the embodiment. 同実施形態に係る撮像装置100が行うラベル生成のフローチャートである。6 is a flowchart of label generation performed by the imaging apparatus 100 according to the embodiment. 第2実施形態に係る画像処理部4aのブロック図である。It is a block diagram of the image processing part 4a which concerns on 2nd Embodiment. 第3実施形態に係る画像処理部4bのブロック図である。It is a block diagram of the image processing part 4b which concerns on 3rd Embodiment. 同実施形態に係る撮像装置100が行うラベル生成のフローチャートである。6 is a flowchart of label generation performed by the imaging apparatus 100 according to the embodiment. 第4実施形態に係る画像データから、複数の色ベクトルを抽出する一例を説明する図である。It is a figure explaining an example which extracts a several color vector from the image data which concerns on 4th Embodiment. 撮像画像の特徴量を抽出するプロセスの一例を模式的に示す図である。It is a figure which shows typically an example of the process which extracts the feature-value of a captured image. 撮像画像の特徴量を抽出するプロセスの別の一例を模式的に示す図である。It is a figure which shows typically another example of the process which extracts the feature-value of a captured image. 笑顔レベルの判定方法を模式的に示すフローチャートである。It is a flowchart which shows typically the determination method of a smile level. 画像処理装置からの出力画像の一例を示す図である。It is a figure which shows an example of the output image from an image processing apparatus. 画像処理装置からの出力画像の別の例を示す図である。It is a figure which shows another example of the output image from an image processing apparatus. 撮像装置の画像処理部の内部構成を表す概略ブロック図である。It is a schematic block diagram showing the internal structure of the image process part of an imaging device. 代表色の決定の流れを示すフローチャートである。It is a flowchart which shows the flow of determination of a representative color. 画像処理部における処理の一例を示す概念図である。It is a conceptual diagram which shows an example of the process in an image process part. 画像処理部における処理の一例を示す概念図である。It is a conceptual diagram which shows an example of the process in an image process part. 図24に示す主要領域に対して実施されたクラスタリングの結果を示す概念図である。It is a conceptual diagram which shows the result of the clustering implemented with respect to the main area | region shown in FIG. 文章付加部によって文章を付加された画像の一例である。It is an example of the image which the text was added by the text addition part. 文章付加部によって文章を付加された画像の別の一例である。It is another example of the image which the text was added by the text addition part. 色と単語との対応テーブルの一例を示す図である。It is a figure which shows an example of the correspondence table of a color and a word. 遠景画像(第2シーン画像)用の対応テーブルの一例を示す図である。It is a figure which shows an example of the correspondence table for a distant view image (2nd scene image). その他の画像(第3シーン画像)用の対応テーブルの一例を示す図である。It is a figure which shows an example of the corresponding | compatible table for other images (3rd scene image).

以下、図面を用いて、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
図1は、本実施形態に係る撮像システム1の構成を示す概略ブロック図である。
図1に示す撮像装置100は、撮像部2、カメラ制御部3、画像処理部4、記憶部5、バッファメモリ部6、表示部7、操作部11、通信部12、電源部13、及びバス15を備えている。
[First Embodiment]
FIG. 1 is a schematic block diagram illustrating a configuration of an imaging system 1 according to the present embodiment.
An imaging apparatus 100 illustrated in FIG. 1 includes an imaging unit 2, a camera control unit 3, an image processing unit 4, a storage unit 5, a buffer memory unit 6, a display unit 7, an operation unit 11, a communication unit 12, a power supply unit 13, and a bus. 15 is provided.

撮像部2は、レンズ部21、撮像素子22、及びAD変換部23を備えており、被写体を撮像して画像データを生成する。この撮像部2は、設定された撮像条件(例えば絞り値、露出等)に基づいてカメラ制御部3により制御され、レンズ部21を介して入力された被写体の光学像を、撮像素子22の撮像面上に結像させる。また、撮像部2は、撮像素子22から出力されたアナログ信号をAD変換部23においてデジタル信号に変換し、画像データを生成する。
なお、上述したレンズ部21は、撮像装置100に取り付けられて一体とされていてもよいし、撮像装置100に着脱可能に取り付けられてもよい。
The imaging unit 2 includes a lens unit 21, an imaging element 22, and an AD conversion unit 23. The imaging unit 2 images a subject and generates image data. The imaging unit 2 is controlled by the camera control unit 3 based on the set imaging conditions (for example, aperture value, exposure, etc.), and the imaging device 22 captures the optical image of the subject input through the lens unit 21. Form an image on the surface. In addition, the imaging unit 2 converts the analog signal output from the imaging element 22 into a digital signal in the AD conversion unit 23 to generate image data.
Note that the lens unit 21 described above may be attached to and integrated with the imaging apparatus 100, or may be detachably attached to the imaging apparatus 100.

撮像素子22は、撮像面に結像された光学像を光電変換したアナログ信号を、AD変換部23に出力する。AD変換部23は、撮像素子22から入力されたアナログ信号をデジタル信号に変換し、この変換したデジタル信号である画像データを出力する。   The imaging element 22 outputs an analog signal obtained by photoelectrically converting an optical image formed on the imaging surface to the AD conversion unit 23. The AD converter 23 converts the analog signal input from the image sensor 22 into a digital signal, and outputs image data that is the converted digital signal.

例えば、撮像部2は、操作部11における静止画撮影操作に応じて、撮像した静止画の画像データを出力する。また、撮像部2は、操作部11における動画撮影操作に応じて、所定の間隔で連続的に撮像した動画の画像データを出力する。そして、撮像部2によって撮像された静止画の画像データ及び動画の画像データは、カメラ制御部3の制御により、バッファメモリ部6や画像処理部4を介して記憶媒体200に記録される。また、撮像部2は、操作部11における撮影操作がされていない撮影待機状態の場合、所定の間隔で連続的に得られる画像データをスルー画像データ(スルー画)として出力する。そして、撮像部2によって得られたスルー画像データは、カメラ制御部3の制御により、バッファメモリ部6や画像処理部4を介して表示部7に表示される。   For example, the imaging unit 2 outputs image data of a captured still image in response to a still image shooting operation on the operation unit 11. Further, the imaging unit 2 outputs image data of moving images continuously captured at a predetermined interval in accordance with a moving image shooting operation in the operation unit 11. Then, still image data and moving image data captured by the imaging unit 2 are recorded in the storage medium 200 via the buffer memory unit 6 and the image processing unit 4 under the control of the camera control unit 3. The imaging unit 2 outputs image data obtained continuously at a predetermined interval as through image data (through image) in a shooting standby state in which no shooting operation is performed in the operation unit 11. The through image data obtained by the imaging unit 2 is displayed on the display unit 7 via the buffer memory unit 6 and the image processing unit 4 under the control of the camera control unit 3.

画像処理部4は、記憶部5に記憶されている画像処理条件に基づいて、バッファメモリ部6に記憶されている画像データに対して画像処理を実行する。ここで、バッファメモリ部6または記憶媒体200に記憶されている画像データとは、例えば、撮像部2によって撮像された静止画の画像データ、スルー画像データ、もしくは動画の画像データ、または記憶媒体200から読み出された画像データである。   The image processing unit 4 performs image processing on the image data stored in the buffer memory unit 6 based on the image processing conditions stored in the storage unit 5. Here, the image data stored in the buffer memory unit 6 or the storage medium 200 is, for example, still image data, through image data, or moving image data captured by the imaging unit 2, or the storage medium 200. The image data read out from.

記憶部5には、撮像装置100を制御するための、予め定められた撮影条件、画像処理条件、再生制御条件、表示制御条件、記録制御条件、及び出力制御条件などが記憶されている。例えば、記憶部5は、ROM(Read Only Memory)である。
なお、記憶部5には、撮像された動画の画像データ及び静止画の画像データが記録されてもよい。この場合、例えば、記憶部5は、フラッシュメモリ等であってもよい。
The storage unit 5 stores predetermined shooting conditions, image processing conditions, reproduction control conditions, display control conditions, recording control conditions, output control conditions, and the like for controlling the imaging apparatus 100. For example, the storage unit 5 is a ROM (Read Only Memory).
The storage unit 5 may record captured image data of moving images and image data of still images. In this case, for example, the storage unit 5 may be a flash memory or the like.

バッファメモリ部6は、カメラ制御部3が撮像装置100を制御する際の作業領域として利用される。撮像部2によって撮像された静止画の画像データ、スルー画像データ、もしくは動画の画像データ、または記憶媒体200から読み出された画像データは、カメラ制御部3の制御による画像処理の過程においてバッファメモリ部6に一時的に記憶される。バッファメモリ部6は、例えばRAM(Random Access Memory)である。   The buffer memory unit 6 is used as a work area when the camera control unit 3 controls the imaging apparatus 100. The still image image data, the through image data, or the moving image data captured by the imaging unit 2 or the image data read from the storage medium 200 is buffered in the course of image processing under the control of the camera control unit 3. It is temporarily stored in the unit 6. The buffer memory unit 6 is, for example, a RAM (Random Access Memory).

表示部7は、例えば、液晶ディスプレイであり、撮像部2によって撮像された画像データに基づく画像、もしくは記憶媒体200から読み出された画像データに基づく画像、またはメニュー画面、もしくは撮像装置100の動作状態や設定に関する情報等を表示する。   The display unit 7 is, for example, a liquid crystal display, and is an image based on the image data captured by the imaging unit 2 or an image based on the image data read from the storage medium 200, a menu screen, or the operation of the imaging device 100. Displays information about status and settings.

操作部11は、撮像装置100に対して操作者が操作入力するための操作スイッチを備えている。例えば、操作部11は、電源スイッチ、レリーズスイッチ、モードスイッチ、メニュースイッチ、上下左右選択スイッチ、確定スイッチ、取消スイッチ、及びその他の操作スイッチを備えている。操作部11が備えている上述のそれぞれのスイッチは、操作されることに応じて、それぞれの操作に対応した操作信号をカメラ制御部3に出力する。   The operation unit 11 includes an operation switch for an operator to input an operation to the imaging apparatus 100. For example, the operation unit 11 includes a power switch, a release switch, a mode switch, a menu switch, an up / down / left / right selection switch, a confirmation switch, a cancel switch, and other operation switches. Each of the above-described switches provided in the operation unit 11 outputs an operation signal corresponding to each operation to the camera control unit 3 in response to the operation.

通信部12には、カードメモリ等の着脱可能な記憶媒体200が挿入される。
通信部12を介して、この記憶媒体200に画像データの書込み、読み出し、または消去が実行される。
記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であり、例えば、撮像部2で撮像されて生成された画像データが記録される。なお、本実施形態において、記憶媒体200に記録される画像データは、例えば、イグジフ(Exif;Exchangeable Image File Format)形式のファイルである。
A removable storage medium 200 such as a card memory is inserted into the communication unit 12.
Writing, reading, or erasing of image data is executed on the storage medium 200 via the communication unit 12.
The storage medium 200 is a storage unit that is detachably connected to the imaging apparatus 100, and stores, for example, image data generated by being captured by the imaging unit 2. In the present embodiment, the image data recorded in the storage medium 200 is, for example, a file in an Exif (Exchangeable Image File Format) format.

電源部13は、撮像装置100が備えている各部に電力を供給する。電源部13は、例えばバッテリーを備えており、当該バッテリーから供給される電力の電圧を、上述の各部における動作電圧に変換する。そして、電源部13は、変換した動作電圧の電力を、撮像装置100の動作モード(例えば、撮影動作モード、またはスリープモード)に基づいて、カメラ制御部3の制御により上述の各部に供給する。   The power supply unit 13 supplies power to each unit included in the imaging device 100. The power supply unit 13 includes, for example, a battery, and converts the voltage of power supplied from the battery into the operating voltage in each of the above-described units. Then, the power supply unit 13 supplies the converted power of the operating voltage to the above-described units under the control of the camera control unit 3 based on the operation mode (for example, the shooting operation mode or the sleep mode) of the imaging device 100.

バス15は、撮像部2、カメラ制御部3、画像処理部4、記憶部5、バッファメモリ部6、表示部7、操作部11、及び通信部12と接続され、各部から出力された画像データや制御信号等を転送する。   The bus 15 is connected to the imaging unit 2, the camera control unit 3, the image processing unit 4, the storage unit 5, the buffer memory unit 6, the display unit 7, the operation unit 11, and the communication unit 12, and image data output from each unit. And transfer control signals.

カメラ制御部3は、撮像装置100が備えている各部を制御する。   The camera control unit 3 controls each unit included in the imaging device 100.

図2は、本実施形態に係る画像処理部4のブロック図である。
図2に示すように、画像処理部4は、画像取得部41、画像識別情報取得部42(シーン判別部)、色空間ベクトル生成部43、主要色抽出部44、テーブル記憶部45、第1ラベル生成部46、第2ラベル生成部47、ラベル出力部48を備えている。
FIG. 2 is a block diagram of the image processing unit 4 according to the present embodiment.
As shown in FIG. 2, the image processing unit 4 includes an image acquisition unit 41, an image identification information acquisition unit 42 (scene determination unit), a color space vector generation unit 43, a main color extraction unit 44, a table storage unit 45, and a first storage unit 45. A label generation unit 46, a second label generation unit 47, and a label output unit 48 are provided.

画像取得部41は、バス15を介して、撮像部2が撮像した画像データと、画像データと関連付けられて記憶されている画像識別情報とを記憶媒体200から読み出す。画像取得部41が読み出す画像データは、撮像システム1の使用者が操作部11の操作により選択した画像データである。画像取得部41は、取得した画像データを、色空間ベクトル生成部43に出力する。画像取得部41は、取得した画像識別情報を画像識別情報取得部42に出力する。   The image acquisition unit 41 reads the image data captured by the imaging unit 2 and the image identification information stored in association with the image data from the storage medium 200 via the bus 15. The image data read by the image acquisition unit 41 is image data selected by the user of the imaging system 1 by operating the operation unit 11. The image acquisition unit 41 outputs the acquired image data to the color space vector generation unit 43. The image acquisition unit 41 outputs the acquired image identification information to the image identification information acquisition unit 42.

図3は、本実施形態に係る記憶媒体200に画像データに関連付けられて記憶されている画像識別情報の一例を説明する図である。
図3において、左の列は項目例であり、右の列は情報の例である。図3に示すように、画像データと関連付けられて記憶されている項目は、撮像日時、画像全体の解像度、シャッタースピード、絞り値(F値)、ISO感度、測光モード、フラッシュ使用の有無、シーンモード、静止画・動画等である。これらの画像識別情報は、撮影者が撮像時に撮像システム1の操作部11で設定した情報と、撮像装置100が自動的に設定した情報である。また、これらの画像識別情報は、画像データと関連付けられて記憶されているExif規格の情報を用いるようにしてもよい。
項目において「シーン」(撮影モードともいう)とは、撮像装置100に予め設定されているシャッタースピード、F値、ISO感度、及び焦点距離などの組み合わせパターンである。これらの組み合わせパターンは、撮像する対象に合わせて予め設定され、記憶媒体200に記憶され、使用者が操作部11から手動で選択される。シーンは、例えば、ポートレート、風景、スポーツ、夜景ポートレート、パーティー、ビーチ、雪、夕焼け、夜景、クローズアップ、料理、美術館、花火、逆光、子供、ペットなどである。
FIG. 3 is a diagram illustrating an example of image identification information stored in association with image data in the storage medium 200 according to the present embodiment.
In FIG. 3, the left column is an example of items, and the right column is an example of information. As shown in FIG. 3, the items stored in association with the image data are the imaging date and time, the resolution of the entire image, the shutter speed, the aperture value (F value), the ISO sensitivity, the metering mode, the presence / absence of flash use, the scene Mode, still image / moving image, etc. These pieces of image identification information are information set by the photographer using the operation unit 11 of the imaging system 1 at the time of imaging, and information automatically set by the imaging apparatus 100. Further, the Exif standard information stored in association with the image data may be used as the image identification information.
In the item, “scene” (also referred to as a shooting mode) is a combination pattern such as shutter speed, F value, ISO sensitivity, and focal length set in advance in the imaging apparatus 100. These combination patterns are preset according to the object to be imaged, stored in the storage medium 200, and manually selected by the user from the operation unit 11. The scene is, for example, portrait, landscape, sport, night view portrait, party, beach, snow, sunset, night view, close-up, cooking, museum, fireworks, backlight, children, pets, and the like.

図2に戻って、画像識別情報取得部42は、画像取得部41が出力する画像識別情報から、撮像された画像データに設定されている撮影情報を抽出し、抽出した撮影情報を第1ラベル生成部46に出力する。なお、撮影情報とは、第1ラベル生成部46が第1ラベルを生成するために必要な情報であり、例えばシーン、撮影日時等である。   Returning to FIG. 2, the image identification information acquisition unit 42 extracts the shooting information set in the captured image data from the image identification information output by the image acquisition unit 41, and uses the extracted shooting information as the first label. The data is output to the generation unit 46. Note that the shooting information is information necessary for the first label generation unit 46 to generate the first label, such as a scene and shooting date / time.

色空間ベクトル生成部43は、画像取得部41が出力する画像データを、予め定められている色空間のベクトルに変換する。予め定められている色空間は、例えばHSV(Hue(色相)、Saturation(彩度)、Brightness(明度))である。
色空間ベクトル生成部43は、画像データの全画素を色ベクトル毎に分類し、色ベクトル毎の頻度を検出し、色ベクトルの頻度分布を生成する。色空間ベクトル生成部43は、生成した色ベクトルの頻度分布を示す情報を主要色抽出部44に出力する。
なお、画像データがHSVの場合、色ベクトルは、次式(1)のように表される。
The color space vector generation unit 43 converts the image data output from the image acquisition unit 41 into a vector of a predetermined color space. The predetermined color space is, for example, HSV (Hue (Hue), Saturation (Saturation), Brightness (Brightness))).
The color space vector generation unit 43 classifies all pixels of the image data for each color vector, detects the frequency for each color vector, and generates a color vector frequency distribution. The color space vector generation unit 43 outputs information indicating the frequency distribution of the generated color vector to the main color extraction unit 44.
When the image data is HSV, the color vector is expressed as the following equation (1).

Figure 2013080464
Figure 2013080464

なお、式(1)において、i、j、kは、色相を0〜100%に正規化した場合、各々0から100の自然数である。   In equation (1), i, j, and k are natural numbers of 0 to 100, respectively, when the hue is normalized to 0 to 100%.

主要色抽出部44は、色空間ベクトル生成部43が出力する色ベクトルの頻度分布を示す情報から頻度の高い順に3色を主要色として抽出し、抽出した主要色を示す情報を第1ラベル生成部46に出力する。なお、頻度が高い色は、同じ色ベクトルの画素数が多い色である。また、主要色を示す情報とは、式(1)の色ベクトルと、この色ベクトル毎の頻度(画素数)である。
なお、本実施形態において、主要色抽出部44は、色空間ベクトル生成部43と主要色抽出部44とにより構成するようにしてもよい。
The main color extraction unit 44 extracts three colors as main colors in order of frequency from the information indicating the frequency distribution of the color vectors output from the color space vector generation unit 43, and generates the first label information indicating the extracted main colors. To the unit 46. In addition, a color with high frequency is a color with many pixels of the same color vector. The information indicating the main color is the color vector of Expression (1) and the frequency (number of pixels) for each color vector.
In the present embodiment, the main color extraction unit 44 may be configured by the color space vector generation unit 43 and the main color extraction unit 44.

テーブル記憶部45(記憶部)には、シーン毎と主要色の組み合わせ毎に、第1ラベルが予め関連付けられて記憶されている。   In the table storage unit 45 (storage unit), a first label is stored in association with each scene and each combination of main colors.

図4は、本実施形態に係るテーブル記憶部45に記憶されている主要色の組み合わせと第1ラベルの一例を説明する図である。
図4に示すように、画像データから抽出された主要色の中で、頻度が1番高い第1色、第1色の次に頻度が高い第2色、第2色の次に頻度が高い第3色の3色の組み合わせ毎と、シーン毎に第1ラベルが予め定義され、テーブル記憶部45に記憶されている。例えば、第1色が色1、第2色が色2、第3色が色3の組み合わせにおいて、シーン1の第1ラベルはラベル(1,1)であり、シーンnのラベルはラベル(1,n)である。同様に、第1色が色m、第2色が色m、第3色が色mの組み合わせにおいて、シーン1の第1ラベルはラベル(m,1)であり、シーンnのラベルはラベル(m,n)である。
このように、シーン毎と主要な3色の組み合わせ毎のラベルを、予め実験やアンケートなどにより定義しておき、テーブル記憶部45に記憶させておく。なお、第1色と第2色と第3色との頻度の比率は、1:1:1である。
FIG. 4 is a diagram illustrating an example of combinations of primary colors and first labels stored in the table storage unit 45 according to the present embodiment.
As shown in FIG. 4, among the main colors extracted from the image data, the first color having the highest frequency, the second color having the second highest frequency after the first color, and the second frequency having the second highest frequency. A first label is defined in advance for each combination of the three colors of the third color and for each scene, and is stored in the table storage unit 45. For example, when the first color is color 1, the second color is color 2, and the third color is color 3, the first label of scene 1 is label (1,1) and the label of scene n is label (1 , N). Similarly, in the combination where the first color is the color m, the second color is the color m, and the third color is the color m, the first label of the scene 1 is the label (m, 1), and the label of the scene n is the label ( m, n).
In this way, labels for each scene and each combination of the three main colors are defined in advance through experiments, questionnaires, etc., and stored in the table storage unit 45. The frequency ratio of the first color, the second color, and the third color is 1: 1: 1.

図2に戻って、第1ラベル生成部46は、画像識別情報取得部42が出力する撮影情報と主要色抽出部44が出力する主要色を示す情報とに関連付けられて記憶されている第1ラベルを、テーブル記憶部45から読み出す。第1ラベル生成部46は、読み出した第1ラベルを示す情報と、主要色抽出部44が出力する主要色を示す情報とを第2ラベル生成部47に出力する。また、第1ラベル生成部46は、例えば、撮影情報であるExifに含まれる情報等を用いてシーン判別する。   Returning to FIG. 2, the first label generation unit 46 stores the first information stored in association with the shooting information output from the image identification information acquisition unit 42 and the information indicating the main color output from the main color extraction unit 44. The label is read from the table storage unit 45. The first label generation unit 46 outputs information indicating the read first label and information indicating the main color output by the main color extraction unit 44 to the second label generation unit 47. In addition, the first label generation unit 46 determines a scene using, for example, information included in Exif that is shooting information.

第2ラベル生成部47は、主要色抽出部44が出力する主要色を示す情報から色ベクトル毎の頻度を抽出し、抽出した頻度を用いて3つの色ベクトルの頻度を正規化し、3つの主要色の比率を算出する。第2ラベル生成部47は、算出した3つの主要色の比率に基づき第1ラベルを修飾する修飾ラベル(第3ラベル)を生成し、生成した修飾ラベルを第1ラベル生成部46が出力する第1ラベルに修飾させることで第1ラベルを修正して、画像データに対する第2ラベルを生成する。第2ラベル生成部47は、生成した第2ラベルを示す情報をラベル出力部48に出力する。   The second label generation unit 47 extracts the frequency for each color vector from the information indicating the main color output from the main color extraction unit 44, normalizes the frequency of the three color vectors using the extracted frequency, and outputs the three main colors. Calculate the color ratio. The second label generation unit 47 generates a modification label (third label) for modifying the first label based on the calculated ratio of the three main colors, and the first label generation unit 46 outputs the generated modification label. The first label is modified by modifying it to one label to generate a second label for the image data. The second label generation unit 47 outputs information indicating the generated second label to the label output unit 48.

ラベル出力部48は、第2ラベル生成部47が出力する第2ラベルを示す情報を画像データと関連付けてテーブル記憶部45に記憶する。または、ラベル出力部48は、第2ラベル生成部47が出力するラベルを示す情報を画像データと関連付けて記憶媒体200に記憶する。   The label output unit 48 stores information indicating the second label output by the second label generation unit 47 in the table storage unit 45 in association with the image data. Alternatively, the label output unit 48 stores information indicating the label output by the second label generation unit 47 in the storage medium 200 in association with the image data.

図5は、本実施形態に係る画像データの主要色の一例を説明する図である。
図5において、横軸は色ベクトルであり、縦軸は色ベクトル(色情報)の頻度である。
図5の例は、色空間ベクトル生成部43が、画像データをHSVに分解した色ベクトル(HSV=(i,j,k);mは0から100の自然数)の頻度分布のグラフである。また、図5は、左端にH(色相)=0、S(彩度)=0、V(明度)=0、右端にH=100、S=100、V=100を模式的に順番に並べたものである。そして、色ベクトル毎に頻度を算出した結果を、模式的に表したものである。図5の例では、頻度が1番高い第1色c1が、ベクトルHSV=(i,j69,k100)、ばら色(ローズ)である。また、頻度が第1色の次に高い第2色c2が、ベクトルHSV=(i13,j52,k100)、淡黄色(サルファー)である。さらに、頻度が第2色の次に高い第3色c3が、ベクトルHSV=(i40,j65,k80)、冴青磁色(エメラルド)である。
FIG. 5 is a diagram illustrating an example of main colors of image data according to the present embodiment.
In FIG. 5, the horizontal axis is a color vector, and the vertical axis is the frequency of a color vector (color information).
The example of FIG. 5, the color space vector generation unit 43, the color decomposed image data into HSV vector (HSV = (i m, j m, k m); m is a natural number from 0 to 100) a graph of the frequency distribution of It is. FIG. 5 schematically shows H (hue) = 0, S (saturation) = 0, V (lightness) = 0 on the left end, and H = 100, S = 100, V = 100 on the right end in order. It is a thing. The result of calculating the frequency for each color vector is schematically shown. In the example of FIG. 5, the first color c1 having the highest frequency is the vector HSV = (i 1 , j 69 , k 100 ) and rose (rose). The second color c2 having the second highest frequency after the first color is a vector HSV = (i 13 , j 52 , k 100 ) and light yellow (sulfur). Further, the third color c3 having the second highest frequency after the second color is a vector HSV = (i 40 , j 65 , k 80 ), and a bitumen magnetic color (emerald).

図6は、図5で抽出された主要色のラベリングの一例を説明する図である。なお、図5及び図6の色ベクトルは、例えば、シーンモードがポートレートの画像データであるとして説明する。
図6(a)は、図5で抽出された第1色、第2色、第3色の例である。図6(a)に示すように、模式的に左から図5で示した色ベクトルの順番に並べて表してある。第1ラベル生成部46は、主要色抽出部44が抽出した第1色、第2色、第3色の組み合わせと関連付けられて記憶されている第1ラベルをテーブル記憶部45から読み出す。この場合、第1色、第2色、第3色の組み合わせの第1ラベルは、「愉快な」として記憶されている。また、図6(a)に示すように、正規化前の第1色、第2色、第3色の各幅は、L1、L2及びL3であり、幅L1、L2及びL3の長さは等しい。また、長さL10は、各幅L1、L2及びL3の合計である。
FIG. 6 is a diagram for explaining an example of labeling of main colors extracted in FIG. The color vectors in FIGS. 5 and 6 will be described assuming that the scene mode is portrait image data, for example.
FIG. 6A is an example of the first color, the second color, and the third color extracted in FIG. As shown in FIG. 6A, the color vectors are schematically arranged from the left in the order of the color vectors shown in FIG. The first label generation unit 46 reads the first label stored in association with the combination of the first color, the second color, and the third color extracted by the main color extraction unit 44 from the table storage unit 45. In this case, the first label of the combination of the first color, the second color, and the third color is stored as “fun”. Further, as shown in FIG. 6A, the widths of the first color, the second color, and the third color before normalization are L1, L2, and L3, and the lengths of the widths L1, L2, and L3 are equal. The length L10 is the sum of the widths L1, L2, and L3.

図6(b)は、抽出された第1色、第2色、第3色を、頻度で正規化して、第1色、第2色、第3色の各幅をL1’、L2’、L3’のように補正した後の図である。幅の合計L10は、図6(a)と同じである。図6(b)の例では、第1色の頻度が他の第2色と第3色の頻度より高いため、第2ラベル生成部47は、第1ラベル生成部46が読み出した第1ラベル「愉快な」に対して、予め定められているルールに基づき、第1ラベル「愉快な」を修飾する修飾ラベル「とても」を生成する。予め定められているルールとは、第1色が、他の第2色と第3色より、予め定められているしきい値より頻度が多い場合、第2ラベル生成部47は、修飾ラベル「とても」を生成して、生成した修飾ラベルを第1ラベル「愉快な」に修飾させることで第1ラベルを修正して、第2ラベル「とても愉快な」を生成する。なお、修飾ラベルは、例えば、第1ラベルを強調する単語である。   In FIG. 6B, the extracted first color, second color, and third color are normalized with frequency, and the widths of the first color, second color, and third color are expressed as L1 ′, L2 ′, It is a figure after correct | amending like L3 '. The total width L10 is the same as that in FIG. In the example of FIG. 6B, since the frequency of the first color is higher than the frequencies of the other second and third colors, the second label generating unit 47 reads the first label read by the first label generating unit 46. For “pleasant”, based on a predetermined rule, a decoration label “very” that modifies the first label “fun” is generated. The predetermined rule is that when the first color is more frequent than the predetermined threshold value than the other second and third colors, the second label generating unit 47 determines that the modified label “ The first label is modified by generating the “very” and modifying the generated modified label to the first label “fun” to generate the second label “very fun”. The modification label is, for example, a word that emphasizes the first label.

次に、修飾ラベルの例について説明する。
図6(a)に示すように、正規化前は、主要色抽出部44が抽出した3つの色の幅または面積は、1:1:1である。そして、色ベクトルの頻度に基づき正規化した後、3つの色の幅または面積は、図6(b)のように補正される。例えば、第1色の比率が、全体L10の約67%より大きい場合、第2ラベル生成部47は、修飾ラベルとして「とても」を第1ラベルに修飾させることで第1ラベルを修正して第2ラベルとする。また、第1色の比率が、全体L10の約50%より大きく67%より小さい場合、第2ラベル生成部47は、修飾ラベルなしとする。すなわち、第2ラベル生成部47は、第1ラベルを修正せずに第2ラベルとする。また、第1色の比率が、全体L10の約33%の場合、第2ラベル生成部47は、修飾ラベルとして「ちょっと」を第1ラベルに修飾させることで第1ラベルを修正して第2ラベルとする。
このように、第2ラベル生成部47は、第1ラベルに応じて、修飾する修飾ラベルを生成する。例えば、第1ラベル毎に、修飾可能な修飾ラベルを予めテーブル記憶部45に関連付けて記憶させておいてもよい。
Next, examples of modification labels will be described.
As shown in FIG. 6A, before normalization, the width or area of the three colors extracted by the main color extraction unit 44 is 1: 1: 1. Then, after normalization based on the frequency of the color vector, the widths or areas of the three colors are corrected as shown in FIG. For example, when the ratio of the first color is larger than about 67% of the entire L10, the second label generation unit 47 modifies the first label by modifying the first label by modifying “very” as the modification label. 2 labels. When the ratio of the first color is greater than about 50% and smaller than 67% of the entire L10, the second label generation unit 47 determines that there is no decoration label. That is, the second label generation unit 47 sets the first label as the second label without correcting it. When the ratio of the first color is about 33% of the entire L10, the second label generation unit 47 modifies the first label by modifying “first” as the decoration label to “second”. Label.
As described above, the second label generation unit 47 generates a modified label to be modified according to the first label. For example, for each first label, a modifiable modification label may be stored in association with the table storage unit 45 in advance.

次に、シーン毎の主要色の例について、図7〜図9を用いて説明する。
図7は、本実施形態に係るスポーツの画像データと色ベクトルの図である。図7(a)は、スポーツの画像データであり、図7(b)は、スポーツの色ベクトルのグラフである。図8は、本実施形態に係るポートレートの画像データと色ベクトルの図である。図8(a)は、ポートレートの画像データであり、図8(b)は、ポートレートの色ベクトルのグラフである。図9は、本実施形態に係る風景の画像データと色ベクトルの図である。図9(a)は、風景の画像データであり、図9(b)は、風景の色ベクトルのグラフである。図7(b)、図8(b)、図9(b)において、横軸は色ベクトル、縦軸は頻度(画素数)である。
Next, examples of main colors for each scene will be described with reference to FIGS.
FIG. 7 is a diagram of sports image data and color vectors according to the present embodiment. FIG. 7A shows sports image data, and FIG. 7B is a graph of sports color vectors. FIG. 8 is a diagram of portrait image data and color vectors according to the present embodiment. FIG. 8A shows portrait image data, and FIG. 8B is a graph of portrait color vectors. FIG. 9 is a diagram of landscape image data and color vectors according to the present embodiment. FIG. 9A is a landscape image data, and FIG. 9B is a graph of a landscape color vector. In FIG. 7B, FIG. 8B, and FIG. 9B, the horizontal axis is the color vector, and the vertical axis is the frequency (number of pixels).

図7(a)と図7(b)に示すように、図7(a)の画像データを画素毎に色ベクトルに分解し、各色ベクトルの頻度(画素数)をグラフ化すると図7(b)のようになる。主要色抽出部44は、このような色ベクトルの情報から、例えば、画素数の多い3つの色c11、c12、c13を抽出する。   As shown in FIGS. 7A and 7B, the image data in FIG. 7A is decomposed into color vectors for each pixel, and the frequency (number of pixels) of each color vector is graphed. )become that way. The main color extraction unit 44 extracts, for example, three colors c11, c12, and c13 having a large number of pixels from such color vector information.

図8(a)と図8(b)に示すように、図8(a)の画像データを画素毎に色ベクトルに分解し、各色ベクトルの頻度(画素数)をグラフ化すると図8(b)のようになる。主要色抽出部44は、このような色ベクトルの情報から、例えば、画素数の多い3つの色c21、c22、c23を抽出する。
図9(a)と図9(b)に示すように、図9(a)の画像データを画素毎に色ベクトルに分解し、各色ベクトルの頻度(画素数)をグラフ化すると図9(b)のようになる。主要色抽出部44は、このような色ベクトルの情報から、例えば、画素数の多い3つの色c31、c32、c33を抽出する。
As shown in FIGS. 8A and 8B, the image data of FIG. 8A is decomposed into color vectors for each pixel, and the frequency (number of pixels) of each color vector is graphed. )become that way. The main color extraction unit 44 extracts, for example, three colors c21, c22, and c23 having a large number of pixels from such color vector information.
As shown in FIGS. 9A and 9B, the image data of FIG. 9A is decomposed into color vectors for each pixel, and the frequency (number of pixels) of each color vector is graphed. )become that way. The main color extraction unit 44 extracts, for example, three colors c31, c32, and c33 having a large number of pixels from such color vector information.

図10は、本実施形態に係るシーン毎の主要色の組み合わせの第1ラベルの一例を説明する図である。図10において、行はシーン、列は色ベクトルを表している。
図10において、画像データがHSVの場合、色の組み合わせ(色1、色2、色3)のHSVの各色相、彩度及び強度は、例えば、色1が(94、100、25)(栗色、マルーン)、色2が(8、100、47)(たばこ色、コーヒー・ブラウン)、色3が(81、100、28)(深紫色、ダスキー・バイオレット)である。
また、色ベクトル(色4、色5、色6)のHSVの各色相、彩度及び強度は、例えば、色4が(1、69、100)(ばら色、ローズ)、色5が(13、25、100)(象牙色、アイボリー)、色6が(52、36、91)(水色、アクア・ブルー)である。
また、色ベクトル(色7、色8、色9)のHSVの各色相、彩度及び強度は、例えば、色7が(40、65、80)(冴青磁色、エメラルド)、色8が(0、0、100)(白色、ホワイト)、色9が(59、38、87)(サルビア色、サルビア・ブルー)である。
FIG. 10 is a diagram illustrating an example of a first label of a combination of main colors for each scene according to the present embodiment. In FIG. 10, rows represent scenes and columns represent color vectors.
In FIG. 10, when the image data is HSV, the hue, saturation, and intensity of the HSV of the combination of colors (color 1, color 2, color 3) are, for example, color 1 (94, 100, 25) (maroon) , Maroon), color 2 is (8, 100, 47) (tobacco color, coffee brown), and color 3 is (81, 100, 28) (deep purple, Dusky Violet).
Further, the hue, saturation, and intensity of the HSV of the color vector (color 4, color 5, and color 6) are, for example, that the color 4 is (1, 69, 100) (rose, rose) and the color 5 is (13, 25, 100) (ivory color, ivory) and color 6 is (52, 36, 91) (light blue, aqua blue).
Further, the hue, saturation, and intensity of the HSV of the color vector (color 7, color 8, color 9) are, for example, that color 7 is (40, 65, 80) (dark blue magnetic color, emerald) and color 8 is ( 0, 0, 100) (white, white) and color 9 is (59, 38, 87) (salvia, salvia blue).

図10に示すように、例えば、色の組み合わせが(色1、色2、色3)の場合、シーンがポートレートの第1ラベルは、「ダンディな」とテーブル記憶部45に記憶されている。同じ色の組み合わせ(色1、色2、色3)でもシーンが風景の第1ラベルは、「趣深い」であるとテーブル記憶部45に記憶されている。また、同じ色の組み合わせ(色1、色2、色3)でもシーンがスポーツの第1ラベルは、「(ラグビー風)男っぽい」であるとテーブル記憶部45に記憶されている。
また、図10に示すように、例えば、色の組み合わせが(色4、色5、色6)の場合、シーンがポートレートの第1ラベルは、「子供らしい」であるとテーブル記憶部45に記憶されている。同じ色の組み合わせ(色4、色5、色6)でもシーンが風景の第1ラベルは、「やわらかい」であるとテーブル記憶部45に記憶されている。また、同じ色の組み合わせ(色4、色5、色6)でもシーンがスポーツの第1ラベルは、「(テニス風)生き生きした」であるとテーブル記憶部45に記憶されている。
また、図10に示すように、例えば、色の組み合わせが(色7、色8、色9)の場合、シーンがポートレートの第1ラベルは、「若々しい」であるとテーブル記憶部45に記憶されている。同じ色の組み合わせ(色7、色8、色9)でもシーンが風景の第1ラベルは、「(新緑のイメージ)すがすがしい」であるとテーブル記憶部45に記憶されている。
また、同じ色の組み合わせ(色7、色8、色9)でもシーンがスポーツの第1ラベルは、「(海上スポーツ風)さわやかな」であるとテーブル記憶部45に記憶されている。
また、図10に示したように、テーブル記憶部45に記憶される情報は、色の組み合わせと形容詞や副詞の第1ラベルのみではなく、イメージを表す単語も関連付けて記憶させておくようにしてもよい。なお、イメージを表す単語とは、例えば、ラグビー風、新緑のイメージなどである。
As shown in FIG. 10, for example, when the combination of colors is (color 1, color 2, color 3), the first label whose portrait is the scene is stored in the table storage unit 45 as “dandy”. . The first label in which the scene is a landscape with the same color combination (color 1, color 2, and color 3) is stored in the table storage unit 45 as being “interesting”. Further, the first label in which the scene is sports even in the same color combination (color 1, color 2, and color 3) is stored in the table storage unit 45 as “(Rugby style) masculine”.
Also, as shown in FIG. 10, for example, when the color combination is (color 4, color 5, color 6), the first label whose scene is portrait is “childish” in the table storage unit 45. It is remembered. The first label in which the scene is a landscape with the same color combination (color 4, color 5, and color 6) is stored in the table storage unit 45 as “soft”. Further, the first label in which the scene is a sport even in the same color combination (color 4, color 5, and color 6) is stored in the table storage unit 45 as “(tennis style) lively”.
Also, as shown in FIG. 10, for example, when the combination of colors is (color 7, color 8, color 9), the table storage unit 45 indicates that the first label whose scene is portrait is “youthful”. Is remembered. The first label in which the scene is a landscape with the same color combination (color 7, color 8, and color 9) is stored in the table storage unit 45 as “(fresh green image) refreshing”.
In addition, the first label in which the scene is sports even in the same color combination (color 7, color 8, and color 9) is stored in the table storage unit 45 as “(sea sports style) refreshing”.
In addition, as shown in FIG. 10, the information stored in the table storage unit 45 stores not only the color combination and the first label of the adjective and adverb but also the word representing the image in association with each other. Also good. Note that the word representing an image is, for example, a rugby image or a fresh green image.

図11は、本実施形態に係る時刻、季節と色ベクトルによる第1ラベルの例を説明する図である。図11において、色ベクトルは、画像データがHSVであり、図10で説明した色の組み合わせ(色7、色8、色9)である。図11において、列は、時刻と季節を表し、行は、色の組み合わせ(色7、色8、色9)に対する各時刻と季節のラベルである。
図11に示すように、色の組み合わせ(色7、色8、色9)の第1ラベルは、時刻が朝の場合、「すがすがしい」、時刻が昼の場合、「雨っぽい」、時刻が夜の場合、「夜明けが近い」であるとテーブル記憶部45に記憶されている。
図11に示すように、色の組み合わせ(色7、色8、色9)の第1ラベルは、季節が春の場合、「肌寒い」、季節が夏の場合、「涼しい」、季節が秋の場合、「肌寒い」、季節が冬の場合、「寒い」であるとテーブル記憶部45に記憶されている。
このような時刻、季節に関する情報は、画像識別情報取得部42が取得した画像識別情報に含まれる撮影日時に基づき、第1ラベル生成部46が第1ラベルをテーブル記憶部45から読み出す。
また、図11に示すように、同じ色の組み合わせ(色7、色8、色9)に対して、春と秋で第1ラベルが同じでもよい。
FIG. 11 is a diagram illustrating an example of a first label based on time, season, and color vector according to the present embodiment. In FIG. 11, the color vector is HSV image data, and is the combination of colors described in FIG. 10 (color 7, color 8, and color 9). In FIG. 11, the columns represent time and season, and the rows are labels for each time and season for color combinations (color 7, color 8, color 9).
As shown in FIG. 11, the first label of the color combination (color 7, color 8, color 9) is “fresh” when the time is morning, “rainy” when the time is noon, In the case of night, it is stored in the table storage unit 45 that “dawn is near”.
As shown in FIG. 11, the first label of the color combination (color 7, color 8, color 9) is “chilly” when the season is spring, “cool” when the season is summer, and “cool” when the season is autumn When the season is winter, the table storage unit 45 stores “cold”.
For such information regarding the time and season, the first label generation unit 46 reads the first label from the table storage unit 45 based on the shooting date and time included in the image identification information acquired by the image identification information acquisition unit 42.
Moreover, as shown in FIG. 11, the first label may be the same in spring and autumn for the same color combination (color 7, color 8, color 9).

次に、撮像装置100が行うラベル生成処理について、図12を用いて説明する。図12は、本実施形態に係る撮像装置100が行うラベル生成のフローチャートである。   Next, label generation processing performed by the imaging apparatus 100 will be described with reference to FIG. FIG. 12 is a flowchart of label generation performed by the imaging apparatus 100 according to the present embodiment.

(ステップS1)撮像装置100の撮像部2は、カメラ制御部3の制御に基づき画像を撮像する。次に、撮像部2は、撮像した画像データをAD変換部23によりデジタルデータに変換し、変換した画像データを記憶媒体200に記憶する。
次に、カメラ制御部3は、撮像時に操作部11により使用者により設定または選択された撮影条件、及び撮像時に撮像装置100が自動的に設定または取得した情報等を含む画像識別情報を、撮像された画像データと関連付けて記憶媒体200に記憶する。ステップS1終了後、ステップS2に進む。
(Step S <b> 1) The imaging unit 2 of the imaging apparatus 100 captures an image based on the control of the camera control unit 3. Next, the imaging unit 2 converts the captured image data into digital data by the AD conversion unit 23, and stores the converted image data in the storage medium 200.
Next, the camera control unit 3 captures image identification information including imaging conditions set or selected by the user by the operation unit 11 during imaging and information automatically set or acquired by the imaging apparatus 100 during imaging. The image data is stored in the storage medium 200 in association with the image data. After step S1, the process proceeds to step S2.

(ステップS2)次に、画像処理部4の画像取得部41は、バス15を介して、撮像部2が撮像した画像データと、画像データと関連付けられて記憶されている画像識別情報とを記憶媒体200から読み出す。なお、画像取得部41が読み出す画像データは、撮像システム1の使用者が操作部11の操作により選択した画像データである。
次に、画像取得部41は、取得した画像データを、色空間ベクトル生成部43に出力する。次に、画像取得部41は、取得した画像識別情報を画像識別情報取得部42に出力する。ステップS2終了後、ステップS3に進む。
(Step S2) Next, the image acquisition unit 41 of the image processing unit 4 stores the image data captured by the imaging unit 2 via the bus 15 and the image identification information stored in association with the image data. Read from the medium 200. The image data read by the image acquisition unit 41 is image data selected by the user of the imaging system 1 by operating the operation unit 11.
Next, the image acquisition unit 41 outputs the acquired image data to the color space vector generation unit 43. Next, the image acquisition unit 41 outputs the acquired image identification information to the image identification information acquisition unit 42. After step S2, the process proceeds to step S3.

(ステップS3)次に、画像識別情報取得部42は、画像取得部41が出力する画像識別情報から撮像された画像データに設定されている撮影情報を抽出し、抽出した撮影情報を第1ラベル生成部46に出力する。ステップS3終了後、ステップS4に進む。   (Step S3) Next, the image identification information acquisition unit 42 extracts the shooting information set in the image data captured from the image identification information output by the image acquisition unit 41, and uses the extracted shooting information as the first label. The data is output to the generation unit 46. After step S3 ends, the process proceeds to step S4.

(ステップS4)次に、色空間ベクトル生成部43は、画像取得部41が出力する画像データを予め定められている色空間のベクトルに変換する。予め定められている色空間は、例えばHSVである。次に、色空間ベクトル生成部43は、生成した色ベクトル毎に画像データの全画素を分類し、色ベクトル毎の頻度を検出し、色ベクトルの頻度分布を生成する。次に、色空間ベクトル生成部43は、生成した色ベクトルの頻度分布を示す情報を主要色抽出部44に出力する。ステップS4終了後、ステップS5に進む。   (Step S4) Next, the color space vector generation unit 43 converts the image data output from the image acquisition unit 41 into a vector of a predetermined color space. The predetermined color space is, for example, HSV. Next, the color space vector generation unit 43 classifies all pixels of the image data for each generated color vector, detects the frequency for each color vector, and generates a color vector frequency distribution. Next, the color space vector generation unit 43 outputs information indicating the frequency distribution of the generated color vector to the main color extraction unit 44. After step S4 ends, the process proceeds to step S5.

(ステップS5)次に、主要色抽出部44は、色空間ベクトル生成部43が出力する色ベクトルの頻度分布を示す情報から頻度の高い順に3色を主要色として抽出し、抽出した主要色を示す情報を第1ラベル生成部46に出力する。ステップS5終了後、ステップS6に進む。   (Step S5) Next, the main color extraction unit 44 extracts three colors as main colors in order of frequency from the information indicating the frequency distribution of the color vectors output by the color space vector generation unit 43, and the extracted main colors are extracted. The indicated information is output to the first label generation unit 46. After step S5 ends, the process proceeds to step S6.

(ステップS6)次に、第1ラベル生成部46は、画像識別情報取得部42が出力する撮影情報と主要色抽出部44が出力する主要色を示す情報とに関連付けられて記憶されている第1ラベルを、テーブル記憶部45から読み出す。次に、第1ラベル生成部46は、読み出した第1ラベルを示す情報と、主要色抽出部44が出力する主要色を示す情報とを第2ラベル生成部47に出力する。
なお、第1ラベル生成部46は、テーブル記憶部45に、画像識別情報取得部42が出力する撮影情報と主要色抽出部44が出力する主要色を示す情報とに関連付けられて記憶されている第1ラベルが記憶されていない場合、例えば、同じ主要色について別のシーンの第1ラベルが記録されているか否かを判別する。同じ主要色について別のシーンの第1ラベルが記録されていると判別した場合、第1ラベル生成部46は、同じ主要色について別のシーンの第1ラベルをテーブル記憶部45から読み出すようにしてもよい。一方、同じ主要色について別のシーンの第1ラベルが記録されていないと判別した場合、第1ラベル生成部46は、主要色と最も色ベクトルの距離が近く且つシーンが同一の色ベクトルと関連付けられて記憶されているラベルをテーブル記憶部45から読み出すようにしてもよい。
ステップS6終了後、ステップS7に進む。
(Step S <b> 6) Next, the first label generation unit 46 stores the first label generation unit 46 associated with the shooting information output by the image identification information acquisition unit 42 and the information indicating the main color output by the main color extraction unit 44. One label is read from the table storage unit 45. Next, the first label generation unit 46 outputs information indicating the read first label and information indicating the main color output by the main color extraction unit 44 to the second label generation unit 47.
The first label generation unit 46 is stored in the table storage unit 45 in association with shooting information output from the image identification information acquisition unit 42 and information indicating the main color output from the main color extraction unit 44. If the first label is not stored, for example, it is determined whether or not the first label of another scene is recorded for the same main color. When it is determined that the first label of another scene is recorded for the same main color, the first label generation unit 46 reads the first label of another scene for the same main color from the table storage unit 45. Also good. On the other hand, when it is determined that the first label of another scene is not recorded for the same main color, the first label generation unit 46 associates the color with the same color vector that is the closest to the main color and the color vector. The stored label may be read from the table storage unit 45.
After step S6 ends, the process proceeds to step S7.

(ステップS7)次に、第2ラベル生成部47は、主要色抽出部44が出力する主要色を示す情報から各色ベクトルの頻度を正規化し、3つの主要色の比率を算出する。ステップS7終了後、ステップS8に進む。   (Step S7) Next, the second label generation unit 47 normalizes the frequency of each color vector from the information indicating the main color output from the main color extraction unit 44, and calculates the ratio of the three main colors. After step S7 ends, the process proceeds to step S8.

(ステップS8)次に、第2ラベル生成部47は、算出した3つの主要色の比率に基づき、第1ラベル生成部46が出力する第1ラベルを修飾する修飾ラベルを生成し、生成した修飾ラベルで第1ラベルを修飾させることで第1ラベルを修正して第2ラベルを生成する。次に、第2ラベル生成部47は、生成した第2ラベルを示す情報をラベル出力部48に出力する。ステップS8終了後、ステップS9に進む。   (Step S8) Next, the second label generation unit 47 generates a modification label for modifying the first label output by the first label generation unit 46 based on the calculated ratio of the three main colors, and the generated modification The first label is modified by modifying the first label with the label to generate a second label. Next, the second label generation unit 47 outputs information indicating the generated second label to the label output unit 48. After step S8 ends, the process proceeds to step S9.

(ステップS9)次に、ラベル出力部48は、第2ラベル生成部47が出力する第2ラベルを示す情報を画像データと関連付けてテーブル記憶部45に記憶する。
なお、ステップS6において、テーブル記憶部45に、シーンを示す情報と主要色を示す情報とに関連付けられて記憶されている第1ラベルが記憶されていない場合、ラベル出力部48は、ステップS6で読み出した第1ラベルと抽出された主要色とを関連付けて、テーブル記憶部45に新たに記憶させるようにしてもよい。
以上で、画像処理部4が行うラベル生成処理を終了する。
(Step S9) Next, the label output unit 48 stores information indicating the second label output from the second label generation unit 47 in the table storage unit 45 in association with the image data.
In step S6, when the first label stored in association with the information indicating the scene and the information indicating the main color is not stored in the table storage unit 45, the label output unit 48 determines in step S6. The read first label and the extracted main color may be associated with each other and newly stored in the table storage unit 45.
Above, the label production | generation process which the image process part 4 performs is complete | finished.

以上のように、本実施形態の撮像装置100は、従来技術と比較して、少ない演算量で画像データの特徴量である主要色を抽出することができる。さらに、本実施形態の撮像装置100は、Exifに含まれる情報等を用いてシーン判別して、判別結果に基づいてテーブル記憶部45に記憶されているシーン毎のテーブルを選択するようにしたため少ない演算量でシーンを判別できる。この結果、本実施形態の撮像装置100は、従来技術と比較して、画像データに対して少ない演算処理と少ない選択肢で、多くのラベル生成を行うことができる。
すなわち、画像処理部4は、画像データを色空間に変換した色ベクトルの中から、頻度の多い3つの主要色を抽出し、抽出した主要色に予め対応付けて記憶されている第1ラベルを抽出する。図10と図11に示したように、主要色に対して、シーン毎、時刻や季節毎に第1ラベルを予め対応付けて記憶させてあるため、画像処理部4は、画像データから抽出された主要色が同じであっても、シーン毎、時刻や季節毎に異なる第1ラベルを生成することができるので、シーン毎に画像データに最適なラベルを生成することができる。
さらに、画像処理部4は、3つの主要色の頻度を正規化して、最も頻度の多い第1色の割合に応じて、生成された第1ラベルを修飾する修飾ラベルを生成し、生成した修飾ラベルで第1ラベルを修飾させることで第1ラベルを修正して第2ラベルを生成する。
この結果、画像処理部4は、画像データの主要色の配色の割合に基づき、第1ラベルを修飾ラベルで修飾して修正することで第2ラベルを生成するようにしたので、画像データから主要色を抽出してラベルを生成する場合と比較して、シーン毎に画像データにさらに最適なラベルを生成することができる。
As described above, the imaging apparatus 100 according to the present embodiment can extract the main color, which is the feature amount of the image data, with a small amount of calculation compared to the related art. Furthermore, the imaging apparatus 100 according to the present embodiment has a small number of scenes because the scene is determined using information included in Exif and the table for each scene stored in the table storage unit 45 is selected based on the determination result. Scenes can be identified by the amount of computation. As a result, the imaging apparatus 100 according to the present embodiment can generate a large number of labels with less arithmetic processing and fewer options for image data than in the related art.
That is, the image processing unit 4 extracts three main colors having a high frequency from the color vector obtained by converting the image data into the color space, and stores the first label stored in advance in association with the extracted main colors. Extract. As shown in FIGS. 10 and 11, since the first label is stored in advance in association with the main color for each scene, each time, and each season, the image processing unit 4 is extracted from the image data. Even if the main colors are the same, different first labels can be generated for each scene, time, and season, so that an optimum label for image data can be generated for each scene.
Further, the image processing unit 4 normalizes the frequencies of the three main colors, generates a modified label that modifies the generated first label according to the ratio of the most frequent first color, and generates the generated modification The first label is modified by modifying the first label with the label to generate a second label.
As a result, the image processing unit 4 generates the second label by modifying the first label with the modification label based on the ratio of the color arrangement of the main color of the image data. Compared with the case where labels are generated by extracting colors, a more optimal label can be generated for image data for each scene.

なお、本実施形態では、色空間ベクトル生成部43が、画像データをHSVの色空間において色ベクトルを生成する例を説明したが、RGB(赤、緑、青)、輝度信号と2つの色差信号によるYCrCbまたはYPbPr、色相と彩度及び明度によるHLS、補色空間の一種であるLab、日本色研配色体系(PCCS;Practical Color Co−ordinate System)に基づく色空間などを用いてもよい。
また、本実施形態では、色空間ベクトル生成部43が、色ベクトルの頻度分布を生成して、生成した色ベクトルの頻度分布を示す情報を主要色抽出部44に出力する例を説明したが、色空間ベクトル生成部43は、色ベクトル毎の頻度を検出して、検出した色ベクトル毎の頻度を示す情報を主要色抽出部44に出力するようにしてもよい。この場合においても、例えば、テーブル記憶部45に記憶させるRGBの各値は、1毎、10毎等の間隔の中からテーブル作成者が選択した色であってもよい。
In the present embodiment, the color space vector generation unit 43 has described an example in which the image data is generated in the HSV color space. However, RGB (red, green, blue), a luminance signal, and two color difference signals are described. YCrCb or YPbPr, HLS based on hue and saturation and lightness, Lab which is a kind of complementary color space, a color space based on the Japan Color Coordinating System (PCCS), and the like may be used.
In the present embodiment, the color space vector generation unit 43 generates a color vector frequency distribution and outputs information indicating the generated color vector frequency distribution to the main color extraction unit 44. The color space vector generation unit 43 may detect the frequency for each color vector and output information indicating the frequency for each detected color vector to the main color extraction unit 44. Also in this case, for example, each RGB value stored in the table storage unit 45 may be a color selected by the table creator from an interval of every 1 or 10 or the like.

また、本実施形態では、ラベル出力部48が、ラベルを示す情報を画像データと関連付けてテーブル記憶部45に記憶する例を説明したが、第2ラベル生成部47が出力するラベルを文字情報(テキスト)によるデータとして、使用者により選択された画像データに重ねて表示部7に表示するようにしてもよい。
また、本実施形態では、第1ラベルと第2ラベルは、形容詞または副詞の例を説明したが、第1ラベルと第2ラベルは、例えば名詞であってもよい。この場合、第1ラベルは、例えば、「爽快」、「若返り」、「ダンディ」などである。
In the present embodiment, the label output unit 48 has described the example in which the information indicating the label is stored in the table storage unit 45 in association with the image data. However, the label output by the second label generation unit 47 is the character information ( As text data, the data may be displayed on the display unit 7 so as to overlap the image data selected by the user.
Moreover, although the 1st label and the 2nd label demonstrated the example of an adjective or an adverb in this embodiment, the 1st label and the 2nd label may be a noun, for example. In this case, the first label is, for example, “exhilarating”, “rejuvenation”, “dandy”, and the like.

また、本実施形態では、画像データから主要色を算出する例を説明したが、主要色抽出部44は、隣り合う色ベクトルが予め定められている距離だけ離れている3つの色を抽出するようにしてもよい。隣り合う色ベクトルとは、図7(b)において、例えば、画像データがHSVの場合、色ベクトル(50、50、50)と(50、50、51)とである。隣り合う色の距離は、ヒトの視覚的な色を識別できる公知の閾値に基づき設定するようにしてもよい。例えば、WEBで使用が推奨されているWEB256色と、白黒で表現できるモノトーン256色などを用いるようにしてもよい。   In the present embodiment, an example in which the main color is calculated from the image data has been described. However, the main color extraction unit 44 extracts three colors in which adjacent color vectors are separated by a predetermined distance. It may be. In FIG. 7B, the adjacent color vectors are, for example, color vectors (50, 50, 50) and (50, 50, 51) when the image data is HSV. The distance between adjacent colors may be set based on a known threshold value that can identify a human visual color. For example, WEB256 colors recommended for use in WEB and monotone 256 colors that can be expressed in black and white may be used.

また、主要色抽出部44は、主要色の算出の前に、色空間ベクトル生成部43が生成した色ベクトルの頻度分布に対して、公知の手法を用いて、平滑化処理を行うようにしてもよい。または、色空間ベクトル生成部43が色空間ベクトルを生成する前に、公知の手法を用いて、減色処理を行うようにしてもよい。例えば、色空間ベクトル生成部43は、画像データをWEBカラーに減色するようにしてもよい。
また、本実施形態では、主要色抽出部44が、画像データから頻度の高い3つの色を主要色として抽出する例を説明したが、抽出する色の数は3色に限られず、2色以上であればよい。
In addition, the main color extraction unit 44 performs a smoothing process on the frequency distribution of the color vectors generated by the color space vector generation unit 43 using a known method before calculating the main colors. Also good. Alternatively, the color space vector generation unit 43 may perform a color reduction process using a known method before generating the color space vector. For example, the color space vector generation unit 43 may reduce the image data to WEB color.
Further, in the present embodiment, an example has been described in which the main color extraction unit 44 extracts three frequently used colors from image data as main colors. However, the number of colors to be extracted is not limited to three, and two or more colors. If it is.

また、本実施形態では、色ベクトルとしてHSVを用いる例を説明した。テーブル記憶部45には、図4に示したように3つの色の組み合わせを記憶させる場合、HSVの各値を1毎に設定されたHSV=(0,0,0)、(1,0,0)、(1,1,0)・・・(100、100、99)、(100、100、100)の中からテーブル作成者が選択するようにしてもよい。または、HSVの各値を10毎に設定されたHSV=(0,0,0)、(10,0,0)、(10,10,0)・・・(100、100、90)、(100、100、100)の中からテーブル作成者が選択するようにしてもよい。このように、色ベクトルにおける各値の間隔を10等、予め定めた値にすることで、テーブル記憶部45に記憶させる容量を少なくすることができ、さらに演算量も削減することができる。   In the present embodiment, an example in which HSV is used as a color vector has been described. When storing the combination of three colors as shown in FIG. 4 in the table storage unit 45, HSV = (0,0,0), (1,0, 0), (1, 1, 0)... (100, 100, 99), (100, 100, 100) may be selected by the table creator. Alternatively, HSV = (0,0,0), (10,0,0), (10,10,0) (100, 100, 90), (100, 90, etc.) 100, 100, 100) may be selected by the table creator. In this way, by setting the interval of each value in the color vector to a predetermined value such as 10 or the like, the capacity to be stored in the table storage unit 45 can be reduced, and the calculation amount can also be reduced.

[第2実施形態]
第1実施形態では、使用者により選択された画像データのシーンを、画像データと関連付けて記憶媒体200に記憶されている画像識別情報に基づき判別する例を説明した。本実施形態では、選択された画像データから、シーンを画像処理装置が判別して、判別した結果に基づきラベルを生成する例について説明する。
[Second Embodiment]
In the first embodiment, the example in which the scene of the image data selected by the user is determined based on the image identification information stored in the storage medium 200 in association with the image data has been described. In the present embodiment, an example will be described in which an image processing apparatus discriminates a scene from selected image data and generates a label based on the discrimination result.

図13は、本実施形態に係る画像処理部4aのブロック図である。
図13に示すように、画像処理部4aは、画像取得部41a、画像識別情報取得部42、色空間ベクトル生成部43、主要色抽出部44、テーブル記憶部45、第1ラベル生成部46a、第2ラベル生成部47、ラベル出力部48、特徴量抽出部241、シーン判別部242を備えている。なお、第1実施形態と同じ機能を有する機能部は、同じ符号を用いて説明は省略する。
FIG. 13 is a block diagram of the image processing unit 4a according to the present embodiment.
As shown in FIG. 13, the image processing unit 4a includes an image acquisition unit 41a, an image identification information acquisition unit 42, a color space vector generation unit 43, a main color extraction unit 44, a table storage unit 45, a first label generation unit 46a, A second label generation unit 47, a label output unit 48, a feature amount extraction unit 241, and a scene determination unit 242 are provided. Note that functional units having the same functions as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

画像取得部41aは、バス15を介して、撮像部2が撮像した画像データと、画像データと関連付けられて記憶されている画像識別情報とを記憶媒体200から読み出す。画像取得部41aは、取得した画像データを、色空間ベクトル生成部43、特徴量抽出部241に出力する。画像取得部41aは、取得した画像識別情報を画像識別情報取得部42に出力する。   The image acquisition unit 41 a reads the image data captured by the imaging unit 2 and the image identification information stored in association with the image data from the storage medium 200 via the bus 15. The image acquisition unit 41a outputs the acquired image data to the color space vector generation unit 43 and the feature amount extraction unit 241. The image acquisition unit 41 a outputs the acquired image identification information to the image identification information acquisition unit 42.

特徴量抽出部241は、画像取得部41aが出力する画像データから、公知の手法により特徴量を抽出する。公知の手法は、例えば、画像の2値化、平滑化、エッジ検出、輪郭検出などの手法を用いる。特徴量抽出部241は、抽出した特徴量を示す情報をシーン判別部242に出力する。   The feature amount extraction unit 241 extracts feature amounts from the image data output from the image acquisition unit 41a by a known method. Known methods use, for example, methods such as image binarization, smoothing, edge detection, and contour detection. The feature amount extraction unit 241 outputs information indicating the extracted feature amount to the scene determination unit 242.

シーン判別部242は、特徴量抽出部241が出力する特徴量を示す情報に基づき、画像取得部41aが取得した画像データのシーンを公知の手法を用いて判別する。なお、シーン判別に用いる公知の手法とは、例えば、特許文献1に記載の従来技術のように、シーン判別部242が、画像データを予め定められている複数の領域に分割し、その領域毎の特徴量に基づき、画像データに人物が写っているのか、空が映っているのか等を判別する。そして、判別結果に基づき、シーン判別部242は、画像データのシーンを判別する。
シーン判別部242は、判別したシーンを示す情報を第1ラベル生成部46aに出力する。
なお、本実施形態において、シーン判別部242は、特徴量抽出部241とシーン判別部242とにより構成するようにしてもよい。
The scene discrimination unit 242 discriminates the scene of the image data acquired by the image acquisition unit 41a using a known method based on the information indicating the feature amount output from the feature amount extraction unit 241. The known method used for scene discrimination is, for example, as in the prior art described in Patent Document 1, the scene discrimination unit 242 divides image data into a plurality of predetermined areas, and each area is divided. Based on the feature amount, it is determined whether a person is reflected in the image data or whether the sky is reflected. Then, based on the determination result, the scene determination unit 242 determines the scene of the image data.
The scene determination unit 242 outputs information indicating the determined scene to the first label generation unit 46a.
In the present embodiment, the scene determination unit 242 may be configured by a feature amount extraction unit 241 and a scene determination unit 242.

第1ラベル生成部46aは、シーン判別部242が出力するシーンを示す情報と主要色抽出部44が出力する主要色を示す情報とに関連付けられて記憶されている第1ラベルを、テーブル記憶部45から読み出す。第1ラベル生成部46aは、読み出した第1ラベルを示す情報と、主要色抽出部44が出力する主要色を示す情報とを第2ラベル生成部47に出力する。   The first label generation unit 46a stores the first label stored in association with the information indicating the scene output from the scene determination unit 242 and the information indicating the main color output from the main color extraction unit 44. Read from 45. The first label generation unit 46 a outputs the information indicating the read first label and the information indicating the main color output by the main color extraction unit 44 to the second label generation unit 47.

次に、撮像装置100の画像処理部4aが行うラベル生成処理について、図12を用いて説明する。撮像装置100は、ステップS1とステップS2を第1実施形態と同様に行う。   Next, label generation processing performed by the image processing unit 4a of the imaging apparatus 100 will be described with reference to FIG. The imaging apparatus 100 performs step S1 and step S2 as in the first embodiment.

(ステップS3)次に、特徴量抽出部241は、画像取得部41aが出力する画像データから、公知の手法により特徴量を抽出し、抽出した特徴量を示す情報をシーン判別部242に出力する。
次に、シーン判別部242は、特徴量抽出部241が出力する特徴量を示す情報に基づき、画像取得部41aが取得した画像データの撮影情報であるシーンを公知の手法を用いて抽出して取得し、取得したシーンを示す情報を第1ラベル生成部46aに出力する。ステップS3終了後、ステップS4に進む。
(Step S3) Next, the feature quantity extraction unit 241 extracts a feature quantity from the image data output by the image acquisition unit 41a by a known method, and outputs information indicating the extracted feature quantity to the scene determination unit 242. .
Next, the scene discriminating unit 242 extracts a scene, which is shooting information of the image data acquired by the image acquiring unit 41a, using a known method based on the information indicating the feature amount output by the feature amount extracting unit 241. The information indicating the acquired scene is output to the first label generation unit 46a. After step S3 ends, the process proceeds to step S4.

画像処理部4aは、ステップS4とステップS5を第1実施形態と同様に行う。ステップS5終了後、ステップS6に進む。   The image processing unit 4a performs step S4 and step S5 as in the first embodiment. After step S5 ends, the process proceeds to step S6.

(ステップS6)次に、第1ラベル生成部46aは、シーン判別部242が出力するシーンを示す情報と主要色抽出部44が出力する主要色を示す情報とに関連付けられて記憶されている第1ラベルを、テーブル記憶部45から読み出す。次に、第1ラベル生成部46aは、読み出した第1ラベルを示す情報と、主要色抽出部44が出力する主要色を示す情報とを第2ラベル生成部47に出力する。ステップS6終了後、画像処理部4aは、ステップS7〜S9を第1実施形態と同様に行う。   (Step S6) Next, the first label generation unit 46a stores the information indicating the scene output from the scene determination unit 242 and the information indicating the main color output from the main color extraction unit 44 in association with each other. One label is read from the table storage unit 45. Next, the first label generation unit 46 a outputs the information indicating the read first label and the information indicating the main color output by the main color extraction unit 44 to the second label generation unit 47. After step S6 ends, the image processing unit 4a performs steps S7 to S9 as in the first embodiment.

以上のように、画像処理部4aは、撮像された画像データを、予め定められている手法でシーン判別し、判別したシーンと、画像データから抽出された3つの主要色に基づき、第1実施形態と同様にラベルを生成するようにした。この結果、画像処理部4aは、画像識別情報が画像データと関連付けて記憶媒体200に記憶されていない場合であっても、画像データに最適なラベルを生成することができる。   As described above, the image processing unit 4a determines the scene of the captured image data by a predetermined method, and performs the first implementation based on the determined scene and the three main colors extracted from the image data. The label is generated in the same way as the form. As a result, the image processing unit 4a can generate an optimum label for the image data even when the image identification information is not stored in the storage medium 200 in association with the image data.

なお、本実施形態において、画像処理部4aは、画像データから判別したシーンと、抽出した主要色とに基づき、ラベルを生成する例を説明したが、第1実施形態と同様に、撮影情報も用いてシーン判別するようにしてもよい。画像処理部4aは、例えば、画像識別情報から撮像された日時を示す情報を抽出し、抽出された撮像日時と画像データから判別されたシーンに基づき、ラベルを生成するようにしてもよい。より具体的には、シーンが「風景」であり、撮像日時が「秋」の場合、シーン「風景」と「秋」と主要色と関連付けて記憶されている第1ラベルを読み出し、この読み出した2つの第1ラベルに基づきラベルを生成するようにしてもよい。
あるいは、テーブル記憶部45に、シーンを「秋の風景」として、主要色と第1ラベルを記憶させておくようにしてもよい。
In the present embodiment, the example in which the image processing unit 4a generates the label based on the scene determined from the image data and the extracted main color has been described. However, as in the first embodiment, the shooting information is also generated. It may be used to determine the scene. For example, the image processing unit 4a may extract information indicating the date and time of image capture from the image identification information, and generate a label based on the extracted image capture date and scene determined from the image data. More specifically, when the scene is “landscape” and the imaging date is “autumn”, the first label stored in association with the scenes “landscape”, “autumn”, and main colors is read out and read out. A label may be generated based on the two first labels.
Alternatively, the main color and the first label may be stored in the table storage unit 45 with the scene as “autumn scenery”.

[第3実施形態]
第1実施形態と第2実施形態では、使用者により選択された画像データ全体から抽出した主要色に基づきラベルを生成する例を説明した。本実施形態では、選択された画像データからシーンを判別し、判別したシーンに基づき予め定められている画像データの領域において主要色を抽出し、抽出した主要色からラベルを生成する例について説明する。
[Third Embodiment]
In the first embodiment and the second embodiment, the example in which the label is generated based on the main color extracted from the entire image data selected by the user has been described. In the present embodiment, an example will be described in which a scene is determined from selected image data, a main color is extracted in a predetermined image data area based on the determined scene, and a label is generated from the extracted main color. .

図14は、本実施形態に係る実施形態に係る画像処理部4bのブロック図である。
図14に示すように、画像処理部4bは、画像取得部41b、画像識別情報取得部42b、色空間ベクトル生成部43b、主要色抽出部44、テーブル記憶部45、第1ラベル生成部46、第2ラベル生成部47、ラベル出力部48、領域抽出部341を備えている。なお、第1実施形態と同じ機能を有する機能部は、同じ符号を用いて説明は省略する。
FIG. 14 is a block diagram of the image processing unit 4b according to the embodiment of the present embodiment.
As shown in FIG. 14, the image processing unit 4b includes an image acquisition unit 41b, an image identification information acquisition unit 42b, a color space vector generation unit 43b, a main color extraction unit 44, a table storage unit 45, a first label generation unit 46, A second label generation unit 47, a label output unit 48, and a region extraction unit 341 are provided. Note that functional units having the same functions as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

画像取得部41bは、バス15を介して、撮像部2が撮像した画像データと、画像データと関連付けられて記憶されている画像識別情報とを記憶媒体200から読み出す。画像取得部41bは、取得した画像データを、領域抽出部341と色空間ベクトル生成部43bとに出力する。画像取得部41bは、取得した画像識別情報を画像識別情報取得部42bに出力する。   The image acquisition unit 41 b reads the image data captured by the imaging unit 2 and the image identification information stored in association with the image data from the storage medium 200 via the bus 15. The image acquisition unit 41b outputs the acquired image data to the region extraction unit 341 and the color space vector generation unit 43b. The image acquisition unit 41b outputs the acquired image identification information to the image identification information acquisition unit 42b.

画像識別情報取得部42bは、画像取得部41bが出力する画像識別情報から撮像された画像データに設定されている撮影情報を抽出し、抽出した撮影情報を第1ラベル生成部46と領域抽出部341とに出力する。   The image identification information acquisition unit 42b extracts shooting information set in the captured image data from the image identification information output by the image acquisition unit 41b, and uses the extracted shooting information as a first label generation unit 46 and a region extraction unit. 341.

領域抽出部341は、画像識別情報取得部42bが出力する撮影情報に基づき、画像識別情報取得部42bが出力する画像データから、予め定められている手法で主要色を抽出する領域を抽出する。領域抽出部341は、画像識別情報取得部42bが出力する画像データから、抽出した主要色を抽出する領域の画像データを抽出し、抽出した領域の画像データを色空間ベクトル生成部43bに出力する。
なお、予め定められている主要色を抽出する領域を抽出する手法とは、例えば、シーン毎に画像全体から抽出する領域を予め設定しておくようにしてもよい。例えば、シーンが「風景」の場合、画像データの上から3分の2の領域、シーンが「ポートレート」の場合、画像データの中心部に予め定められている大きさの領域などである。
あるいは、第2実施形態と組み合わせて、画像データから抽出した特徴量に基づき、特徴量が抽出された領域を、主要色を抽出する領域として抽出するようにしてもよい。この場合、画像データから抽出する領域は複数でもよい。例えば、撮像された画像データのシーンがポートレートであると判別された場合、図13のシーン判別部242は、特徴量抽出等の手法を用いて顔検出を行う。そして、シーン判別部242は、検出された顔の領域が複数ある場合、シーン判別部242は、この検出された複数の領域から各々主要色を検出する。そして、第1ラベル生成部46と第2ラベル生成部47は、検出された主要色毎の複数のラベルを生成するようにしてもよい。あるいは、シーン判別部242は、検出された全ての顔領域を含む領域を、主要色を抽出する領域として用いるように主要色抽出部44に、判別結果を出力するようにしてもよい。
The region extraction unit 341 extracts a region for extracting a main color from the image data output from the image identification information acquisition unit 42b based on the shooting information output from the image identification information acquisition unit 42b. The region extraction unit 341 extracts image data of a region for extracting the extracted main color from the image data output by the image identification information acquisition unit 42b, and outputs the image data of the extracted region to the color space vector generation unit 43b. .
Note that, as a technique for extracting a predetermined region for extracting a main color, for example, a region to be extracted from the entire image may be set in advance for each scene. For example, when the scene is “landscape”, the area is two-thirds from the top of the image data, and when the scene is “portrait”, the area has a predetermined size at the center of the image data.
Alternatively, in combination with the second embodiment, based on the feature amount extracted from the image data, the region from which the feature amount is extracted may be extracted as a region for extracting the main color. In this case, a plurality of areas may be extracted from the image data. For example, when it is determined that the scene of the captured image data is a portrait, the scene determination unit 242 in FIG. 13 performs face detection using a technique such as feature amount extraction. When there are a plurality of detected face regions, the scene determination unit 242 detects the main color from each of the detected regions. Then, the first label generation unit 46 and the second label generation unit 47 may generate a plurality of labels for each detected main color. Alternatively, the scene determination unit 242 may output the determination result to the main color extraction unit 44 so as to use an area including all detected face areas as an area for extracting the main color.

図14に戻って、色空間ベクトル生成部43bは、領域抽出部341が出力する画像データを予め定められている色空間のベクトルに変換する。予め定められている色空間は、例えばHSVである。色空間ベクトル生成部43bは、生成した色ベクトル毎に画像データの全画素を分類し、色ベクトル毎の頻度を検出し、色ベクトルの頻度分布を生成する。
色空間ベクトル生成部43bは、生成した色ベクトルの頻度分布を示す情報を主要色抽出部44に出力する。
Returning to FIG. 14, the color space vector generation unit 43b converts the image data output from the region extraction unit 341 into a vector of a predetermined color space. The predetermined color space is, for example, HSV. The color space vector generation unit 43b classifies all pixels of the image data for each generated color vector, detects the frequency for each color vector, and generates a color vector frequency distribution.
The color space vector generation unit 43 b outputs information indicating the frequency distribution of the generated color vector to the main color extraction unit 44.

次に、撮像装置100の画像処理部4bが行うラベル生成処理について、図15を用いて説明する。図15は、本実施形態に係る撮像装置100が行うラベル生成のフローチャートである。撮像装置100は、ステップS1を第1実施形態と同様に行う。ステップS1終了後、ステップS101に進む。   Next, label generation processing performed by the image processing unit 4b of the imaging apparatus 100 will be described with reference to FIG. FIG. 15 is a flowchart of label generation performed by the imaging apparatus 100 according to the present embodiment. The imaging apparatus 100 performs step S1 as in the first embodiment. After step S1, the process proceeds to step S101.

(ステップS101)次に、画像処理部4bの画像取得部41bは、バス15を介して、撮像部2が撮像した画像データと、画像データと関連付けられて記憶されている画像識別情報とを記憶媒体200から読み出す。
次に、画像取得部41bは、取得した画像データを、領域抽出部341と色空間ベクトル生成部43bに出力する。次に、画像取得部41bは、取得した画像識別情報を画像識別情報取得部42bに出力する。ステップS101終了後、ステップS3に進む。
(Step S101) Next, the image acquisition unit 41b of the image processing unit 4b stores the image data captured by the imaging unit 2 via the bus 15 and the image identification information stored in association with the image data. Read from the medium 200.
Next, the image acquisition unit 41b outputs the acquired image data to the region extraction unit 341 and the color space vector generation unit 43b. Next, the image acquisition unit 41b outputs the acquired image identification information to the image identification information acquisition unit 42b. After step S101 ends, the process proceeds to step S3.

(ステップS3)画像処理部4bは、ステップS3を第1実施形態と同様に行う。ステップS3終了後、ステップS102に進む。   (Step S3) The image processing unit 4b performs step S3 as in the first embodiment. After step S3 ends, the process proceeds to step S102.

(ステップS102)次に、領域抽出部341は、画像識別情報取得部42bが出力する撮影情報に基づき、画像識別情報取得部42bが出力する画像データから、予め定められている手法で主要色を抽出する領域を抽出する。
次に、領域抽出部341は、画像識別情報取得部42bが出力する画像データから、抽出した主要色を抽出する領域の画像データを抽出し、抽出した領域の画像データを色空間ベクトル生成部43bに出力する。ステップS102終了後、ステップS103に進む。
(Step S102) Next, the region extraction unit 341 selects a main color from the image data output from the image identification information acquisition unit 42b based on the shooting information output from the image identification information acquisition unit 42b by a predetermined method. Extract the area to be extracted.
Next, the area extraction unit 341 extracts image data of an area from which the extracted main color is extracted from the image data output by the image identification information acquisition unit 42b, and the image data of the extracted area is used as a color space vector generation unit 43b. Output to. After step S102, the process proceeds to step S103.

(ステップS103)次に、色空間ベクトル生成部43bは、領域抽出部341が出力する領域の画像データを予め定められている色空間のベクトルに変換する。次に、色空間ベクトル生成部43bは、生成した色ベクトル毎に画像データの全画素を分類し、色ベクトル毎の頻度を検出し、色ベクトルの頻度分布を生成する。次に、色空間ベクトル生成部43bは、生成した色ベクトルの頻度分布を示す情報を主要色抽出部44に出力する。ステップS103終了後、ステップS5に進む。   (Step S103) Next, the color space vector generation unit 43b converts the image data of the region output from the region extraction unit 341 into a vector of a predetermined color space. Next, the color space vector generation unit 43b classifies all pixels of the image data for each generated color vector, detects the frequency for each color vector, and generates a color vector frequency distribution. Next, the color space vector generation unit 43 b outputs information indicating the frequency distribution of the generated color vector to the main color extraction unit 44. After step S103 ends, the process proceeds to step S5.

以下、画像処理部4bは、ステップS5〜S9を第1実施形態と同様に行う。   Hereinafter, the image processing unit 4b performs steps S5 to S9 in the same manner as in the first embodiment.

以上のように、画像処理部4bは、撮像された画像データからシーン等の撮影情報に基づき、主要色を抽出する領域を抽出する。そして、画像処理部4bは、主要色を抽出する領域の画像データから抽出された3つの主要色に基づき、第1実施形態と同様にラベルを生成するようにした。この結果、画像処理部4bは、シーンに応じた領域の画像データから主要色を抽出し、抽出した領域の主要色に基づきラベルを生成するようにしたので、第1実施形態と第2実施形態と比べて、さらにシーンに適合する画像データに最適なラベルを生成することができる。   As described above, the image processing unit 4b extracts a region for extracting a main color from captured image data based on shooting information such as a scene. Then, the image processing unit 4b generates a label in the same manner as in the first embodiment, based on the three main colors extracted from the image data of the region from which the main color is extracted. As a result, the image processing unit 4b extracts the main color from the image data of the area corresponding to the scene, and generates the label based on the extracted main color of the area. Therefore, the first embodiment and the second embodiment. As compared with the above, it is possible to generate an optimum label for image data suitable for a scene.

[第4実施形態]
第1実施形態〜第3実施形態では、使用者により選択された画像データから3つの色を主要色として選択する例を説明した。本実施形態では、選択された画像データから、3つ以上の色を選択する例について説明する。なお、画像処理部4の構成は、第1実施形態(図2)と同様の場合について説明する。
[Fourth Embodiment]
In the first to third embodiments, the example in which three colors are selected as the main colors from the image data selected by the user has been described. In the present embodiment, an example in which three or more colors are selected from selected image data will be described. The configuration of the image processing unit 4 will be described for the same case as in the first embodiment (FIG. 2).

図16は、本実施形態に係る画像データから、複数の色ベクトルを抽出する一例を説明する図である。図16において、横軸は色ベクトル、縦軸は頻度を表している。
図16において、主要色抽出部44は、図8(b)と同様に第1色の色ベクトルc21、第2色の色ベクトルc22、第3色の色ベクトルc23を抽出したとして説明する。
図16において、色ベクトルc24、c25、c26の頻度が、予め定められている範囲内の場合、主要色抽出部44は、第4の主要色として色ベクトルc24、c25、c26を抽出する。この場合、テーブル記憶部45には、図4で説明した第1色〜第3色以外に第4色等まで含めたシーン毎のラベルを記憶させておく。
そして、第4色が抽出された場合、主要色抽出部44は、テーブル記憶部45に記憶されている第1色〜第4色の組み合わせの第1ラベルを読み出し、記憶されている第1ラベルを抽出する。第1色〜第4色の組み合わせの第1ラベルが複数、記憶されていた場合、主要色抽出部44は、例えば、一番先にテーブル記憶部45から読み出した第1ラベルを選択するようにしてもよく、あるいは、ランダムに選択するようにしてもよい。
FIG. 16 is a diagram illustrating an example of extracting a plurality of color vectors from image data according to the present embodiment. In FIG. 16, the horizontal axis represents the color vector, and the vertical axis represents the frequency.
In FIG. 16, it is assumed that the main color extraction unit 44 has extracted the first color vector c21, the second color vector c22, and the third color vector c23 as in FIG. 8B.
In FIG. 16, when the frequency of the color vectors c24, c25, c26 is within a predetermined range, the main color extraction unit 44 extracts the color vectors c24, c25, c26 as the fourth main color. In this case, the table storage unit 45 stores a label for each scene including the fourth color in addition to the first to third colors described in FIG.
When the fourth color is extracted, the main color extraction unit 44 reads out the first label of the combination of the first color to the fourth color stored in the table storage unit 45 and stores the first label stored therein. To extract. When a plurality of first labels of combinations of the first color to the fourth color are stored, the main color extraction unit 44 selects, for example, the first label read from the table storage unit 45 first. Or you may make it select at random.

また、主要色抽出部44は、抽出した4つの色の中から、3つの色を主要色として選択するようにしてもよい。この場合、主要色抽出部44は、抽出された4つの色の近似度を算出し、近似度の低い3つの色を、主要色をして算出するようにしてもよい。色の近似度は、例えば、図16において、仮に、色ベクトルc22〜c25の4つの色ベクトルが、第1色〜第4色として抽出されたとして説明する。主要色抽出部44は、抽出した4つの色を、8ビットのカラー空間から、例えば7ビットカラー空間に減色する。減色した後、例えば、色ベクトルc24とc25とが同一の色と判別された場合、主要色抽出部44は、色ベクトルc24とc25とを近似色であると判別する。そして、主要色抽出部44は、第3の主要色として、色ベクトルc24またはc25のどちらか一方を選択する。この場合、図16の頻度分布において、主要色抽出部44は、第1色の色ベクトルc22と第2色の色ベクトルc23と横軸方向で離れている距離が大きい方の色ベクトルを選択するようにしてもよく、ランダムに選択してもよい。
また、7ビットのカラー空間に減色しても4つの色ベクトルが分離したままの場合、色空間ベクトル生成部43は、4つの色ベクトルが3つの色ベクトルに統合されるまで減色を行う。
In addition, the main color extraction unit 44 may select three colors as main colors from the extracted four colors. In this case, the main color extraction unit 44 may calculate the degree of approximation of the four extracted colors and calculate the three colors having low degrees of approximation as the main colors. For example, in FIG. 16, the color approximation degree will be described assuming that four color vectors c22 to c25 are extracted as the first to fourth colors. The main color extraction unit 44 reduces the four extracted colors from an 8-bit color space to, for example, a 7-bit color space. After color reduction, for example, when the color vectors c24 and c25 are determined to be the same color, the main color extraction unit 44 determines that the color vectors c24 and c25 are approximate colors. Then, the main color extraction unit 44 selects one of the color vectors c24 and c25 as the third main color. In this case, in the frequency distribution of FIG. 16, the main color extraction unit 44 selects the color vector having the larger distance away from the first color vector c22 and the second color vector c23 in the horizontal axis direction. You may make it like, You may select at random.
If the four color vectors remain separated even after the color is reduced to the 7-bit color space, the color space vector generation unit 43 performs the color reduction until the four color vectors are integrated into the three color vectors.

以上のように、撮影情報であるシーン毎に4つ以上の主要色と第1ラベルとがテーブル記憶部45に予め記憶されているようにし、画像データから主要色を4色以上抽出して、抽出した主要色とシーンに基づいてラベルを生成するようにしたので、第1実施形態〜第3実施形態と比較して、さらに画像データに最適なラベルを生成することができる。
すなわち、本実施形態において画像処理部4は、画像データを色空間に変換した色ベクトルの中から、頻度の多い4つの色を抽出し、抽出した4つの色に予め対応付けて記憶されている第1ラベルを抽出する。抽出した4つの主要色ベクトルに対して、撮影情報毎、例えばシーン毎、時刻や季節毎に第1ラベルを予め対応付けて記憶させてあるため、画像処理部4は、画像データから抽出された主要色が同じであっても、シーン毎、時刻や季節毎に異なる第1ラベルを生成することができる。さらに、画像処理部4は、4つの主要色の頻度を正規化して、最も頻度の多い第1色の割合に応じて、生成された第1ラベルに、第1ラベルを強調する第2ラベルを付加してラベルを生成する。この結果、画像処理部4は、4つの主要色に基づき、第1実施形態〜第3実施形態と比較して、さらに画像データに最適なラベルを生成することができる。
また、画像処理部4は、抽出した4つの主要色の中から、3つの主要色を減色等により抽出し、抽出した3つの主要色に対して、第1実施形態と同様にラベル生成処理を行う。この結果、画像処理部4は、色ベクトルの頻度に差が少ないような画像データであっても、画像データに最適なラベルを生成することができる。
As described above, four or more main colors and first labels are stored in advance in the table storage unit 45 for each scene as shooting information, and four or more main colors are extracted from the image data. Since the label is generated based on the extracted main color and the scene, it is possible to generate an optimum label for the image data as compared with the first to third embodiments.
That is, in the present embodiment, the image processing unit 4 extracts four frequently used colors from the color vector obtained by converting the image data into the color space, and stores them in association with the four extracted colors in advance. Extract the first label. Since the first label is stored in association with the four extracted main color vectors in advance for each shooting information, for example, for each scene, for each time or season, the image processing unit 4 is extracted from the image data. Even if the main colors are the same, different first labels can be generated for each scene, time, and season. Further, the image processing unit 4 normalizes the frequencies of the four main colors, and adds a second label that emphasizes the first label to the generated first label according to the ratio of the most frequent first color. Appends to generate a label. As a result, the image processing unit 4 can generate an optimum label for the image data based on the four main colors as compared with the first to third embodiments.
In addition, the image processing unit 4 extracts three main colors from the four extracted main colors by subtracting colors, and performs label generation processing on the extracted three main colors in the same manner as in the first embodiment. Do. As a result, the image processing unit 4 can generate an optimum label for the image data even if the image data has a small difference in color vector frequency.

また、本実施形態では、画像データから、4つの主要色を抽出する例を説明したが、抽出する主要色は4色に限られず、それ以上であってもよい。この場合、抽出した主要色の色数に応じた第1ラベルをテーブル記憶部45に記憶させておくようにしてもよい。また、例えば、主要色を5色、抽出する場合、上述したように主要色抽出部44は、減色を行って近似色に統合して、抽出した複数の主要色の中から3つの主要色を再度、抽出するようにしてもよい。また例えば、主要色を6色、抽出する場合、主要色抽出部44は、まず、頻度の多い順に第1色〜第3色の第1グループと、残りの第4色〜第6色との第2グループに分離する。なお、第4色は、第3色より画素数が少なく第5色より画素数が多く、第5色は、第4色より画素数が少ない。
そして、第1ラベル生成部46は、第1グループに対応する第ラベルと、第2グループに対応する第1ラベルを抽出する。そして、第1ラベル生成部46は、このように抽出された2つの第1ラベルについて、第1実施形態と同様に第1色、または第4色の頻度に応じて修飾ラベルで第1ラベルを修飾することで修正して複数のラベルを生成するようにしてもよい。あるいは、第2ラベル生成部47は、このように生成した複数のラベルを統合して1つのラベルを生成するようにしてもよい。具体的には、第1グループによるラベルが「とてもすがすがしい」、第2グループによるラベルが「少し子供っぽい」であった場合、第2ラベル生成部47は、「とてもすがすがしく、少し子供っぽい」というラベルを生成するようにしてもよい。このような、2つのラベルを生成する場合、第2ラベル生成部47は、第2ラベル生成部47内に、2つのラベルのどちらを先に配置した方が、適切なラベルを生成できるかを確認するため、非図示の言語解析処理を行う処理機能部を備えるようにしてもよい。
In this embodiment, an example in which four main colors are extracted from image data has been described. However, the main colors to be extracted are not limited to four colors, and may be more than that. In this case, the first label corresponding to the number of extracted main colors may be stored in the table storage unit 45. For example, when extracting five main colors, as described above, the main color extraction unit 44 performs subtractive color integration to approximate colors, and extracts three main colors from the extracted plurality of main colors. You may make it extract again. Further, for example, when extracting six main colors, the main color extracting unit 44 first sets the first group of the first to third colors and the remaining fourth to sixth colors in descending order of frequency. Separate into a second group. The fourth color has fewer pixels than the third color and more pixels than the fifth color, and the fifth color has fewer pixels than the fourth color.
Then, the first label generation unit 46 extracts the first label corresponding to the first group and the first label corresponding to the second group. And the 1st label production | generation part 46 carries out a 1st label with a decoration label about the two 1st labels extracted in this way according to the frequency of the 1st color or the 4th color like a 1st embodiment. It may be modified by modification to generate a plurality of labels. Alternatively, the second label generation unit 47 may integrate a plurality of labels generated in this way to generate one label. Specifically, when the label by the first group is “very refreshing” and the label by the second group is “a little childish”, the second label generation unit 47 “is very refreshing and a little childish”. May be generated. In the case of generating such two labels, the second label generating unit 47 determines which of the two labels is arranged first in the second label generating unit 47 and can generate an appropriate label. For confirmation, a processing function unit that performs a language analysis process (not shown) may be provided.

また、第1実施形態〜第4実施形態では、1つの画像データに1つのラベルを生成する例を説明したが、生成するラベルは、2つ以上であってもよい。この場合、色空間ベクトル生成部43(含む43b)は、例えば、図9の画像データにおいて、上半分と下半分に分割し分割した領域毎に色ベクトルの頻度分布を生成する。主要色抽出部44は、分割された領域毎の色ベクトルの頻度分布から、各々の主要色を、3色ずつ抽出する。そして、第1ラベル生成部46は、領域毎のラベルをテーブル記憶部45から抽出するようにしてもよい。そして、ラベル出力部48は、このように生成された複数のラベルを画像データと関連付けて記憶媒体200に記憶させるようにしてもよい。   In the first to fourth embodiments, an example in which one label is generated for one image data has been described. However, two or more labels may be generated. In this case, for example, the color space vector generation unit 43 (including 43b) generates a color vector frequency distribution for each divided region divided into an upper half and a lower half in the image data of FIG. The main color extraction unit 44 extracts each main color by three colors from the frequency vector frequency distribution for each divided area. Then, the first label generation unit 46 may extract a label for each region from the table storage unit 45. Then, the label output unit 48 may store the plurality of labels generated in this manner in the storage medium 200 in association with the image data.

なお、第1実施形態〜第3実施形態では、シーン毎に3色の主要色と第1ラベルとを関連付けてテーブル記憶部45に記憶させておく例を説明したが、例えば、シーン毎に単色と第1ラベルを関連付けてテーブル記憶部45に記憶させておくようにしてもよい。この場合、第1実施形態で説明したように、テーブル記憶部45には、シーン毎に3色の主要色と第1ラベルとを関連付けて記憶させ、さらに、シーン毎に単色と第1ラベルを関連付けて記憶させておくようにしてもよい。
このような処理により、画像データがモノトーンで、主要色が1色しか抽出できないような画像データに対しても適切なラベルを生成することができる。この場合、例えば、画像処理部4(4a,4b)は、第4実施形態のように4色を主要色として検出し、第1色〜第3色の第1グループ、残りの第4色のみ単色としてラベルをテーブル記憶部45から読み出すようにしてもよい。
また、画像データの色調が単調であり、主要色が2色しか抽出できなかった場合、例えば、第1ラベル生成部46は、抽出された2つの主要色(第1色と第2色)の各第1ラベルを読み出す。次に、第2ラベル生成部47は、抽出された2つの主要色の頻度に基づき、2つの主要色を正規化し、第1色の割合に基づき第1色のラベルに対して修飾ラベルを生成し、生成した修飾ラベルで第1色の第1ラベルを修飾して修正することで、第1色の第2ラベルを生成するようにしてもよい。あるいは、第2ラベル生成部47は、このように生成された第1色の第1ラベルと、第2色の第1ラベルの2つのラベルを生成するか、あるいは、第1色の第1ラベルと第2色の第1ラベルを統合して1つのラベルを生成するようにしてもよい。
In the first to third embodiments, the example in which the three main colors and the first label are associated with each scene and stored in the table storage unit 45 has been described. However, for example, a single color for each scene And the first label may be associated with each other and stored in the table storage unit 45. In this case, as described in the first embodiment, the table storage unit 45 stores the three main colors and the first label in association with each scene, and further stores the single color and the first label for each scene. You may make it memorize | store in association.
By such processing, an appropriate label can be generated even for image data in which the image data is monotone and only one main color can be extracted. In this case, for example, the image processing unit 4 (4a, 4b) detects four colors as main colors as in the fourth embodiment, and only the first group of the first to third colors and the remaining fourth colors. The label may be read from the table storage unit 45 as a single color.
Further, when the color tone of the image data is monotonous and only two main colors can be extracted, for example, the first label generation unit 46 has two extracted main colors (first color and second color). Read each first label. Next, the second label generation unit 47 normalizes the two main colors based on the frequency of the extracted two main colors, and generates a modified label for the first color label based on the ratio of the first colors. Then, the second label of the first color may be generated by modifying and correcting the first label of the first color with the generated modified label. Or the 2nd label production | generation part 47 produces | generates two labels, the 1st label of the 1st color produced | generated in this way, and the 1st label of the 2nd color, or the 1st label of the 1st color And the first label of the second color may be integrated to generate one label.

また、第1実施形態〜第4実施形態では、使用者により選択された画像データを記憶媒体200から読み出す例を説明したが、ラベル生成処理に用いる画像データは、記憶媒体200にロー(RAW)データとJPEG(Joint Photographic Experts Group)データが記録されている場合、RAWデータかJPEGデータのどちらを用いてもよい。また、記憶媒体200に表示部7への表示用の縮小されたサムネイル(thumbnail)画像データが記憶されている場合、このサムネイル画像データを用いてラベルを生成するようにしてもよい。また、サムネイル画像データが記憶媒体に記憶されていなくても、色空間ベクトル生成部43(含む43b)が、画像取得部41(含む41a、41b)が出力する画像データの解像度を、予め定めた解像度に縮小した画像データを生成し、この縮小された画像データから色ベクトルの頻度や主要色を抽出するようにしてもよい。   In the first to fourth embodiments, the example in which the image data selected by the user is read from the storage medium 200 has been described. However, the image data used for the label generation process is stored in the storage medium 200 as raw (RAW) data. When data and JPEG (Joint Photographic Experts Group) data are recorded, either RAW data or JPEG data may be used. Further, when thumbnail image data reduced for display on the display unit 7 is stored in the storage medium 200, a label may be generated using the thumbnail image data. Even if the thumbnail image data is not stored in the storage medium, the color space vector generation unit 43 (including 43b) determines the resolution of the image data output from the image acquisition unit 41 (including 41a and 41b) in advance. Image data reduced in resolution may be generated, and the frequency of color vectors and main colors may be extracted from the reduced image data.

なお、実施形態の図2の画像処理部4、図13の画像処理部4a、または図14の画像処理部4bの各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM等の可搬媒体、USB(Universal Serial Bus) I/F(インタフェース)を介して接続されるUSBメモリー、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、サーバーやクライアントとなるコンピュータシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Note that a program for realizing the function of each unit of the image processing unit 4 in FIG. 2, the image processing unit 4a in FIG. 13, or the image processing unit 4b in FIG. 14 is recorded on a computer-readable recording medium. The program recorded on the recording medium may be read into a computer system and executed to execute the processing of each unit. Here, the “computer system” includes an OS and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” is a portable medium such as a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a CD-ROM, or a USB (Universal Serial Bus) I / F (interface). A storage device such as a USB memory or a hard disk built in a computer system. Further, the “computer-readable recording medium” includes a medium that holds a program for a certain period of time, such as a volatile memory inside a computer system serving as a server or a client. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

図17は、画像上に配置される文章を決定するために用いられる撮像画像の特徴量を抽出するプロセスの一例を模式的に示す図である。図17の例において、画像処理装置の判定部は、撮像画像のシーンを人物画像又は風景画像に分類する。次に、画像処理装置は、そのシーンに応じて、撮像画像の特徴量を抽出する。特徴量は、人物画像の場合には、顔の数(被写体の人数)及び平均色(配色パターン)とすることができ、風景画像の場合には、平均色(配色パターン)とすることができる。これらの特徴量を基に、人物画像用テンプレート又は風景画像用テンプレートに挿入される単語(形容詞等)が決定される。   FIG. 17 is a diagram schematically illustrating an example of a process for extracting a feature amount of a captured image used for determining a sentence to be arranged on an image. In the example of FIG. 17, the determination unit of the image processing apparatus classifies the scene of the captured image into a person image or a landscape image. Next, the image processing apparatus extracts a feature amount of the captured image according to the scene. The feature amount can be the number of faces (number of subjects) and the average color (color arrangement pattern) in the case of a person image, and can be the average color (color arrangement pattern) in the case of a landscape image. . Based on these feature quantities, words (adjectives and the like) to be inserted into the person image template or the landscape image template are determined.

ここで、図17の例では、配色パターンは、撮像画像を構成する代表的な複数の色の組み合わせで構成されている。したがって、配色パターンは、撮像画像の平均的な色(平均色)を表すことができる。一例において、配色パターンとして、「第1色」、「第2色」、「第3色」を規定し、これら3種類の色の組み合わせ、すなわち3種類の平均的な色に基づいて、人物画像用、又は風景画像用の文章テンプレートに挿入される単語(形容詞)を決定することができる。   Here, in the example of FIG. 17, the color arrangement pattern is configured by a combination of a plurality of representative colors that form the captured image. Therefore, the color arrangement pattern can represent the average color (average color) of the captured image. In one example, “first color”, “second color”, and “third color” are defined as a color arrangement pattern, and based on a combination of these three colors, that is, based on three average colors, a person image Or a word (adjective) to be inserted into a text template for a landscape image.

図17の例において、撮像画像のシーンは2種類(人物画像及び風景画像)に分類される。他の例において、撮像画像のシーンは、3種類以上(3、4、5、6、7、8、9、又は10種類以上)に分類することができる。   In the example of FIG. 17, the scene of the captured image is classified into two types (a person image and a landscape image). In another example, the scene of the captured image can be classified into three or more types (3, 4, 5, 6, 7, 8, 9, or 10 types or more).

図18は、画像上に配置される文章を決定するために用いられる撮像画像の特徴量を抽出するプロセスの別の一例を模式的に示す図である。図18の例において、撮像画像のシーンを3種類以上に分類することができる。   FIG. 18 is a diagram schematically illustrating another example of the process of extracting the feature amount of the captured image used for determining the text arranged on the image. In the example of FIG. 18, the scene of the captured image can be classified into three or more types.

図18の例において、画像処理装置の判定部は、撮像画像が人物画像(第1モード画像)、遠景画像(第2モード画像)、又はその他の画像(第3モード画像)いずれであるかを判定する。まず、判定部は、図17の例と同様に、撮像画像が人物画像であるか、人物画像とは異なる画像であるかを判定する。   In the example of FIG. 18, the determination unit of the image processing apparatus determines whether the captured image is a person image (first mode image), a distant view image (second mode image), or another image (third mode image). judge. First, as in the example of FIG. 17, the determination unit determines whether the captured image is a person image or an image different from the person image.

次に、撮像画像が人物画像とは異なる画像である場合、判定部は、撮像画像が遠景画像(第2モード画像)又はその他の画像(第3モード画像)のうちいずれであるか、を判定する。この判定は、例えば、撮像画像に付与された画像識別情報の一部を用いて行うことができる。   Next, when the captured image is an image different from the human image, the determination unit determines whether the captured image is a distant view image (second mode image) or another image (third mode image). To do. This determination can be performed using, for example, a part of the image identification information given to the captured image.

具体的には、撮像画像が遠景画像かどうかを判定するために、画像識別情報の一部である焦点距離を用いることができる。判定部は、焦点距離が、あらかじめ設定された基準距離以上である場合、撮像画像を遠景画像と判定し、焦点距離が基準距離未満である場合、撮像画像をその他の画像と判定する。以上により、撮像画像が、人物画像(第1モード画像)、遠景画像(第2モード画像)、又はその他の画像(第3モード画像)の3種類にシーン分類される。なお、遠景画像(第2モード画像)の例は、海や山などの風景画像等を含み、その他の画像(第3モード画像)の例は、花及びペット等を含む。   Specifically, in order to determine whether the captured image is a distant view image, a focal length that is a part of the image identification information can be used. The determination unit determines that the captured image is a distant view image when the focal distance is greater than or equal to a preset reference distance, and determines the captured image as another image when the focal distance is less than the reference distance. As described above, the captured image is classified into three types of scenes: a person image (first mode image), a distant view image (second mode image), or another image (third mode image). Note that examples of distant view images (second mode images) include landscape images such as the sea and mountains, and examples of other images (third mode images) include flowers and pets.

図18の例においても、撮像画像のシーンが分類された後、画像処理装置は、そのシーンに応じて、撮像画像の特徴量を抽出する。   Also in the example of FIG. 18, after the scene of the captured image is classified, the image processing apparatus extracts the feature amount of the captured image according to the scene.

図18の例において、撮像画像が人物画像(第1シーン画像)の場合、画像上に配置される文章を決定するために用いられる撮像画像の特徴量として、顔の数(被写体の人数)及び/又は笑顔レベルを用いることができる。すなわち、撮像画像が人物画像の場合、顔の数(被写体の人数)の判定結果に加え、又は代えて笑顔レベルの判定結果に基づいて、人物画像用テンプレートに挿入される単語を決定することができる。以下、笑顔レベルの判定方法の一例について、図19を用いて説明する。   In the example of FIG. 18, when the captured image is a person image (first scene image), the number of faces (number of subjects) and the feature amount of the captured image used to determine the text arranged on the image A smile level can be used. That is, when the captured image is a human image, a word to be inserted into the human image template may be determined based on the determination result of the smile level in addition to or instead of the determination result of the number of faces (number of subjects). it can. Hereinafter, an example of a smile level determination method will be described with reference to FIG.

図19の例において、画像処理装置の判定部は、人物画像に対して、顔認識などの方法により顔領域を検出する(ステップS5001)。一例において、口角部分の上り具合を数値化することにより、人物画像の笑顔度が算出される。なお、笑顔度の算出には例えば、顔認識にかかる公知の様々な技術を用いることができる。   In the example of FIG. 19, the determination unit of the image processing apparatus detects a face area from a human image by a method such as face recognition (step S5001). In one example, the degree of smile of a person image is calculated by digitizing the degree of ascending of the mouth corner. For example, various known techniques for face recognition can be used for calculating the smile level.

次に、判定部は、あらかじめ設定された第1の笑顔閾値αと、笑顔度を比較する(ステップS5002)。笑顔度がα以上と判定された場合、判定部は、この人物画像の笑顔レベルは、「笑顔:大」であると判定する。   Next, the determination unit compares the smile level with the first smile threshold α set in advance (step S5002). When it is determined that the smile level is greater than or equal to α, the determination unit determines that the smile level of the person image is “smile: large”.

一方、笑顔度がα未満と判定された場合、判定部は、あらかじめ設定された第2の笑顔閾値βと笑顔度を比較する(ステップS5003)。笑顔度がβ以上と判定された場合、判定部は、この人物画像の笑顔レベルは、「笑顔:中」であると判定する。さらに、笑顔度がβ未満と判定された場合、判定部は、この人物画像の笑顔レベルは、「笑顔:小」であると判定する。   On the other hand, when it is determined that the smile level is less than α, the determination unit compares the smile level with a second smile threshold value β set in advance (step S5003). When it is determined that the smile level is β or more, the determination unit determines that the smile level of this person image is “smile: medium”. Furthermore, when it is determined that the smile level is less than β, the determination unit determines that the smile level of the person image is “smile: small”.

人物画像の笑顔レベルの判定結果に基づき、人物画像用テンプレートに挿入される単語が決定される。ここで、「笑顔:大」の笑顔レベルに対応する単語の例としては、「喜びいっぱいの」、「とてもいい」等が挙げられる。「笑顔:中」の笑顔レベルに対応する単語の例としては、「嬉しそうな」、「いい穏やかな」等が挙げられる。「笑顔:小」の笑顔レベルに対応する単語の例としては、「真剣そうな」、「クールな」等が挙げられる。   A word to be inserted into the person image template is determined based on the determination result of the smile level of the person image. Here, examples of the word corresponding to the smile level of “smile: large” include “full of joy” and “very good”. Examples of words that correspond to the smile level of “smile: medium” include “joyful” and “good calm”. Examples of words corresponding to the smile level of “smile: small” include “seriously seems” and “cool”.

なお、上記では、人物画像用テンプレートに挿入される単語が、連体形である場合について説明したが、これに限ることはなく、例えば終止形であってもよい。この場合、「笑顔:大」の笑顔レベルに対応する単語の例としては、「笑顔が素敵」、「すごくいい笑顔だね」等が挙げられる。「笑顔:中」の笑顔レベルに対応する単語の例としては、「にこやかだね」、「いい表情」等が挙げられる。「笑顔:小」の笑顔レベルに対応する単語の例としては、「真剣そうです」、「真面目そうです」等が挙げられる。   In the above description, the case where the word inserted into the person image template is a continuous form has been described. However, the present invention is not limited to this, and may be an end form, for example. In this case, examples of words corresponding to the smile level of “smile: large” include “smile is nice”, “it is a very good smile”, and the like. Examples of words corresponding to the smile level of “smile: medium” include “smiley” and “good expression”. Examples of words corresponding to a smile level of “smile: small” include “looks serious” and “looks serious”.

図20Aは、画像処理装置の動作結果を示す出力画像の一例であり、この出力画像は、図17の例に基づいて決定された文章を有する。図20Aの例において、撮像画像は人物画像であると判定され、特徴量としては被写体の人数、及び配色パターン(平均色)が抽出されている。また、配色パターンに応じて、人物画像用テンプレートに挿入される単語が、「重厚な」と決定されている。その結果、図20Aに示す出力結果が得られている。すなわち、図20Aの例では、撮像画像の平均色に基づいて、「重厚な」の単語(形容詞、連体形)が決定されている。   FIG. 20A is an example of an output image showing the operation result of the image processing apparatus, and this output image has a sentence determined based on the example of FIG. In the example of FIG. 20A, the captured image is determined to be a person image, and the number of subjects and the color arrangement pattern (average color) are extracted as the feature amount. Further, the word inserted into the person image template is determined as “heavy” according to the color arrangement pattern. As a result, the output result shown in FIG. 20A is obtained. That is, in the example of FIG. 20A, the word “heavy” (adjective, combined form) is determined based on the average color of the captured image.

図20Bは、画像処理装置の動作結果を示す出力画像の別一例であり、この出力画像は、図18の例に基づいて決定された文章を有する。図20Bの例において、撮像画像は人物画像であると判定され、特徴量としては被写体の人数、及び笑顔レベルが抽出されている。また、笑顔レベルに応じて、人物画像用テンプレートに挿入される単語が、「いい表情」と決定されている。その結果、図20Bに示す出力結果が得られている。すなわち、図20Bの例では、撮像画像における人物の笑顔レベルに基づいて、「いい表情」の単語(終止形)が決定されている。図20Bの出力結果のように、人物画像に対して笑顔レベルを用いた単語出力を用いることで、画像から受ける印象に比較的近い文字情報を添付することができる。   FIG. 20B is another example of an output image showing the operation result of the image processing apparatus, and this output image has a sentence determined based on the example of FIG. In the example of FIG. 20B, the captured image is determined to be a person image, and the number of subjects and the smile level are extracted as the feature amount. Further, according to the smile level, the word inserted into the person image template is determined as “good expression”. As a result, the output result shown in FIG. 20B is obtained. That is, in the example of FIG. 20B, the word (end form) of “good expression” is determined based on the smile level of the person in the captured image. As shown in the output result of FIG. 20B, by using a word output using a smile level for a person image, it is possible to attach character information that is relatively close to the impression received from the image.

図18に戻り、撮像画像が風景画像(第2シーン画像)又はその他の画像(第3シーン画像)の場合、画像上に配置される文章を決定するために用いられる撮像画像の特徴量として、平均色に代えて、代表色を用いることができる。代表色としては、配色パターンにおける「第1色」、すなわち撮像画像において最も頻度の多い色を用いることができる。あるいは、代表色は、以下に説明するように、クラスタリングを用いて決定することができる。   Returning to FIG. 18, when the captured image is a landscape image (second scene image) or another image (third scene image), as a feature amount of the captured image used to determine the text arranged on the image, A representative color can be used instead of the average color. As the representative color, the “first color” in the color arrangement pattern, that is, the most frequently used color in the captured image can be used. Alternatively, the representative color can be determined using clustering as described below.

図21は、撮像装置に含まれる画像処理部の内部構成を表す概略ブロック図である。図21の例において、画像処理装置の画像処理部5040は、画像データ入力部5042と、解析部5044と、文章作成部5052と、文章付加部5054とを有する。画像処理部5040は、撮像部等で生成された画像データについて、各種の解析処理を行うことにより、画像データの内容に関する各種の情報を取得し、画像データの内容と整合性の高いテキストを作成し、画像データにテキストを付加することができる。   FIG. 21 is a schematic block diagram illustrating an internal configuration of an image processing unit included in the imaging apparatus. In the example of FIG. 21, the image processing unit 5040 of the image processing apparatus includes an image data input unit 5042, an analysis unit 5044, a text creation unit 5052, and a text addition unit 5054. The image processing unit 5040 performs various types of analysis processing on the image data generated by the imaging unit or the like, thereby acquiring various types of information regarding the content of the image data, and creating text that is highly consistent with the content of the image data. Then, text can be added to the image data.

解析部5044は、色情報抽出部5046、領域抽出部5048、クラスタリング部5050を有しており、画像データに対して解析処理を行う。色情報抽出部5046は、画像データから、画像データに含まれる各画素の色情報に関する第1情報を抽出する。典型的には、第1情報は、画像データに含まれる全ての画素のHSV値を、集計したものである。ただし、第1情報は、類似性が関連づけられた(例えば所定の色空間に関連付けされた)所定の色について、この所定の色が画像中に表れる頻度(画素単位での頻度、面積割合等)を示す情報であればよく、色の解像度や、色空間の種類は限定されない。   The analysis unit 5044 includes a color information extraction unit 5046, a region extraction unit 5048, and a clustering unit 5050, and performs analysis processing on the image data. The color information extraction unit 5046 extracts first information regarding color information of each pixel included in the image data from the image data. Typically, the first information is a total of the HSV values of all the pixels included in the image data. However, the first information is the frequency at which the predetermined color appears in the image (frequency in pixel units, area ratio, etc.) for a predetermined color associated with similarity (for example, associated with a predetermined color space). The color resolution and the type of color space are not limited.

例えば、第1情報は、HSV空間ベクトル(HSV値)やRGB値で表されるそれぞれの色について、それぞれの色の画素が、画像データに幾つずつ含まれるか、を表す情報であっても良い。ただし、第1情報における色解像度は、演算処理の負担等を考慮して適宜変更すれば良く、また、色空間の種類もHSVやRGBに限られず、CMY、CMYK等であっても良い。   For example, the first information may be information indicating how many pixels of each color are included in the image data for each color represented by an HSV space vector (HSV value) or RGB value. . However, the color resolution in the first information may be changed as appropriate in consideration of the burden of calculation processing, and the type of color space is not limited to HSV or RGB, and may be CMY, CMYK, or the like.

図22は、解析部5044において行われる代表色の決定の流れを表すフローチャートである。図22のステップS5101では、画像処理装置が、具体的な画像データ5060(撮像画像、図23参照)の代表色の算出を開始する。   FIG. 22 is a flowchart showing the flow of representative color determination performed in the analysis unit 5044. In step S5101, the image processing apparatus starts calculating the representative color of specific image data 5060 (captured image, see FIG. 23).

ステップS5102では、画像処理装置の画像データ入力部5042が、画像データを解析部5044に出力する。次に、解析部5044の色情報抽出部5046は、画像データに含まれる各画素の色情報に関する第1情報5062を算出する(図23参照)。   In step S5102, the image data input unit 5042 of the image processing apparatus outputs the image data to the analysis unit 5044. Next, the color information extraction unit 5046 of the analysis unit 5044 calculates first information 5062 regarding the color information of each pixel included in the image data (see FIG. 23).

図23は、ステップS5102において色情報抽出部5046が実施する第1情報5062の算出処理を表す概念図である。色情報抽出部5046は、画像データ5060に含まれる色情報を、各色毎(例えば256階調の各階調毎)に集計し、第1情報5062を得る。図23の下図に示すヒストグラムは、色情報抽出部5046によって算出された第1情報5062のイメージを表している。図23のヒストグラムの横軸は色であり、縦軸は、画像データ5060中に、所定の色の画素がいくつ含まれるかを表している。   FIG. 23 is a conceptual diagram illustrating a calculation process of the first information 5062 performed by the color information extraction unit 5046 in step S5102. The color information extraction unit 5046 aggregates the color information included in the image data 5060 for each color (for example, for each gradation of 256 gradations) to obtain first information 5062. The histogram shown in the lower part of FIG. 23 represents an image of the first information 5062 calculated by the color information extraction unit 5046. The horizontal axis of the histogram in FIG. 23 is color, and the vertical axis represents how many pixels of a predetermined color are included in the image data 5060.

図22のステップS5103では、解析部5044の領域抽出部5048が、画像データ5060における主要領域を抽出する。例えば、領域抽出部5048は、図23に示す画像データ5060の中からピントが合っている領域を抽出し、画像データ5060の中央部分を主要領域であると認定する(図24における主要領域5064参照)。   In step S5103 of FIG. 22, the region extraction unit 5048 of the analysis unit 5044 extracts the main region in the image data 5060. For example, the area extraction unit 5048 extracts a focused area from the image data 5060 shown in FIG. 23, and recognizes the central portion of the image data 5060 as the main area (see the main area 5064 in FIG. 24). ).

図22のステップS5104では、解析部5044の領域抽出部5048が、ステップS5105で実施されるクラスタリングの対象領域を決定する。例えば、領域抽出部5048は、図24の上部に示すように、ステップS5103において画像データ5060の一部を主要領域5064であると認識し、主要領域5064を抽出した場合、クラスタリングの対象を、主要領域5064に対応する第1情報5062(主要第1情報5066)とする。図24の下図に示すヒストグラムは、主要第1情報5066のイメージを表している。   In step S5104 in FIG. 22, the region extraction unit 5048 of the analysis unit 5044 determines a clustering target region to be implemented in step S5105. For example, as shown in the upper part of FIG. 24, the area extraction unit 5048 recognizes that part of the image data 5060 is the main area 5064 in step S5103 and extracts the main area 5064, the clustering target is set as the main area 5064. The first information 5062 (main first information 5066) corresponding to the area 5064 is used. The histogram shown in the lower part of FIG. 24 represents an image of the main first information 5066.

一方、領域抽出部5048が、ステップS5103において画像データ5060における主要領域5064を抽出しなかった場合、領域抽出部5048は、図23に示すように、画像データ5060の全領域に対応する第1情報5062を、クラスタリングの対象に決定する。なお、クラスタリングの対象領域が異なることを除き、主要領域5064が抽出された場合と抽出されなかった場合とで、その後の処理に違いはないため、以下では、主要領域が抽出された場合を例に説明を行う。   On the other hand, if the region extraction unit 5048 has not extracted the main region 5064 in the image data 5060 in step S5103, the region extraction unit 5048 displays the first information corresponding to the entire region of the image data 5060 as shown in FIG. 5062 is determined as a clustering target. Note that there is no difference in the subsequent processing between the case where the main region 5064 is extracted and the case where it is not extracted, except that the target region for clustering is different. I will explain.

図22のステップS5105では、解析部5044のクラスタリング部5050が、ステップS5104で決定された領域の第1情報5062である主要第1情報5066に対して、クラスタリングを実施する。図25は、図24に示す主要領域5064の主要第1情報5066について、クラスタリング部5050が実施したクラスタリングの結果を表す概念図である。   In step S5105 of FIG. 22, the clustering unit 5050 of the analysis unit 5044 performs clustering on the main first information 5066 that is the first information 5062 of the area determined in step S5104. FIG. 25 is a conceptual diagram illustrating the result of clustering performed by the clustering unit 5050 on the primary first information 5066 of the primary region 5064 shown in FIG.

クラスタリング部5050は、例えば、256階調の主要第1情報5066(図24参照)を、k−means法によって複数のクラスタに分類する。なお、クラスタリングは、k−means法(k平均法)に限定されない。他の例において、最短距離法等の他の方法を用いることができる。   For example, the clustering unit 5050 classifies the main first information 5066 (see FIG. 24) having 256 gradations into a plurality of clusters by the k-means method. Note that the clustering is not limited to the k-means method (k average method). In other examples, other methods such as the shortest distance method can be used.

図25の上部は、各画素がどのクラスタに分類されたかを表しており、図25の下部に示すヒストグラムは、各クラスタに属する画素の数を示したものである。クラスタリング部5050によるクラスタリングによって、256階調の主要第1情報5066(図24)は、256より少ない(図25に示す例では3つの)クラスタに分類されている。クラスタリングの結果は、各クラスタの大きさに関する情報と、各クラスタの色(クラスタの色空間上の位置)に関する情報とを含むことができる。   The upper part of FIG. 25 shows to which cluster each pixel is classified, and the histogram shown in the lower part of FIG. 25 shows the number of pixels belonging to each cluster. By the clustering by the clustering unit 5050, the 256 first main information 5066 (FIG. 24) is classified into less than 256 clusters (three in the example shown in FIG. 25). The result of clustering can include information about the size of each cluster and information about the color of each cluster (the position of the cluster in the color space).

ステップS5106は、解析部5044のクラスタリング部5050が、クラスタリングの結果に基づき、画像データ5060の代表色を決定する。一例において、クラスタリング部5050は、図25に示すようなクラスタリング結果を得た場合、算出された複数のクラスタのうち最も多くの画素を含む最大クラスタ5074に属する色を、画像データ5060の代表色とする。   In step S5106, the clustering unit 5050 of the analysis unit 5044 determines a representative color of the image data 5060 based on the clustering result. In one example, when the clustering unit 5050 obtains a clustering result as illustrated in FIG. 25, the color belonging to the maximum cluster 5074 including the most pixels among the plurality of calculated clusters is set as the representative color of the image data 5060. To do.

代表色の算出が終了すると、文章作成部5052は、代表色に関する情報を用いてテキストを作成し、画像データ5060に付与する。   When the calculation of the representative color is completed, the sentence creation unit 5052 creates a text using information on the representative color and assigns the text to the image data 5060.

文章作成部5052は、例えば風景画像用の文章テンプレートを読み出し、文章テンプレートの{日時}に、画像データ5060の生成日時に対応する単語(例えば「2012/03/10」)を適用する。この場合、解析部5044は、画像データ5060の生成日時に関する情報を記憶媒体等から検索し、文章作成部5052に出力することができる。   The text creation unit 5052 reads a text template for a landscape image, for example, and applies a word (for example, “2012/03/10”) corresponding to the generation date and time of the image data 5060 to {date and time} of the text template. In this case, the analysis unit 5044 can retrieve information related to the generation date and time of the image data 5060 from the storage medium and output the information to the text creation unit 5052.

また、文章作成部5052は、文章テンプレートの{形容詞}に、画像データ5060の代表色に対応する単語を適用する。文章作成部5052は、記憶部5028から対応情報を読み出して、文章テンプレートに適用する。一例において、記憶部5028には、シーン毎に色と単語とが関連付けられたテーブルが保存されている。文章作成部5052は、そのテーブルから読み出した単語を用いて文章(例えば「とてもきれいなものを見つけた」)を作成することができる。   In addition, the sentence creation unit 5052 applies a word corresponding to the representative color of the image data 5060 to the {adjective} of the sentence template. The sentence creation unit 5052 reads the correspondence information from the storage unit 5028 and applies it to the sentence template. In one example, the storage unit 5028 stores a table in which colors and words are associated with each scene. The sentence creation unit 5052 can create a sentence (for example, “I found a very beautiful thing”) using words read from the table.

図26は、上述した一連の処理によってテキストを付与された画像データ5080を表示したものである。   FIG. 26 shows image data 5080 to which text is given by the series of processes described above.

図27は、シーンが遠景画像の場合に、上述と同様の一連の処理によってテキストを付与された画像データの例を示したものである。この場合、シーンが遠景画像に分類され、かつ代表色は青と判定されている。例えば、シーン毎に色と単語とが関連付けられたテーブルにおいて、代表色の「青」に対して単語「爽やかな」等が対応付けられている。   FIG. 27 shows an example of image data to which text is given by a series of processes similar to the above when the scene is a distant view image. In this case, the scene is classified as a distant view image, and the representative color is determined to be blue. For example, in a table in which colors and words are associated with each scene, the word “fresh” is associated with the representative color “blue”.

図28は、色と単語との対応情報を有するテーブルの一例を示す図である。図28のテーブルにおいて、人物画像(第1シーン画像)、遠景画像(第2シーン画像)、及びその他の画像(第3シーン画像)、のシーンごとに、色と単語とが関連付けられている。一例において、画像データの代表色が「青」であり、シーンがその他の画像(第3シーン画像)であるとき、文章作成部5052は、テーブルの対応情報から、代表色に対応する単語(例えば「上品な」)を選択し、文章テンプレートの{形容詞}に適用する。   FIG. 28 is a diagram illustrating an example of a table having correspondence information between colors and words. In the table of FIG. 28, a color and a word are associated with each scene of a person image (first scene image), a distant view image (second scene image), and another image (third scene image). In one example, when the representative color of the image data is “blue” and the scene is another image (third scene image), the sentence creation unit 5052 uses a word corresponding to the representative color (for example, from the correspondence information in the table). “Classy”) and select {adjective} in the sentence template.

色と単語との対応テーブルは、例えば、PCCS表色系、CICC表色系、又はNCS表色系などのカラーチャートに基づき設定することができる。   The correspondence table between colors and words can be set based on a color chart such as a PCCS color system, CICC color system, or NCS color system.

図29は、CCIC表示系のカラーチャートを用いた、遠景画像(第2シーン画像)用の対応テーブルの一例を示す。図30は、CCIC表示系のカラーチャートを用いた、その他の画像(第3シーン画像)用の対応テーブルの一例を示す。   FIG. 29 shows an example of a correspondence table for a distant view image (second scene image) using a color chart of the CCIC display system. FIG. 30 shows an example of a correspondence table for other images (third scene images) using a CCIC display color chart.

図29において、横軸は、代表色の色相に、縦軸は代表色のトーンに対応している。単語の決定に図29のテーブルを用いることにより、代表色の色相の情報だけでなく、代表色のトーンの情報も併せて単語を決定し、人間が生じる感性に比較的近いテキストを付与することが可能となる。以下、図29のテーブルを用いた、遠景画像(第2シーン画像)の場合の具体的なテキストの設定例を説明する。なお、その他の画像(第3シーン画像)の場合、図30のテーブルを用いて同様に設定することができる。   In FIG. 29, the horizontal axis corresponds to the hue of the representative color, and the vertical axis corresponds to the tone of the representative color. By using the table of FIG. 29 to determine the word, not only the information on the hue of the representative color but also the information on the tone of the representative color is used to determine the word, and give a text that is relatively close to the sensibility generated by humans Is possible. Hereinafter, a specific text setting example in the case of a distant view image (second scene image) using the table of FIG. 29 will be described. In the case of other images (third scene images), the same setting can be made using the table of FIG.

図29において、代表色が領域A5001と判定された場合、その代表色の呼称(赤、橙、黄、青など)がそのままテキスト中の単語に適用される。例えば、代表色の色相が「赤(R)」、トーンが「ビビッド・トーン(V)」の場合、その色を表す形容詞「真っ赤な」等が選択される。   In FIG. 29, when the representative color is determined to be the area A5001, the name of the representative color (red, orange, yellow, blue, etc.) is applied as it is to the word in the text. For example, if the hue of the representative color is “red (R)” and the tone is “Vivid Tone (V)”, the adjective “crimson” representing the color is selected.

また、代表色が領域A5002、A5003、A5004又はA5005の色と判定された場合、その色から連想する形容詞が、テキスト中の単語に適用される。例えば、代表色が領域A5003の色(緑)と判定された場合、緑から連想する形容詞である「心地良い」、「さわやかな」等が適用される。   When the representative color is determined to be the color of the region A5002, A5003, A5004, or A5005, an adjective associated with the color is applied to the word in the text. For example, when the representative color is determined to be the color (green) of the area A5003, the adjectives associated with green, such as “comfortable” and “fresh”, are applied.

なお、代表色が領域A5001〜A5005の色と判定され、且つそのトーンがビビッド・トーン(V)、ストロング・トーン(S)、ブライト・トーン(B)、又はペール・トーン(LT)の場合には、形容詞の前に程度を表す副詞(例:とても、かなり等)が適用される。   When the representative color is determined to be the color of the area A5001 to A5005 and the tone is a vivid tone (V), a strong tone (S), a bright tone (B), or a pale tone (LT). Applies adverbs that indicate the degree before the adjectives (eg, very, pretty, etc.).

代表色が領域A5006、すなわち「ホワイト・トーン(白)」と判定された場合、白から連想される単語である「清らかな」、「澄んだ」等が選択される。また、代表色が領域A5007、すなわちグレー系の色(ライト・グレイ・トーン:ltGY、ミディアム・グレイ・トーン:mGY、又はダーク・グレイ・トーン:dkGY)と判定された場合、無難な形容詞である「きれいな」、「すてきな」等が選択される。白、又はグレー系の色、すなわち無彩色が代表色となる画像においては、さまざまな色が画像全体に含まれる場合が多い。したがって、色とは関連性の少ない単語を用いることで、的外れな意味のテキストが付与されるのを防止し、画像から受けるイメージに比較的近いテキストを付与することができる。   When the representative color is determined to be the area A5006, that is, “white tone (white)”, “clean”, “clear”, and the like, which are words associated with white, are selected. If the representative color is determined to be the area A5007, that is, a gray-based color (light gray tone: ltGY, medium gray tone: mGY, or dark gray tone: dkGY), it is a safe adjective. “Clean”, “nice”, etc. are selected. In an image in which a white or gray color, that is, an achromatic color is a representative color, various colors are often included in the entire image. Therefore, by using a word that is less related to color, it is possible to prevent a text having an inappropriate meaning from being added, and it is possible to provide a text that is relatively close to an image received from an image.

また、代表色が領域A5001〜A5007のいずれの領域にも属さない場合、すなわち代表色が低トーン(ダーク・グレイッシュ・トーン)、又は黒(ブラック・トーン)である場合、所定の意味を有する文字(単語、又は文章)をテキストとして選択することができる。所定の意味を有する文字は、例えば、「ここはどこ」、「あっ」等を含む。これらの単語や文章は、「つぶやき辞書」として画像処理装置の記憶部に保存しておくことができる。   Further, when the representative color does not belong to any of the areas A5001 to A5007, that is, when the representative color is a low tone (dark grayish tone) or black (black tone), characters having a predetermined meaning (Word or sentence) can be selected as text. Characters having a predetermined meaning include, for example, “where is here”, “a”, and the like. These words and sentences can be stored in the storage unit of the image processing apparatus as a “tweet dictionary”.

すなわち、代表色が低トーン、又は黒と判定されたとき、画像全体の色相の判定が困難なことがあるが、このような場合においても上記のように色とは関連性の少ない文字を用いることで、的外れな意味のテキストが付与されるのを防止し、画像から受けるイメージに近いテキストを付与することができる。   In other words, when the representative color is determined to be low tone or black, it may be difficult to determine the hue of the entire image. Even in such a case, characters having less relation to the color are used as described above. Thus, it is possible to prevent a text having an inappropriate meaning from being added, and to add a text close to an image received from an image.

また、上記の例では、シーンと代表色に応じて文章と単語が一義的に決定される場合について説明したが、これに限らず、文章と単語の選択において、時々、例外処理を行うこともできる。例えば、複数回に1回(例えば10回に1回)は、上記の「つぶやき辞書」からテキストを抽出してもよい。これにより、テキストの表示内容が必ずしもパターン化されることがないので、ユーザが表示内容に飽きるのを防止することができる。   In the above example, the case where the sentence and the word are uniquely determined according to the scene and the representative color has been described. However, the present invention is not limited to this, and exception processing is sometimes performed in the selection of the sentence and the word. it can. For example, the text may be extracted from the “tweet dictionary” once every plural times (for example, once every 10 times). As a result, the display content of the text is not necessarily patterned, so that the user can be prevented from getting bored with the display content.

なお、上記の例において、文章付加部は、文章作成部によって生成されたテキストを画像の上部、又は下部に配置する場合について説明したが、これに限らず、例えばテキストを画像の外(枠外)に配置することもできる。   In the above example, the case where the sentence adding unit arranges the text generated by the sentence creating unit at the upper part or the lower part of the image has been described. However, the present invention is not limited to this. It can also be arranged.

また、上記の例において、テキストの位置が画像内で固定されている場合について説明したが、これに限らず、例えば画像処理装置の表示部において、テキストを流れるように表示させることができる。これにより、入力画像がテキストにより影響を受けにくい、又はテキストの視認性が向上される。   In the above example, the case where the position of the text is fixed in the image has been described. However, the present invention is not limited to this. For example, the text can be displayed so as to flow on the display unit of the image processing apparatus. Thereby, the input image is not easily affected by the text, or the text visibility is improved.

なお、上記の例において、テキストが画像に必ず貼り付けられる場合について説明したが、これに限らず、例えば人物画像の場合には、テキストは貼り付けず、遠景画像又はその他の画像の場合にはテキストを貼り付けるようにしてもよい。   In the above example, the case where the text is always pasted on the image has been described. However, the present invention is not limited to this. For example, in the case of a person image, the text is not pasted, and in the case of a distant view image or other images. You may make it paste a text.

また、上記の例において、文章付加部は、文章作成部によって生成されたテキストの表示方法(フォント、色、表示位置など)を所定の方法で決定する場合について説明したが、これに限らず、テキストの表示方法は、多種多様に決定することができる。以下、これらの方法について、いくつかの例を示す。   In the above example, the sentence adding unit has described the case where the display method (font, color, display position, etc.) of the text generated by the sentence creating unit is determined by a predetermined method. A variety of text display methods can be determined. Hereinafter, some examples of these methods will be described.

一例においては、ユーザが画像処理装置の操作部を介して、テキストの表示方法(フォント、色、表示位置)を修正することができる。或いは、ユーザは、テキストの内容(単語)を変更、又は削除することができる。また、ユーザは、テキスト全体を表示させないように設定する、すなわちテキストの表示/非表示を選択することができる。   In one example, the user can correct the text display method (font, color, display position) via the operation unit of the image processing apparatus. Alternatively, the user can change or delete the contents (words) of the text. In addition, the user can select not to display the entire text, that is, display / non-display of the text.

また、一例においては、入力画像のシーンに応じてテキストの大きさを変更することができる。例えば、入力画像のシーンが人物画像の場合、テキストを小さくし、入力画像のシーンが遠景画像又はその他の画像の場合、テキストを大きくすることができる。   In one example, the size of the text can be changed according to the scene of the input image. For example, when the scene of the input image is a person image, the text can be reduced, and when the scene of the input image is a distant view image or other images, the text can be increased.

また、一例においては、テキストを強調表示して画像データに合成することもできる。例えば、入力画像が人物画像の場合、人物に吹き出しを付与し、その吹き出し中にテキストを配置することができる。   In one example, text can be highlighted and combined with image data. For example, when the input image is a person image, a balloon can be given to the person and text can be placed in the balloon.

また、一例においては、テキストの表示色は、入力画像の代表色を基準として設定することできる。具体的には、入力画像の代表色と色相は同じであり、且つトーンが異なる色を、テキストの表示色として用いることができる。これにより、テキストが過度に主張されることなく、入力画像とほどよく調和したテキストを付与することができる。   In one example, the display color of the text can be set with reference to the representative color of the input image. Specifically, a color having the same hue as the representative color of the input image and a different tone can be used as a text display color. As a result, it is possible to give a text that is in harmony with the input image without excessively claiming the text.

また、特に、入力画像の代表色が白の場合、テキストの表示色の決定において、例外処理を行ってもよい。ここで、例外処理では例えば、テキストの色を白とし、そのテキストの周辺部を黒に設定することができる。   In particular, when the representative color of the input image is white, exception processing may be performed in determining the text display color. Here, in the exception processing, for example, the text color can be set to white and the peripheral portion of the text can be set to black.

100・・・撮像装置、1・・・撮像システム、2・・・撮像部、3・・・カメラ制御部、4、4a、4b・・・画像処理部、5・・・記憶部、6・・・バッファメモリ部、7・・・表示部、11・・・操作部、12・・・通信部、13・・・電源部、15・・・バス、21・・・レンズ部、22・・・撮像素子、23・・・AD変換部、41、41b・・・画像取得部、42、42b・・・画像識別情報取得部、43、43b・・・色空間ベクトル生成部、44・・・主要色抽出部、45・・・テーブル記憶部、46、46a・・・第1ラベル生成部、47・・・第2ラベル生成部、48・・・ラベル出力部、241・・・特徴量抽出部、242・・・シーン判別部 DESCRIPTION OF SYMBOLS 100 ... Imaging device, 1 ... Imaging system, 2 ... Imaging part, 3 ... Camera control part, 4, 4a, 4b ... Image processing part, 5 ... Memory | storage part, 6. ... Buffer memory section, 7... Display section, 11... Operation section, 12 .. Communication section, 13... Power supply section, 15. Image sensor, 23 ... AD conversion unit, 41, 41b ... image acquisition unit, 42, 42b ... image identification information acquisition unit, 43, 43b ... color space vector generation unit, 44 ... Main color extraction unit, 45 ... Table storage unit, 46, 46a ... First label generation unit, 47 ... Second label generation unit, 48 ... Label output unit, 241 ... Feature amount extraction , 242 ... Scene discriminator

Claims (10)

撮像された画像データを取得する画像取得部と、
前記取得された画像データからシーンを判別するシーン判別部と、
前記取得された画像データから色情報の頻度分布に基づき主要色を抽出する主要色抽出部と、
シーン毎に色情報と第1ラベルとが関連付けられて予め記憶されている記憶部と、
前記記憶部から、前記抽出された主要色と前記判別されたシーンとに関連付けて予め記憶されている前記第1ラベルを読み出し、前記読み出した第1ラベルを前記取得された画像データのラベルとして生成する第1ラベル生成部と、
を備えることを特徴とする画像処理装置。
An image acquisition unit for acquiring captured image data;
A scene discriminating unit for discriminating a scene from the acquired image data;
A main color extraction unit for extracting a main color from the acquired image data based on a frequency distribution of color information;
A storage unit in which color information and a first label are associated and stored in advance for each scene;
Reading the first label stored in advance in association with the extracted main color and the determined scene from the storage unit, and generating the read first label as a label of the acquired image data A first label generator that
An image processing apparatus comprising:
前記抽出された主要色の頻度に基づき前記主要色の割合を正規化し、前記正規化した主要色の割合に基づき、前記第1ラベルを修正することで第2ラベルを生成する第2ラベル生成部
を備えることを特徴とする請求項1に記載の画像処理装置。
A second label generating unit that normalizes a ratio of the main color based on the frequency of the extracted main color and generates a second label by correcting the first label based on the normalized ratio of the main color. The image processing apparatus according to claim 1, further comprising:
前記記憶部には、
前記判別されたシーン毎に複数の色情報の組み合わせ情報とラベルとが関連付けられている
ことを特徴とする請求項1または請求項2に記載の画像処理装置。
In the storage unit,
The image processing apparatus according to claim 1, wherein a combination information of a plurality of pieces of color information and a label are associated with each of the determined scenes.
前記シーン判別部は、
前記取得された画像データから画像識別情報を取得し、前記取得した画像識別情報から前記シーンを示す情報を抽出し、前記抽出したシーンを示す情報に基づき前記画像データの前記シーンを判別する
ことを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。
The scene discrimination unit
Acquiring image identification information from the acquired image data, extracting information indicating the scene from the acquired image identification information, and determining the scene of the image data based on the information indicating the extracted scene. The image processing apparatus according to any one of claims 1 to 3, wherein the image processing apparatus is characterized.
前記シーン判別部は、
前記取得された画像データから特徴量を抽出し、前記抽出した特徴量に基づき、前記画像データの前記シーンを判別する
ことを特徴とする請求項4に記載の画像処理装置。
The scene discrimination unit
The image processing apparatus according to claim 4, wherein a feature amount is extracted from the acquired image data, and the scene of the image data is determined based on the extracted feature amount.
前記判別されたシーンに基づき、前記主要色を抽出する領域を前記取得された画像データから抽出する領域抽出部
を備え、
前記主要色抽出部は、
前記主要色を抽出する領域の画像データから前記主要色を抽出する
ことを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。
An area extracting unit for extracting an area for extracting the main color from the acquired image data based on the determined scene;
The main color extraction unit includes:
The image processing apparatus according to any one of claims 1 to 4, wherein the main color is extracted from image data of an area from which the main color is extracted.
前記第1ラベルおよび前記第1ラベルを修正することで生成された第2ラベル、あるいは、前記第1ラベルまたは前記第2ラベルに基づく情報を、前記取得された画像データと関連付けて前記記憶部に記憶させる
ことを特徴とする請求項2から請求項6のいずれか1項に記載の画像処理装置。
The first label and the second label generated by correcting the first label, or information based on the first label or the second label is associated with the acquired image data in the storage unit. The image processing apparatus according to any one of claims 2 to 6, wherein the image processing apparatus is stored.
請求項1から請求項7のいずれか1項に記載の画像処理装置を備えることを特徴とする撮像装置。   An image pickup apparatus comprising the image processing apparatus according to claim 1. 撮像部を有する画像処理装置の画像処理をコンピュータに実行させるためのプログラムであり、
撮像した画像データを取得する画像取得手順と、
前記取得された画像データからシーンを判別するシーン判別手順と、
前記取得された画像データから色情報の頻度分布に基づき主要色を抽出する主要色抽出手順と、
前記抽出された主要色と、シーン毎に色情報と第1ラベルとが関連付けられて予め記憶されている記憶部から前記第1ラベルを読み出し、前記読み出した第1ラベルを前記取得された画像データのラベルとして生成する第1ラベル生成手順と、
をコンピュータに実行させるためのプログラム。
A program for causing a computer to execute image processing of an image processing apparatus having an imaging unit,
An image acquisition procedure for acquiring captured image data;
A scene determination procedure for determining a scene from the acquired image data;
A main color extraction procedure for extracting a main color from the acquired image data based on a frequency distribution of color information;
The extracted primary color, color information and first label for each scene are associated with each other, the first label is read from a storage unit that is stored in advance, and the read first label is used as the acquired image data. A first label generation procedure for generating as a label of
A program that causes a computer to execute.
人物撮影シーンであるか否かを判別するシーン判別部と、
前記シーン判別部により人物撮影シーンではないと判別されたとき、前記画像データから色情報を抽出する色抽出部と、
色情報と所定の意味を有する文字とが関連付けられて予め記憶されている記憶部と、
前記シーン判別部により人物撮影シーンではないと判別されたとき、前記色抽出部に抽出された前記色情報に対応する前記所定の意味を有する文字を前記記憶部から読み出す読み出し部とを備えることを特徴とする画像処理装置。
A scene discriminating unit for discriminating whether or not it is a person-photographed scene;
A color extraction unit that extracts color information from the image data when the scene determination unit determines that the scene is not a person-captured scene;
A storage unit in which color information and characters having a predetermined meaning are associated and stored in advance;
A reading unit that reads out, from the storage unit, characters having the predetermined meaning corresponding to the color information extracted by the color extraction unit when the scene determination unit determines that the scene is not a person-captured scene. A featured image processing apparatus.
JP2012206297A 2011-09-21 2012-09-19 Image processing device, imaging device, and program Pending JP2013080464A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012206297A JP2013080464A (en) 2011-09-21 2012-09-19 Image processing device, imaging device, and program
US14/239,445 US20140198234A1 (en) 2011-09-21 2012-09-21 Image processing apparatus, program, image processing method, and imaging apparatus
PCT/JP2012/074230 WO2013042768A1 (en) 2011-09-21 2012-09-21 Image processing device, program, image processing method, and imaging device
CN201280039636.6A CN103718172A (en) 2011-09-21 2012-09-21 Image processing device, program, image processing method, and imaging device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011206024 2011-09-21
JP2011206024 2011-09-21
JP2012206297A JP2013080464A (en) 2011-09-21 2012-09-19 Image processing device, imaging device, and program

Publications (1)

Publication Number Publication Date
JP2013080464A true JP2013080464A (en) 2013-05-02

Family

ID=48526762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012206297A Pending JP2013080464A (en) 2011-09-21 2012-09-19 Image processing device, imaging device, and program

Country Status (1)

Country Link
JP (1) JP2013080464A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182594A (en) * 2016-03-31 2017-10-05 株式会社 資生堂 Information processing device, program and information processing system
CN113284138A (en) * 2021-06-25 2021-08-20 佛山市创智智能信息科技有限公司 Jadeite color grading method and device, electronic equipment and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182594A (en) * 2016-03-31 2017-10-05 株式会社 資生堂 Information processing device, program and information processing system
WO2017168260A1 (en) * 2016-03-31 2017-10-05 株式会社資生堂 Information processing device, program, and information processing system
CN113284138A (en) * 2021-06-25 2021-08-20 佛山市创智智能信息科技有限公司 Jadeite color grading method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
US20140198234A1 (en) Image processing apparatus, program, image processing method, and imaging apparatus
CN110163810B (en) Image processing method, device and terminal
JP4704224B2 (en) Album creating apparatus, album creating method, and program
CN104822016B (en) Image processing apparatus and image processing method
JP4574249B2 (en) Image processing apparatus and method, program, and imaging apparatus
JP4704253B2 (en) Album creating apparatus, album creating method, and program
JP4344925B2 (en) Image processing apparatus, image processing method, and printing system
Mavridaki et al. A comprehensive aesthetic quality assessment method for natural images using basic rules of photography
CN107808136A (en) Image processing method, device, readable storage medium storing program for executing and computer equipment
JP5181955B2 (en) Image classification device and image processing device
JP2006295890A (en) Album creating apparatus, album creating method and program
JP2005086516A (en) Imaging device, printer, image processor and program
EP2481025A1 (en) Estimating aesthetic quality of digital images
JP2006331393A (en) Album creating apparatus, album creating method and program
JP2006295887A (en) Album creating apparatus, album creating method and program
CN107820018A (en) User&#39;s photographic method, device and equipment
JP2011139329A (en) Image processing apparatus, and image modification program
CN105580050A (en) Providing control points in images
JP2008217479A (en) Image arrangement method and device
JP2011186715A (en) Method and photographic image device evaluation
JP2010092094A (en) Image processing apparatus, image processing program, and digital camera
JP2005234686A (en) Expression recognition device, expression recognition method and program
JP2013080464A (en) Image processing device, imaging device, and program
JP2013141200A (en) Image processor, program, image processing method, and imaging apparatus
US20170061642A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium