JP2010026017A - Image display method, program, and image display device - Google Patents
Image display method, program, and image display device Download PDFInfo
- Publication number
- JP2010026017A JP2010026017A JP2008184353A JP2008184353A JP2010026017A JP 2010026017 A JP2010026017 A JP 2010026017A JP 2008184353 A JP2008184353 A JP 2008184353A JP 2008184353 A JP2008184353 A JP 2008184353A JP 2010026017 A JP2010026017 A JP 2010026017A
- Authority
- JP
- Japan
- Prior art keywords
- impression
- image
- label
- learning
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000002708 enhancing effect Effects 0.000 claims abstract description 16
- 230000008094 contradictory effect Effects 0.000 claims description 15
- 238000007781 pre-processing Methods 0.000 claims description 12
- 238000010191 image analysis Methods 0.000 claims description 11
- 230000000694 effects Effects 0.000 abstract description 4
- 239000013598 vector Substances 0.000 description 50
- 239000003086 colorant Substances 0.000 description 13
- 238000011156 evaluation Methods 0.000 description 9
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 238000012854 evaluation process Methods 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 241001311547 Patina Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、画像表示方法、それを実行するプログラム、及び、画像表示装置に関する。 The present invention relates to an image display method, a program for executing the method, and an image display apparatus.
従来、デジタル画像を表示するだけでなく、音や光のコントラスなどにより、その視聴環境を向上させて、ユーザが楽しめ、満足感を与えることができるような技術が開発されてきている。例えば、デジタル画像の表示装置に連動する照明設備や、音響設備、若しくは、デジタル画像を表示するディスプレイに加えて他のディスプレイを空間に配置し、ユーザが、デジタル画像を再生する際に、デジタル画像が撮影された場所や時間に基づいて、デジタル画像を表示するディスプレイ以外の設備等が連動して、音や映像などを生成し、視覚的のみならず、聴覚的にも楽しむことのできる空間を形成する技術が開示されている(例えば、特許文献1参照)。しかし、このような方法では、設備が大がかりなものとなり、それらを配置するスペース等の問題から、ユーザが手軽に楽しむことができるものとはなっていない。そこで、デジタル画像から一定の法則に基づいて知覚的に支配的な色を抽出し、デジタル画像の表示の際に、抽出した色の光を生成して、デジタル画像の周囲からその光を発するようにして、視覚的に楽しむことができる技術が提案されている(例えば、特許文献2)。
しかしながら、この方法では、デジタル画像の周辺部分を6分割して、その画像の抽出された色に基づく光をその6分割された領域からそれぞれ発光させるのみであり、ユーザが満足感を十分に得ることができるものとはなっていない。つまり、この技術では、そのデジタル画像に支配的な色を抽出させて表示する際に、その色に基づく光を周囲から発光させるだけであるので、デジタル画像とその発光色が調和してしまい、視覚的にも画像が単調なものとなってしまうという課題があった。 However, in this method, the peripheral part of the digital image is divided into six parts, and the light based on the extracted color of the image is only emitted from each of the six divided areas. It is not something that can be done. In other words, in this technique, when a dominant color is extracted from the digital image and displayed, the light based on the color is only emitted from the surroundings, so the digital image and the emission color are harmonized. There has been a problem that the image becomes monotonous visually.
本発明は、このような課題に鑑みてなされたものであり、デジタル画像を支配する印象を特定して、そのデジタル画像の印象を強める効果のある処理を施して表示することにより、ユーザが視覚的に楽しめ、高い満足感が得られる画像表示方法、それを実行するプログラム、及び、画像表示装置を提供することを目的とする。 The present invention has been made in view of such problems, and it is possible to identify an impression that dominates a digital image, and to display the image by performing processing that has an effect of enhancing the impression of the digital image. An object of the present invention is to provide an image display method that can be enjoyed and that provides high satisfaction, a program that executes the image display method, and an image display device.
前記課題を解決するため、本発明に係る画像表示方法は、画像解析部を有し、予め登録された複数の印象ラベル毎に画像印象の学習結果が記憶された学習結果記憶部にアクセス可能なコンピュータにより実行され、入力された画像の印象を判定し、当該印象を強化して表示装置に出力する画像表示方法であって、画像解析部により、入力された画像から当該画像の特徴量を算出して、当該特徴量と学習結果記憶部に記憶されている学習結果に基づいて当該画像における複数の印象ラベルの各々に対する印象の近接度合いを判定する画像印象判定ステップと、この画像印象判定ステップでの印象ラベルに対する印象の近接度合いが、閾値以上である印象ラベルを選択して、当該印象ラベルを画像の印象ラベルとする印象ラベル決定ステップと、表示装置に画像を表示する際に、印象ラベル決定ステップにおいて決定された印象ラベルが有する印象を強化する画像処理を画像に対して施して出力する印象強化画像処理ステップと、を有する。 In order to solve the above-described problem, the image display method according to the present invention includes an image analysis unit, and can access a learning result storage unit in which learning results of image impressions are stored for each of a plurality of previously registered impression labels. An image display method that is executed by a computer, determines an impression of an input image, enhances the impression, and outputs the image to a display device. The image analysis unit calculates a feature amount of the image from the input image Then, an image impression determination step for determining the degree of proximity of the impression to each of a plurality of impression labels in the image based on the feature amount and the learning result stored in the learning result storage unit, and the image impression determination step Selecting an impression label whose degree of proximity of the impression to the impression label is equal to or greater than a threshold value, and setting the impression label as an impression label of the image; When an image is displayed on the shown apparatus has an impression enhancement image processing step of outputting performs image processing to enhance the impression having the impression label determined in impressive label determining step for the image, a.
このような画像表示方法は、画像印象判定ステップにおいて、画像に前処理を施して、当該前処理が施された画像の特徴量を算出するように構成されることが好ましい。 Such an image display method is preferably configured to perform preprocessing on the image and calculate a feature amount of the image subjected to the preprocessing in the image impression determination step.
また、このような画像表示方法は、印象ラベル決定ステップにおいて、閾値以上の印象ラベルから、印象の近接度合いの最も高い印象ラベルに対して、矛盾する印象ラベルを除いて、画像の印象ラベルを決定するように構成されることが好ましい。 In addition, in such an image display method, in the impression label determination step, the impression label of the image is determined by removing the contradictory impression label from the impression label that is equal to or higher than the threshold with respect to the impression label having the highest degree of proximity of the impression. It is preferable to be configured to do so.
また、このような画像表示方法において、印象解析部は、印象ラベルごとに当該印象ラベルを有する画像の印象を強化する強化色が記憶された印象枠定義テーブルにアクセス可能であり、印象強化画像処理ステップにおいて、印象枠定義テーブルから、画像の印象ラベルに対応する当該画像の印象を強化する強化色を取得し、画像の周囲にこの強化色を配置して表示装置に表示するように構成されることが好ましい。 Further, in such an image display method, the impression analysis unit can access an impression frame definition table in which an enhanced color that enhances an impression of an image having the impression label is stored for each impression label, and the impression enhanced image processing In the step, an enhanced color for enhancing the impression of the image corresponding to the impression label of the image is acquired from the impression frame definition table, and the enhanced color is arranged around the image and displayed on the display device. It is preferable.
また、このような画像表示方法において、印象枠定義テーブルは、印象ラベルごとに強化色と矛盾する色を記憶し、印象強化画像処理ステップにおいて、印象ラベル決定ステップにおいて決定された画像に対する印象ラベルが複数あるときに、最も印象の近接度合いの高い印象ラベルに対応する矛盾する色を印象枠定義テーブルから取得し、印象強化画像処理ステップにおいて、当該矛盾する色を画像に配置しないようにすることが好ましい。 In such an image display method, the impression frame definition table stores a color that contradicts the reinforced color for each impression label, and the impression label for the image determined in the impression label determination step is stored in the impression reinforced image processing step. When there are a plurality of colors, the contradictory color corresponding to the impression label having the highest degree of proximity of the impression is acquired from the impression frame definition table, and the contradictory color is not arranged in the image in the impression enhancement image processing step. preferable.
また、本発明に係る画像表示方法をコンピュータに実行させるためのプログラムを作成することができ、このプログラムは、例えば、フレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等の記憶媒体または記憶装置に格納される。また、ネットワークを介してデジタル信号として配信される場合もある。このとき、中間的な処理結果は、メインメモリ等の記憶装置に一時保管される。 In addition, a program for causing a computer to execute the image display method according to the present invention can be created. This program is, for example, a storage medium such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, a hard disk, or the like. It is stored in a storage device. Moreover, it may be distributed as a digital signal via a network. At this time, intermediate processing results are temporarily stored in a storage device such as a main memory.
また、本発明に係る画像表示装置は、予め登録された複数の印象ラベル毎に画像印象の学習結果が記憶された学習結果記憶部と、画像を表示する表示装置と、上述のプログラムを実行するコンピュータと、を有して構成される。 The image display device according to the present invention executes a learning result storage unit that stores a learning result of an image impression for each of a plurality of pre-registered impression labels, a display device that displays an image, and the above-described program. And a computer.
本発明に係る、画像表示方法、プログラム、及び、画像表示装置を以上のように構成すると、その画像の印象を与えている部分領域に基づいて、画像の印象を特定し、ユーザが視覚的に楽しめ、高い満足感が得られるように、その特定した印象を強める効果のある処理を画像に施して表示することができる。 When the image display method, the program, and the image display device according to the present invention are configured as described above, the image impression is specified based on the partial region giving the image impression, and the user visually The image can be displayed with a process having an effect of enhancing the specified impression so that the user can enjoy and have high satisfaction.
以下、本発明の好ましい実施形態について図面を参照して説明する。まず、図1を用いて、本実施形態に係る画像表示装置100の構成について説明する。この画像表示装置100は、CPUや、RAM、ROM等を有し、プログラムを実行可能なコンピュータ1と、画像を記憶する表示画像記憶装置2と、画像が表示される表示装置3と、を有して構成される。このコンピュータ1においては、プログラムにより実現される画像解析部30が設けられており、この画像解析部30は、表示画像記憶装置2から読み出された画像の印象判定を行う印象判定処理部10と、印象判定処理部10の評価結果に対して、印象ラベル関係定義記憶部41のデータを参照して、評価した画像の印象強化処理等を行う印象決定部40と、を有しており、その印象決定部40の結果と共に、画像が表示装置3に表示されるように構成されている。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. First, the configuration of the
ここで、印象判定処理部10は、印象ラベル毎に設けられ、学習画像に基づく学習結果を用いて表示画像記憶装置2から読み出されたデジタル画像200(以下、「画像200」という)の評価を行う複数の印象ラベル判定部11と、学習画像が記憶される学習画像記憶部21と、印象ラベル判定部11による学習結果が記憶される学習結果記憶部22と、複数の印象ラベル判定部11による判定結果を印象決定部40に出力する判定結果出力部14と、を有して構成される。この印象判定処理部10における画像の印象判定の方法等についての詳細は、後述するとして、表示装置3に表示される画像にどのような印象強化処理が施されるのかについて、図2〜図4を用いて説明する。
Here, the impression
ユーザが、画像の印象を強化して、視覚的に楽しみたいときには、コンピュータ1においてこの画像解析部30が実行され、画像の表示再生が開始される。まず、図示しない入力装置等を用いてユーザにより表示装置3に表示したい画像200が選択され、画像解析部30は、表示画像記憶装置2からこの画像200を読み出し(ステップS100)、後述する印象判定処理部10によりこの画像200の印象判定を行い、画像200に対する印象ラベルごとの印象の近接度合いの評価を行う(ステップS101(画像印象判定ステップ))。そして、印象判定処理部10の処理が終了すると、次に、印象決定部40が、各印象ラベルの印象判定の結果から評価対象である画像200の最終的な印象ラベルを決定する(ステップS102(印象ラベル決定ステップ))。このとき、印象決定部40は、印象ラベル関係定義記憶部41を参照する。この印象ラベル関係定義記憶部41には、図3(a)に示す印象ラベル定義テーブル411と、図3(b)に示す印象枠定義テーブル412と、が記憶されている。そこで、印象決定部40は、最終的な印象ラベルを決定する際には、まず、印象ラベル関係定義記憶部41の印象ラベル定義テーブル411を参照するように構成されている。
When the user wants to enhance the impression of the image and enjoy it visually, the
ここで、印象ラベル定義テーブル411は、各印象ラベル判定部11に割り当てられている印象ラベルを識別するための識別情報(印象ID)が記憶される印象IDカラム411a、印象ラベルが管理される印章ラベルカラム411b、及び、当該印象ラベルに対して矛盾する印象ラベルが記憶される矛盾する印象ラベルカラム411cから構成されている。例えば、印象IDカラム411aに“A”として記憶されている印象ラベルは、印象ラベルカラム411bにおいて、“明るい”が記憶されている。そして、これに対応する矛盾する印象ラベルとして、矛盾する印象ラベルカラム411cには、“暗い”、”ぼやけた”などの相反する単語が登録されている。その他にも、印象IDが”B”の印象ラベルとして“鮮明な”が登録され、これと矛盾する印象ラベルとして、“不鮮明な”、”ぼやけた”などの単語が登録されている。なお、矛盾する印象ラベルカラム411cに登録される順番は、特に限定されていないが、左から、相反する、あるいは矛盾する、あるいは反対語として認識される語句の中で、一番多いものから順に登録することが可能である。
Here, the impression label definition table 411 includes an impression ID column 411a in which identification information (impression ID) for identifying an impression label assigned to each impression
以上より、印象決定部40は、このステップS102において上記の印象ラベル定義テーブル411を参照して、画像20の最終的な印象ラベルを決定する。すなわち、印象決定部40は、印象判定処理部10の判定結果出力部14を介して得られた、複数の印象ラベルのうちで相反関係にある印象ラベル(矛盾する印象ラベル)を排除する処理を行い、残った印象ラベルのうちで印象判定結果の印象の近接度合いが最も大きな値を有する印象ラベルをこの画像200の印象ラベルとして決定する。また、更には、この印象ラベルと相反せず、所定の閾値以上の値を有する印象ラベルをこの画像の印象ラベルとして認識するように構成することも可能である。例えば、最終的に画像100に強化処理を行う際に、この画像200に与える印象が、最も大きい印象ラベルのみを画像200の強化処理に応用してもよいし、一定の閾値以上の印象判定結果を得られた印象ラベルのうち、最も印象の大きい印象ラベルと、この最も印象の大きい印象ラベルに相反しない印象ラベルと、を併用して画像200の強化処理に応用してもよい。
As described above, the
次に、この画像200の印象を強化して表示装置3で表示するため、印象決定部40は、ステップS102で決定された最終的な印象ラベルに基づいて、画像200に対して印象強化処理を施す。この印象強化処理としては、印象ラベルに対応した色を選定して、その色の枠色やパターンを画像200と共に表示するものである。つまり、印象決定部40は、最終的な印象ラベルに相当する枠色・パターンを印象枠定義テーブル412を参照して選択する(ステップS103(印象強化画像処理ステップ))。
Next, in order to enhance the impression of the
印象ラベル関係定義記憶部41の印象枠定義テーブル412は、印象IDを記憶する印象IDカラム412aと、当該印象IDに対応する印象ラベルを強化するための色が記憶される強化色カラム412bと、この強化色に矛盾する色が記憶される矛盾色カラム412cと、を有して構成されている。そのため、このステップS103においては、印象決定部40は、最終的な印象ラベル(印象ID)を強化するための強化色と、この強化色に矛盾する色とを印象枠定義テーブル412から取得する。なお、上述のステップS102において、複数の印象ラベルが最終的に選択されている場合には、相反しない印象ラベルであっても、印象ラベルに対応した色が相容れない色(相反する色若しくは矛盾する色)同士となってしまう場合もあるため、そのような相容れない色も除外するようになっている。ここで、相反する色及び矛盾する色とは、例えば、ある色に対して、補色の関係にある色と、その補色に類似する色、もしくは等差色相の関係にある色である。つまりは、ある色に対しての類似関係にある色以外の色が、相容れない色の一例である。具体的には、例えば、色相環において、赤であれば、青緑や青、緑青、緑などであり、色を二系統に分類した際に赤は、暖色系の色として分類されるので、例えば、寒色系に分類される色は、相容れない色のように定義することもできる。
The impression frame definition table 412 of the impression label relation
また、ステップS103において、印象決定部40は、画像200の表示に際して、その選択された色を画像200に対して、どの様に配置するかの枠のパターンについても決定できるようになっている。例えば、図1には図示していないが、印象ラベル関係定義記憶部41に幾つかの枠のパターンを予め登録しておき、その記憶されたパターンが、表示装置3に例示されるようにする。そして、ユーザは、押しボタンや、表示パネル等の操作部を操作して、この例示された枠のパターンから1つを選択して、画像の表示の際に使用するように決定することができるようになる。
In step S <b> 103, the
ここで、例えば、枠の表示例としては、図4(a)〜(c)が挙げられる。画面500は、画像200を表示するイメージ表示部501と、このイメージ表示部501の周囲の外周辺部領域502とから構成されており、図4(a)は、イメージ表示部501に画像200が表示され、その周囲の外周辺部領域502にこの画像200の印象ラベルを強化するための色が配置されている例である。また、図4(b)は、イメージ表示部501に画像200が表示され、その周囲の外周辺部領域502とイメージ表示部501に表示されている画像200との間であって、主要な被写体(図4(b)における人物)が表示されていない領域501aに、この画像200の印象ラベルを強化するための色が配置されている。さらに、図4(c)では、図4(a)と図4(b)とで、画像200の印象ラベルを強化するための色が配置されている領域の両方に色が配置されている。つまり、外周辺部領域502と主要な被写体が表示されていない領域501aとの両方に強化するための色が配置される構成となっている。これらは、予め、ユーザが設定しておくこともできるし、表示の際に、最適な表示方法が自動で選択されるようになっていてもよい。
Here, for example, FIGS. 4A to 4C are given as display examples of the frame. The
以上のようにして枠のパターンが決定されると、印象決定部40は、図4(a)〜図4(c)の何れかの表示パターン沿って、選択された枠色を画像と共に表示する(ステップS104)。このように、画像の持つ印象(印象ラベル)に対応した色が、画像と共に表示されるので、ユーザが視覚的に楽しむことのできるものとなる。
When the frame pattern is determined as described above, the
なお、以上のような構成において、印象枠定義テーブル412の印象IDと印象を強化する強化色との関係は、印象IDに対応する印象ラベルのイメージと合致するような色が設定されていると、さらに、良好である。例えば、印象ラベル定義テーブル411において印象IDカラム411aに”C”と記憶されている印象ラベルは、印象ラベル定義テーブル411に定義されているとおり、”落ち着いた”である。この印象IDが”C”の印象ラベルに対応する色は、印象枠定義テーブル412を参照すると、強化色として“青”が登録されていることが分かる。従って、印象ラベル“落ち着いた”に対応する色は“青”となっており、“落ち着いた”の印象ラベルを有する画像には、この印象を強化する際に“青”が使用されることとなる。“青”は、通常、精神を安定させる色として、使用される場合が多く、“落ち着いた”の印象ラベルのイメージと合致しているものであると考えられる。 In the configuration as described above, the relationship between the impression ID in the impression frame definition table 412 and the enhanced color that enhances the impression is set to a color that matches the image of the impression label corresponding to the impression ID. Furthermore, it is good. For example, the impression label stored as “C” in the impression ID column 411 a in the impression label definition table 411 is “settled” as defined in the impression label definition table 411. As for the color corresponding to the impression label whose impression ID is “C”, referring to the impression frame definition table 412, it can be seen that “blue” is registered as an enhanced color. Therefore, the color corresponding to the impression label “settled” is “blue”, and “blue” is used to enhance this impression for images having a “settled” impression label. Become. “Blue” is usually used as a color that stabilizes the mind and is considered to be consistent with the image of the “calm” impression label.
このように、印象ラベルのイメージと合致するような色が設定されていると、決定された印象ラベルに対応する色により画像の印象を強調する効果が高くなり、その色により強調した画像が表示されれば、画像のイメージが、ユーザの視覚を通して、さらに認識されやすくなり、満足感の高い画像表示となる。以上のような、処理により、ユーザが視覚的にも楽しめる画像の表示として、画像の印象を的確に抽出し、その抽出された印象を強化する色で、画像の枠を形成し、画像を表示する際にその枠と共に表示されるようになっている。 In this way, when a color that matches the image of the impression label is set, the effect of enhancing the impression of the image by the color corresponding to the determined impression label is enhanced, and the image emphasized by that color is displayed. Then, the image is more easily recognized through the user's vision, and the image display is highly satisfactory. As a result of the above processing, the user can visually extract the impression of the image as a display that can be enjoyed visually, and form an image frame with a color that enhances the extracted impression and display the image. When it does, it is displayed with the frame.
次に、上述のステップS101において実行される印象判定処理の具体的な内容について図5〜図12を用いて説明する。図2に示すステップS101は、印象判定処理部10における処理であり、具体的に画像200の印象ラベルの判定を行う方法である。この印象判定処理部10において、印象ラベル判定部11の各々は、図5に示すように、学習画像記憶部21に予め登録された学習画像及び印象ラベルに基づいて学習を行う学習処理部11aと、学習結果記憶部22記憶された学習結果に基づいて、画像200の評価を行う評価処理部11bとを有して構成されている。
Next, specific contents of the impression determination process executed in step S101 described above will be described with reference to FIGS. Step S101 shown in FIG. 2 is a process in the impression
(a)学習画像による学習
学習処理部11aは、AdaBoostの手法により、複数の学習サンプル(学習画像)を用いて、図6に示す処理手順により画像の印象を判定するための1つの強識別器H(X)を構築するものである。この学習処理部11aは、学習を開始すると、学習画像記憶部21に記憶されている複数の学習画像を読み込む(ステップS600)。ここで、学習画像記憶部21には、図7に示すように、学習画像を記憶する学習画像記憶テーブル211と、印象ラベルと学習画像との対応付けを行う印象ラベル記憶テーブル212とを有して構成されている。
(A) Learning with a learning image The learning processing unit 11a uses a plurality of learning samples (learning images) by the AdaBoost technique to provide one strong classifier for determining the impression of an image according to the processing procedure shown in FIG. H (X) is constructed. When the learning processing unit 11a starts learning, the learning processing unit 11a reads a plurality of learning images stored in the learning image storage unit 21 (step S600). Here, as shown in FIG. 7, the learning
学習画像記憶テーブル211は、学習画像を識別するための画像IDが記憶される画像IDカラム211aと、学習画像が格納されるファイルカラム211bと、この学習画像の特徴量X(j)が記憶される特徴量カラム211cとから構成されている。図7(a)においては、7枚の画像が登録されている場合を示しており、jは、学習画像の番号を示す。なお、ファイルカラム211bに学習画像を直接記憶させるのではなく、別の領域に学習画像本体を記憶し、この学習画像のファイル名(又はパス名)をこのカラムに記憶するように構成することも可能である。
The learning image storage table 211 stores an
また、印象ラベル記憶テーブル212は、印象ラベルを識別するための印象IDが記憶される印象IDカラム212aと、印象ラベルが記憶される印象ラベルカラム212bと、当該印象ラベルに対応付けられている学習画像の画像IDが記憶される画像IDカラム212cと、から構成されている。この画像IDカラム212cには、複数の画像IDを設定することが可能であり、例えば、印象ID=”1”の”明るい”という印象ラベルには、画像IDが”0001”と”0002”の2枚の学習画像が設定されている。
The impression label storage table 212 stores an
なお、画像の特徴量Xは、MPEG7で規格化されている、スケーラブルカラー(Scalable Color)やエッジヒストグラム(Edge Histogram)を用いたn次元のベクトルとして定義されており、本実施の形態においては、学習画像毎に予め決められた方法により計算されて特徴量カラム211cに設定されている。
Note that the image feature amount X is defined as an n-dimensional vector using a scalable color or an edge histogram standardized by MPEG7, and in the present embodiment, It is calculated by a predetermined method for each learning image and set in the
そして、学習処理部11aは、学習のステップ数tに初期値として”1”を設定し(ステップS610)、ステップ数tが、予め決められた回数(Tmax)を超えたか否かを判断し、Tmaxを超えるまで、ステップS630〜ステップS650を繰り返す(ステップS620)。この繰り返し処理において、ステップS630では、ステップS600で読み込んだ学習画像を用いて、繰り返し処理毎の(t回目の)学習における弱識別器h(x,t)が構築される。弱識別器h(x,t)の詳細な構築方法については後述するが、本実施の形態における学習処理部11aにおいては、学習画像を予め決められた部分領域に分割し、この部分領域における特徴量の部分ベクトル毎に学習を行い、当該部分領域の部分ベクトル毎の弱識別器hi,k(x,t)を構築し(iは部分領域の番号であり、kは当該部分領域に対応する特徴量の部分ベクトルの番号)、これらの部分領域における特徴量の部分ベクトルに対応する弱識別器の中から最も印象が強い部分領域の特徴量の部分ベクトルを選択し、この部分ベクトルに対応する弱識別器をこの学習処理(t回目の学習処理)における弱識別器h(x,t)として選択するように構成されている。そのため、xは、t回目の学習において入力される画像の特徴量(ベクトル量)Xのうち、各弱識別器h(x,t)が対応する部分領域における部分ベクトルを表している。 Then, the learning processing unit 11a sets “1” as an initial value to the learning step number t (step S610), determines whether the step number t has exceeded a predetermined number of times (Tmax), Steps S630 to S650 are repeated until Tmax is exceeded (step S620). In this iterative process, in step S630, the weak classifier h (x, t) in (t-th) learning for each iterative process is constructed using the learning image read in step S600. Although a detailed construction method of the weak classifier h (x, t) will be described later, the learning processing unit 11a in the present embodiment divides the learning image into predetermined partial areas, and features in the partial areas. Learning is performed for each partial vector of the quantity, and a weak classifier h i, k (x, t) is constructed for each partial vector of the partial area (i is the number of the partial area, and k corresponds to the partial area. Select the partial vector of the feature quantity of the partial area with the strongest impression from the weak classifiers corresponding to the partial vector of the feature quantity in these partial areas, and correspond to this partial vector The weak classifier to be selected is selected as the weak classifier h (x, t) in this learning process (t-th learning process). Therefore, x represents a partial vector in a partial region corresponding to each weak classifier h (x, t) in the feature amount (vector amount) X of the image input in the t-th learning.
また、ステップS640では、ステップS630で構築された弱識別器h(x,t)から、線形結合のためのt回目の学習ステップにおける係数αtを算出し、さらに、次の学習ステップ(t+1回目)で用いるj番目の学習画像の重みDt+1(j)を更新する。そして、ステップS650でステップ数tに1を加算する。 In step S640, the coefficient α t in the t-th learning step for linear combination is calculated from the weak classifier h (x, t) constructed in step S630, and then the next learning step (t + 1-th time). The weight D t + 1 (j) of the j-th learning image used in () is updated. In step S650, 1 is added to the step number t.
以上のようにして、Tmax回の学習をすることにより、Tmax個の部分領域(i)と、この部分領域における部分ベクトル(k)と、弱識別器h(x,t)との組が決定され、ステップS660においてこれらの弱識別器h(x,t)を線形結合することにより1つの強識別器H(X)が構築される。このステップS660において弱識別器h(x,t)を線形結合するための係数αtは、上述のようにステップS640で算出されるが、後述するように、ステップS630で選択された部分領域における部分ベクトルに対応する弱識別器h(x,t)とその誤り率εtとを用いて、次式(1)として決定される。ここで、1枚の学習画像をm個の部分領域に分割したとすると、部分領域の組み合わせの集合はG={g1,g2,...,gm}と表され、j枚目の学習画像の部分領域iに対応するk番目の部分ベクトルをxi,j,kとすると、特徴量のベクトルXは部分ベクトルの集合(X(j)={x1,j,1,x1,j,2,...,x1,j,k1,x2,j,1,x2,j,2,...,x2,j,k2,...,xm,j,1,xm,j,2,...,xm,j,km})として表される。なお、k1,k2,...,kmは、それぞれの部分領域iにおける特徴量の部分ベクトルの数である。 As described above, by learning Tmax times, a set of Tmax partial areas (i), partial vectors (k) in the partial areas, and weak classifiers h (x, t) is determined. In step S660, one weak classifier H (X) is constructed by linearly combining these weak classifiers h (x, t). The coefficient α t for linearly combining the weak classifiers h (x, t) in this step S660 is calculated in step S640 as described above. As described later, in the partial region selected in step S630, the coefficient α t is calculated. Using the weak classifier h (x, t) corresponding to the partial vector and its error rate ε t , it is determined as the following equation (1). Here, assuming that one learning image is divided into m partial regions, a set of combinations of partial regions is G = {g1, g2,. . . , Gm}, and the k-th partial vector corresponding to the partial area i of the j-th learning image is x i, j, k , the feature quantity vector X is a set of partial vectors (X (j) = {X1 , j, 1 , x1 , j, 2 , ..., x1 , j, k1 , x2 , j, 1 , x2 , j, 2 , ..., x2 , j, k2 , ..., xm , j, 1 , xm , j, 2 , ..., xm , j, km }). Note that k1, k2,. . . , Km is the number of feature partial vectors in each partial region i.
この式(1)は、弱識別器h(x,t)の信頼性を表しており、誤り率εtが低いほど係数αtが大きくなり、対応する弱識別器h(x,t)のステップS660での判断の影響が大きくなる。但し、誤り率εtが0.5を超えるときは、弱識別器h(x,t)の判定を逆にすれば誤り率εtを小さくすることができるので、この場合は1から誤り率εtを引いた値を新たな誤り率εtとする。従って、誤り率εtの最悪値は0.5となる。 This expression (1) represents the reliability of the weak classifier h (x, t). The coefficient α t increases as the error rate ε t decreases, and the corresponding weak classifier h (x, t) The influence of the determination in step S660 increases. However, when the error rate epsilon t exceeds 0.5, the weak classifier h (x, t) it is possible to reduce the error rate epsilon t If the judgment of the reverse, the error rate from 1 in this case the value obtained by subtracting the ε t as a new error rate ε t. Therefore, the worst value of the error rate ε t is 0.5.
また、t+1回目の学習における学習画像の重みDt+1(j)は、全ての学習画像に対する重みを加算したときに1になる必要があるため、次式(2)に示す条件値Ztを満たすように、t回目の学習における重みDt(j)から次式(3)により求められる。なお、この式(2)及び(3)において、Jmaxは学習画像の枚数を示し、xi,j,kは、弱識別器が選択された部分領域iに対応するj番目の画像のk番目の部分ベクトルを示し、yjは、j番目の画像の印象ラベルの有無を表し、この学習を行っている印象ラベル判定部に割り当てられた印象ラベルを有する場合は1、有しない場合は−1となる。 In addition, since the weight D t + 1 (j) of the learning image in the t + 1th learning needs to be 1 when the weights for all the learning images are added, the condition value Z t shown in the following equation (2) Is obtained from the weight D t (j) in the t-th learning so as to satisfy the following equation (3). In Equations (2) and (3), Jmax represents the number of learning images, and x i, j, k is the kth of the jth image corresponding to the partial region i for which the weak classifier has been selected. Y j represents the presence or absence of the impression label of the j-th image, 1 if the impression label assigned to the impression label determination unit performing this learning is 1, and -1 otherwise. It becomes.
以上より、ステップS660で構築される1つの強識別器H(X)は、次式(4)で表される。なお、この式(4)において、Xは強識別器Hで評価される画像の特徴量(ベクトル量)であり、xは、特徴量Xのうち、t回目の学習において弱識別器h(x,t)が選択された部分領域に対応する部分ベクトルである。 From the above, one strong classifier H (X) constructed in step S660 is expressed by the following equation (4). In Equation (4), X is a feature quantity (vector quantity) of the image evaluated by the strong classifier H, and x is a weak classifier h (x in the t-th learning of the feature quantity X. , T) are partial vectors corresponding to the selected partial region.
図9では、学習全体を通じて、一番選択された頻度の多かった部分領域が画像の印象に影響を与えている領域として特定される様子が示されており、Tmax回行った学習の結果は、学習全体を通じて出現頻度の高かった領域(丸印が付けられた領域)となる。 FIG. 9 shows a state where the most frequently selected partial area is identified as an area that affects the impression of the image throughout the learning, and the result of learning performed Tmax times is as follows. It becomes a region (a circled region) that has a high appearance frequency throughout the learning.
それでは、図8を用いて、弱識別器h(x,t)を構築するための処理(ステップS630)の具体的構成について説明する。まず、学習画像を予め決められた複数の部分領域に分割する(ステップS6301)。例えば、図9に示すように、横6×縦4の24の部分領域に分割する(この場合は、m=24となる)。なお、ここでは、説明を簡単にするために、縦、横を均等に分割した場合について示しているが、部分領域の大きさは任意に設定することができる。また、これらの分割された部分領域を組み合わせたものを新たな部分領域としても良い。次に上記部分領域の各々における部分ベクトルの数をk={k1,k2,...,km}とする(ステップS6302)。そして、部分領域のカウンタi及び部分ベクトルのカウンタkに初期値として”1”を設定し(ステップS6303)、部分領域g1から順に、部分領域gmまで以下の処理を繰り返す(ステップS6304)。 Now, a specific configuration of the process (step S630) for constructing the weak classifier h (x, t) will be described with reference to FIG. First, the learning image is divided into a plurality of predetermined partial areas (step S6301). For example, as shown in FIG. 9, the image is divided into 24 partial areas of 6 × 4 (in this case, m = 24). In addition, here, in order to simplify the description, the case where the vertical and horizontal sides are equally divided is shown, but the size of the partial region can be arbitrarily set. A combination of these divided partial areas may be used as a new partial area. Next, the number of partial vectors in each of the partial regions is k = {k1, k2,. . . , Km} (step S6302). Then, “1” is set as an initial value in the partial area counter i and the partial vector counter k (step S6303), and the following processing is repeated from the partial area g1 to the partial area gm (step S6304).
まず、上述のステップS600で学習画像記憶部21から読み込んだすべての学習画像の、部分領域giにおける特徴量の部分ベクトルを抽出する(ステップS6305)。上述のように7枚の学習画像がある場合は、i番目の部分領域の処理において抽出された部分ベクトルの集合は、{xi,j,1,xi,j,2,...,xi,j,ki}(j=1,2,...,7)となる。そして、kがkiより大きいか、すなわち、i番目の部分領域に対応する全ての特徴量の部分ベクトルについて判定が終わったか否かを判断し(ステップS6306)、全ての判定が終わっている場合には、iに1を加算し(ステップS6307)、また、kに1を設定し(ステップS6308)、ステップS6304に戻る。一方、ステップS6306で全ての部分ベクトルについて判定が終わっていないと判断したときは、t回目の学習において、学習画像の陽性サンプルの部分領域iの特徴量のk番目の部分ベクトルの重み付き平均値を次式(5)により算出し、学習画像の陰性サンプルの部分領域iの特徴量のk番目の部分ベクトルの重み付き平均値を次式(6)により算出する(ステップS6309)。ここで、陽性サンプルとは、印象ラベル判定部11に設定された印象ラベルに割り当てられている学習画像のことを言い、上述のyj=1のサンプルであり、反対に陰性サンプルとは、当該印象ラベルに割り当てられていない学習画像のことを言い、上述のyj=−1のサンプルである。例えば、図4(b)において、”明るい”という印象ラベルが設定された印象ラベル判定部11の学習処理部11aでは、画像IDが”0001”と”0002”の学習画像が陽性サンプルとなり、それ以外の学習画像が陰性サンプルとなる。なお、式(5),(6)において、〜付きのxは、部分ベクトルの重み付きの平均値であり、添え字の上側の文字は、”Yes”が陽性サンプルに対するものであることを示し、”No”が陰性サンプルに対するものであることを示す。また、m<nである。
First, partial vectors of feature amounts in the partial region gi of all the learning images read from the learning
これらの式(5),(6)において、n1は陽性サンプルの枚数を示し、n2は陰性サンプルの枚数を示している。ここで、n=n1+n2である。また、λjはj番目の学習画像に付加されている印象ラベル数の逆数である。例えば、図7(b)において、画像IDが”0001”の学習画像には印象ラベルとして”明るい”と”落ち着いた”が付加されており、λ1=0.5となる。同様に、画像IDが”0002”の学習画像には”明るい”という印象ラベルだけが付加されているため、λ2=1.0となる。つまり、このλjは、j番目の学習画像の印象に対する影響力を表しており、多くの印象ラベルが付加されている学習画像ほど、その学習画像の印象に与える影響力は小さくなる。また、Dt(j)は、t回目の学習における、j番目のサンプルの重みである。ここで言う重みとは、各学習画像が平均的な特徴量の部分ベクトルである式(5)及び(6)に影響を与える割合のことであり、常に以下の式(7)の関係を満足するものとする。 In these formulas (5) and (6), n 1 represents the number of positive samples, and n 2 represents the number of negative samples. Here, n = n 1 + n 2 . Λ j is the reciprocal of the number of impression labels added to the j-th learning image. For example, in FIG. 7B, “bright” and “settled” are added as impression labels to the learning image with the image ID “0001”, and λ 1 = 0.5. Similarly, since only the impression label “bright” is added to the learning image with the image ID “0002”, λ 2 = 1.0. That is, λ j represents the influence on the impression of the j-th learning image, and the influence on the impression of the learning image becomes smaller as the learning image to which more impression labels are added. D t (j) is the weight of the j-th sample in the t-th learning. The weight mentioned here is a ratio that affects the equations (5) and (6) in which each learning image is a partial vector of an average feature amount, and always satisfies the relationship of the following equation (7). It shall be.
なお、この陽性及び陰性サンプルの重みDt(j)は、学習ステップの回数とともに変化するが、初期値(t=1)のときの値は、それぞれ、次式(8),(9)により定義され、各学習サンプルの重みを同じとする。 The weight D t (j) of the positive and negative samples changes with the number of learning steps, but the value at the initial value (t = 1) is expressed by the following equations (8) and (9), respectively. Defined and the weight of each learning sample is the same.
次に、上述のステップS6309で算出された特徴量の部分ベクトルの平均値と、各学習画像の特徴量の部分ベクトルとのユークリッド距離を次式(10),(11)により算出する(ステップS6310)。式(10)において、f1(x)は、第i番目の領域のk番目の部分ベクトルと陽性サンプルの特徴量のk番目の部分ベクトルの平均値とのユークリッド距離を示し、式(11)において、f2(x)は、第i番目の領域のk番目の部分ベクトルと陰性サンプルの特徴量のk番目の部分ベクトルの平均値とのユークリッド距離を示している。ただし、距離計算は1ノルムなど別のノルムでも代用できる。また、特徴量の部分ベクトルの平均値の添え字のうち、最初のtは、t回目の学習ステップであることを示す。 Next, the Euclidean distance between the average value of the partial vector of the feature amount calculated in step S6309 and the partial vector of the feature amount of each learning image is calculated by the following equations (10) and (11) (step S6310). ). In equation (10), f 1 (x) represents the Euclidean distance between the kth partial vector of the i-th region and the average value of the kth partial vector of the feature quantity of the positive sample. , F 2 (x) represents the Euclidean distance between the k-th partial vector of the i-th region and the average value of the k-th partial vector of the feature quantity of the negative sample. However, the distance calculation can be substituted by another norm such as 1 norm. Of the subscripts of the average value of the partial vector of feature amounts, the first t indicates the t-th learning step.
そして、ステップS6310で算出された距離f1(x),f2(x)を用いて、第i番目の部分領域のk番目の部分ベクトルにおいて印象が陽性か陰性かを判定する弱識別器hi,k(x,t)を次式(12)により構築する(ステップS6311)。ここで、”1”が陽性で、”−1”が陰性を表す。すなわち、この式(12)で表される弱識別器hi,k(x,t)は、評価画像の特徴量の部分ベクトルと学習画像より得られた部分ベクトルの重み付き平均値との距離が、陽性サンプルと近いときに陽性(1)と判断され、陽性及び陰性サンプルとの距離が等しいか若しくは陰性サンプルと近いときに陰性(−1)と判断するものである。 Then, using the distances f 1 (x) and f 2 (x) calculated in step S6310, the weak classifier h that determines whether the impression is positive or negative in the k-th partial vector of the i-th partial region. i, k (x, t) is constructed by the following equation (12) (step S6311). Here, “1” is positive and “−1” is negative. That is, the weak classifier h i, k (x, t) represented by the equation (12) is the distance between the partial vector of the feature amount of the evaluation image and the weighted average value of the partial vector obtained from the learning image. Is judged as positive (1) when close to the positive sample, and negative (-1) when the distance between the positive and negative samples is equal or close to the negative sample.
最後に、上述のステップS6311で構築された弱識別器hi,k(x,t)を用いて、すべての学習画像の第i番目の部分領域に対するk番目の部分ベクトルの判定を行い、その判定結果と、印象ラベル記憶テーブル212に設定された状態(陽性サンプルか、陰性サンプルか)が一致するかを検査する(ステップS6312)。この検査の結果、すべての学習画像について、弱識別器による判定結果と設定状態とが一致するときはkに1を加えた後(ステップS6315)、ステップS6306に戻り当該部分領域の次の部分ベクトルについて上記処理を繰り返す(ステップS6313)。一方、このステップS6313で何れかの学習画像において判定結果と設定状態とが一致しないときは、次式(13)により、該当する弱識別器hi,k(x,t)(言い換えると、該当する部分領域iのk番目の部分ベクトル)に対応する誤り率εi,kを算出し(ステップS6314)、kに1を加えた後(ステップS6315)ステップS6306に戻る。 Finally, using the weak classifiers h i, k (x, t) constructed in step S6311 described above, the k-th partial vector for the i-th partial region of all learning images is determined, It is examined whether the determination result matches the state (positive sample or negative sample) set in the impression label storage table 212 (step S6312). As a result of this inspection, when the determination result by the weak classifier matches the set state for all learning images, 1 is added to k (step S6315), and the process returns to step S6306 and the next partial vector of the partial area. The above processing is repeated for (Step S6313). On the other hand, if the determination result does not match the set state in any learning image in step S6313, the corresponding weak classifier h i, k (x, t) (in other words, Error rate ε i, k corresponding to the kth partial vector of the partial area i to be calculated (step S6314), 1 is added to k (step S6315), and the process returns to step S6306.
このようなステップS6309からS6312までの一連の処理を部分領域の組み合わせの集合Gの要素数だけ繰り返す。最終的に、i個の部分領域において、最も誤り率εi,kが低かった弱識別器hi,k(x,t)を、t回目の学習における弱識別器h(x,t)として選択し、学習ステップtと、この弱識別器h(x,t)に関する部分領域の番号i、部分ベクトルの番号k、係数αt及び選択された部分領域における特徴量のk番目の部分ベクトルの重み付き平均値とを学習結果記憶部22の特徴量テーブル221及び判定情報テーブル222に記憶する(ステップS6316)。なお、この特徴量テーブル221は、図10(a)に示すように印象IDカラム221aと特徴量カラム221bと、から構成され、印象IDカラム221aに記憶された印象ID毎に、特徴量カラム221bにt=1回目からTmax回目までの学習で選択された部分領域の番号i及び当該部分領域における部分ベクトルの番号kが記憶される。また、判定情報テーブル222は、図10(b)に示すように、印象IDカラム222aと、学習回数カラム222bと、係数カラム222cと、平均値カラム222dと、から構成され、印象ID毎に、t=1〜Tmax回までの学習における係数(αt)及び部分ベクトルの重み付き平均値が記憶される。なお、弱識別器hi,k(x,t)が選択された部分領域iの部分ベクトルkにおける誤り率εi,kが、t回目の学習における誤り率εtとして選択される。
Such a series of processing from steps S6309 to S6312 is repeated by the number of elements of the set G of partial area combinations. Finally, the weak classifier h i, k (x, t) having the lowest error rate ε i, k in the i partial regions is set as the weak classifier h (x, t) in the t-th learning. The learning step t, the partial area number i, the partial vector number k, the coefficient α t and the k-th partial vector of the feature quantity in the selected partial area for the weak classifier h (x, t). The weighted average value is stored in the feature value table 221 and the determination information table 222 of the learning result storage unit 22 (step S6316). As shown in FIG. 10A, the feature amount table 221 includes an
(b)画像の評価
評価処理部11bは、上述の学習結果に基づいて、式(4)により画像の評価を行うものである。具体的には、図9に示すように、まず、図1においては図示しない入力装置等により評価を行う対象となる画像(上述の画像200)が指定されると、表示画像記憶装置2から評価を行う画像200を取得する(ステップS700)。なお、学習結果記憶部22に、図12に示すような前処理格納データテーブル223を設けておき、この前処理格納データテーブル223に設定された情報に基づいて表示画像記憶装置2から取得した画像200を処理することが望ましい。
(B) Image Evaluation The
具体的には、この前処理格納データテーブル223には、前処理情報が記憶される前処理カラム223aと、そのオン/オフ及び設定値が記憶される設定値カラム223bとから構成されており、画像200の前処理として、「リサイズ」、「EXIFサムネイル画像使用」、「平滑化」、等が記憶されている。「リサイズ」とは取得した画像200を、設定値カラム223bに設定されているサイズ(画素数)にリサイズする処理であり、「EXIFサムネイル画像使用」とは、画像200がEXIF形式のファイルであるときに、そのファイル内に格納されているサムネイル画像を印象の判断に使用するというものであり、「平滑化」とは画像200を平滑化する処理である。このように、印象ラベルの評価を行う前に、画像200に対して前処理を施しておくことで、以下の特徴量を算出する際の処理時間を短縮でき、処理の高速化が可能となる。
Specifically, the preprocessing storage data table 223 includes a
そして、この画像200(若しくは、前処理後の画像)の特徴量のベクトルXを算出する(ステップS710)。次に、繰り返し回数tに初期値として”1”を設定し、この繰り返し回数tがTmaxより大きくなるまで次の処理(ステップS740〜ステップS760)を繰り返す(ステップS730)。ステップS740では、学習結果記憶部22の特徴量テーブル221からt回目の学習におけるi,kを取得し、また、判定情報テーブル222からt回目の学習における部分領域iのk番目の部分ベクトルの重み付き平均値を取得する。そして、ステップS750では、ステップS710で算出した画像の特徴量のベクトルXのうち、部分領域iにおけるk番目の部分ベクトル(x)と、ステップS740で取得した部分領域iのk番目の部分ベクトルの重み付き平均値とから、式(10)〜(12)により弱識別器h(x,t)の値を求める(ステップS750)。そして、ステップS760ではtに1を加算する。以上のようにして、Tmax個の弱識別器h(x,t)の結果が出ると、最後に、判定情報テーブル222からTmax個の重みαtの値を読み出し(ステップS770)、式(4)により、強識別器H(X)の値を算出する(ステップS780)。
Then, a feature value vector X of the image 200 (or an image after preprocessing) is calculated (step S710). Next, “1” is set as an initial value for the number of repetitions t, and the next processing (step S740 to step S760) is repeated until the number of repetitions t is greater than Tmax (step S730). In step S740, i and k in the t-th learning are acquired from the feature amount table 221 in the learning
以上のような構成によると、評価処理部11bは、画像200が、この評価処理部11bが設けられた印象ラベル判定部11に設定されている印象ラベルに相当する印象を有するか否かを数値として算出することができる。上述のように弱識別器h(x,t)は”1”か”−1”の値が出力されるため、判定結果出力部14において、強識別器H(X)の値が正の値であれば当該印象を有し、0より小さい値であれば当該印象を有しないと判断することができる。あるいは、所定の閾値を設定し、この閾値以上の値であれば当該印象を有し、閾値より小さければ当該印象を有しないと判断することもできる。すなわち、この印象ラベル判定部11においては、強識別器H(X)の値は、印象を有する/有しない(”1”か”−1”か)ではなく、Tmax個の弱識別器と重みαtとの積の総和(線形結合)であるため、判定結果出力部14は、印象の近接度合いを数値として表現することが可能である。そのため、複数の印象ラベルが設定された印象ラベル判定部11の各々の演算結果(H(X))を比較して、どの印象が最も強いのかというような比較や、順位付けも行うことが可能である。
According to the above configuration, the
なお、本実施形態における印象判定処理部10において、判定結果出力部14は、複数の印象ラベルのそれぞれに対応付けられた印象ラベル判定部11からの判定結果(強識別器H(X)の値)から、最も大きな値をその画像の印象ラベル(印象)として表示するように構成することもできるし、所定の閾値以上の印象ラベルを出力するように構成することもできる。また、画像の印象ラベルを操作部等からユーザが選択できるように、印象ラベル判定部11の選択部を設けることも可能である。また、以上の説明においては、印象ラベル判定部11が学習処理部11aと評価処理部11bとを有する場合について説明したが、本実施形態における印象ラベル判定部11は、画像200の印象判定だけを行うことができれば良いので、予め学習した結果が記憶された学習記憶部22と評価処理部11bとを有していれば、学習処理部11a及び学習画像記憶部21は省略可能である。
In the impression
そして、以上のような印象判定処理部10の判定結果出力部14は判定結果から得られた印象ラベルを上述した印象決定部40に出力する。印象決定部40における処理は上述の通りである。
And the determination
以上のように、印象判定処理部10において、画像の印象を与えている部分領域と特徴量の部分ベクトルとを学習により特定し、それらの情報に基づいて識別器が構築され、そのような識別器によって、画像の印象ラベルの特定を行うことができる。そして、印象判定処理部10において特定された画像の印象ラベルに合致した色により、画像の印象を強調して、表示装置3に画像を表示する際に、その印象が強調された画像として表示することができるので、ユーザが、視覚的に十分に楽しめ、かつ、満足度の高い、表示を行うことができる。また、上述の例では、印象ラベルに対応する色を画像上に表示する際に、その色が1色の場合について説明したが、2色以上の場合には、その2色以上の色を画面上に配置して、画像を強調する際に、グラデーション表示したり、格子状に配置したり、市松模様や、チェック状、千鳥格子状に配置したりしても良い。または、その2色以上の場合に、判定結果(強識別器H(X)の値)において最も大きな値の印象ラベルをメインのベース色として、その上に、模様等で他の色を配置するようにしてもよい。
As described above, in the impression
1 コンピュータ 3 表示装置 22 学習結果記憶部
30 画像解析部
41 印象ラベル関係定義記憶部(412 印象枠定義テーブル)
100 画像表示装置
1
100 Image display device
Claims (7)
前記画像解析部により、
前記画像から当該画像の特徴量を算出して、当該特徴量と前記学習結果記憶部に記憶されている前記学習結果に基づいて当該画像における前記複数の印象ラベルの各々に対する印象の近接度合いを判定する画像印象判定ステップと、
前記画像印象判定ステップでの前記印象ラベルに対する印象の近接度合いが、閾値以上である印象ラベルを選択して、当該印象ラベルを前記画像の印象ラベルとする印象ラベル決定ステップと、
前記表示装置に前記画像を表示する際に、前記印象ラベル決定ステップにおいて決定された前記印象ラベルが有する印象を強化する画像処理を前記画像に対して施して出力する印象強化画像処理ステップと、
を有する画像表示方法。 The image analysis unit is executed by a computer accessible to a learning result storage unit in which a learning result of an image impression is stored for each of a plurality of pre-registered impression labels, the impression of the input image is determined, An image display method for enhancing an impression and outputting to a display device,
By the image analysis unit,
The feature amount of the image is calculated from the image, and the proximity degree of the impression to each of the plurality of impression labels in the image is determined based on the feature amount and the learning result stored in the learning result storage unit. An image impression determination step,
An impression label determining step of selecting an impression label whose degree of proximity of the impression to the impression label in the image impression determination step is equal to or greater than a threshold, and using the impression label as an impression label of the image;
Impression-enhanced image processing step of performing image processing for enhancing the impression of the impression label determined in the impression label determination step when the image is displayed on the display device, and outputting the image.
An image display method comprising:
前記印象強化画像処理ステップにおいて、前記印象枠定義テーブルから、前記画像の前記印象ラベルに対応する当該画像の印象を強化する前記強化色を取得し、前記画像の周囲に前記強化色を配置して前記表示装置に表示するように構成された請求項1〜3いずれか一項に記載の画像表示方法。 The image analysis unit can access an impression frame definition table in which an enhanced color that enhances an impression of the image having the impression label is stored for each impression label,
In the impression enhancement image processing step, the enhancement color for enhancing the impression of the image corresponding to the impression label of the image is acquired from the impression frame definition table, and the enhancement color is arranged around the image. The image display method according to claim 1, wherein the image display method is configured to display on the display device.
前記印象強化画像処理ステップにおいて、
前記印象ラベル決定ステップにおいて決定された前記画像に対する前記印象ラベルが複数あるときに、最も印象の近接度合いの高い前記印象ラベルに対応する前記矛盾する色を前記印象枠定義テーブルから取得し、
前記印象強化画像処理ステップにおいて、当該矛盾する色を前記画像に配置しないようにした請求項4に記載の画像表示方法。 The impression frame definition table stores a color that contradicts the enhanced color for each impression label,
In the impression enhancing image processing step,
When there are a plurality of impression labels for the image determined in the impression label determination step, the contradictory color corresponding to the impression label having the highest degree of proximity of the impression is acquired from the impression frame definition table,
The image display method according to claim 4, wherein the contradictory color is not arranged in the image in the impression enhancing image processing step.
画像を表示する表示装置と、
請求項6に記載のプログラムを実行するコンピュータと、を有する画像表示装置。 A learning result storage unit storing a learning result of an image impression for each of a plurality of impression labels registered in advance;
A display device for displaying an image;
An image display apparatus comprising: a computer that executes the program according to claim 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008184353A JP5314954B2 (en) | 2008-07-16 | 2008-07-16 | Image display method, program, and image display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008184353A JP5314954B2 (en) | 2008-07-16 | 2008-07-16 | Image display method, program, and image display apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010026017A true JP2010026017A (en) | 2010-02-04 |
JP5314954B2 JP5314954B2 (en) | 2013-10-16 |
Family
ID=41731944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008184353A Active JP5314954B2 (en) | 2008-07-16 | 2008-07-16 | Image display method, program, and image display apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5314954B2 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266835A (en) * | 1993-03-11 | 1994-09-22 | Fujitsu Ltd | Plotting system |
JPH09161062A (en) * | 1995-12-13 | 1997-06-20 | Nissan Motor Co Ltd | Method for recognizing pattern |
JPH11203453A (en) * | 1998-01-19 | 1999-07-30 | Fuji Xerox Co Ltd | Image processor and its method |
JPH11283036A (en) * | 1998-03-30 | 1999-10-15 | Toshiba Tec Corp | Object detector and object detection method |
JP2004333689A (en) * | 2003-05-02 | 2004-11-25 | Nippon Hoso Kyokai <Nhk> | Presentation system and presentation method |
US20060203312A1 (en) * | 2003-07-29 | 2006-09-14 | Koninklijke Philips Electronics N.V. | Enriched photo viewing experience of digital photographs |
WO2007029467A1 (en) * | 2005-09-05 | 2007-03-15 | Konica Minolta Medical & Graphic, Inc. | Image processing method and image processing device |
US20070242162A1 (en) * | 2004-06-30 | 2007-10-18 | Koninklijke Philips Electronics, N.V. | Dominant Color Extraction Using Perceptual Rules to Produce Ambient Light Derived From Video Content |
JP2008122551A (en) * | 2006-11-10 | 2008-05-29 | Matsushita Electric Ind Co Ltd | Image display device and determining method for image quality adjustment parameter |
-
2008
- 2008-07-16 JP JP2008184353A patent/JP5314954B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266835A (en) * | 1993-03-11 | 1994-09-22 | Fujitsu Ltd | Plotting system |
JPH09161062A (en) * | 1995-12-13 | 1997-06-20 | Nissan Motor Co Ltd | Method for recognizing pattern |
JPH11203453A (en) * | 1998-01-19 | 1999-07-30 | Fuji Xerox Co Ltd | Image processor and its method |
JPH11283036A (en) * | 1998-03-30 | 1999-10-15 | Toshiba Tec Corp | Object detector and object detection method |
JP2004333689A (en) * | 2003-05-02 | 2004-11-25 | Nippon Hoso Kyokai <Nhk> | Presentation system and presentation method |
US20060203312A1 (en) * | 2003-07-29 | 2006-09-14 | Koninklijke Philips Electronics N.V. | Enriched photo viewing experience of digital photographs |
US20070242162A1 (en) * | 2004-06-30 | 2007-10-18 | Koninklijke Philips Electronics, N.V. | Dominant Color Extraction Using Perceptual Rules to Produce Ambient Light Derived From Video Content |
WO2007029467A1 (en) * | 2005-09-05 | 2007-03-15 | Konica Minolta Medical & Graphic, Inc. | Image processing method and image processing device |
JP2008122551A (en) * | 2006-11-10 | 2008-05-29 | Matsushita Electric Ind Co Ltd | Image display device and determining method for image quality adjustment parameter |
Also Published As
Publication number | Publication date |
---|---|
JP5314954B2 (en) | 2013-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20100271513A1 (en) | Selection of decorative picture suitable for input picture | |
US20150278710A1 (en) | Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium | |
CN109670558A (en) | It is completed using the digital picture of deep learning | |
US20130101209A1 (en) | Method and system for extraction and association of object of interest in video | |
EP1555634A1 (en) | Method and apparatus for automatically determining image foreground color | |
KR100669251B1 (en) | Apparatus and method for automatically analyzing digital image quality | |
CN105761283A (en) | Picture dominant color extraction method and device | |
US8345742B2 (en) | Method of processing moving picture and apparatus thereof | |
JP2006172437A (en) | Method for determining position of segment boundary in data stream, method for determining segment boundary by comparing data subset with vicinal data subset, program of instruction executable by computer, and system or device for identifying boundary and non-boundary in data stream | |
US20090251458A1 (en) | Image signal generating apparatus, image signal generation method, computer program, and recording medium | |
CN114005077B (en) | Audience evaluation data driven silent product video creation auxiliary method and device | |
JP6031210B1 (en) | Sales prediction device, sales prediction method, and program | |
JP2012174273A (en) | Image processing apparatus and image processing method | |
CN114677402A (en) | Poster text layout, poster generation method and related device | |
Liu et al. | Image-driven harmonious color palette generation for diverse information visualization | |
JP2004086737A (en) | Method and device for similarity determination and program | |
JPH1139325A (en) | Similarity retrieval method and system therefor | |
JP5314954B2 (en) | Image display method, program, and image display apparatus | |
JP6855175B2 (en) | Image processing equipment, image processing methods and programs | |
JP2022036131A (en) | Learning device, inferring device, learning method, inferring method, computer system, and program | |
CN108491820A (en) | Limbs indicate recognition methods, device and the equipment of information, storage medium in image | |
JP2000048041A (en) | Data retrieval system and device to be used for the system | |
US11494553B2 (en) | Document creation assistance apparatus and non-transitory computer readable medium | |
JP7144384B2 (en) | Object detection device, method and program | |
Bohra et al. | ColorArt: Suggesting colorizations for graphic arts using optimal color-graph matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A625 | Written request for application examination (by other person) |
Free format text: JAPANESE INTERMEDIATE CODE: A625 Effective date: 20110715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130611 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130708 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5314954 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |