JP2010026017A - Image display method, program, and image display device - Google Patents

Image display method, program, and image display device Download PDF

Info

Publication number
JP2010026017A
JP2010026017A JP2008184353A JP2008184353A JP2010026017A JP 2010026017 A JP2010026017 A JP 2010026017A JP 2008184353 A JP2008184353 A JP 2008184353A JP 2008184353 A JP2008184353 A JP 2008184353A JP 2010026017 A JP2010026017 A JP 2010026017A
Authority
JP
Japan
Prior art keywords
impression
image
label
learning
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008184353A
Other languages
Japanese (ja)
Other versions
JP5314954B2 (en
Inventor
Koji Nishigaki
弘二 西垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Systems Inc
Original Assignee
Nikon Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Systems Inc filed Critical Nikon Systems Inc
Priority to JP2008184353A priority Critical patent/JP5314954B2/en
Publication of JP2010026017A publication Critical patent/JP2010026017A/en
Application granted granted Critical
Publication of JP5314954B2 publication Critical patent/JP5314954B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide: an image display method which specifies an impression dominating a digital image and performs processing having an effect of enhancing the impression of the digital image to display the display image; a program for executing this method; and an image display device. <P>SOLUTION: In the image display method, impression labels of an input image 200 are determined per determination part 11 in an impression determination processing part 10 having a plurality of determination parts 11, and an impression decision part 40 decides an impression label whose determination result is equal to or larger than a threshold, as an impression label of this image, and the image is subjected to processing of enhancing the impression of the decided impression label when being displayed on a display device 3. The program executes the image display method, and the image display device is provided. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像表示方法、それを実行するプログラム、及び、画像表示装置に関する。   The present invention relates to an image display method, a program for executing the method, and an image display apparatus.

従来、デジタル画像を表示するだけでなく、音や光のコントラスなどにより、その視聴環境を向上させて、ユーザが楽しめ、満足感を与えることができるような技術が開発されてきている。例えば、デジタル画像の表示装置に連動する照明設備や、音響設備、若しくは、デジタル画像を表示するディスプレイに加えて他のディスプレイを空間に配置し、ユーザが、デジタル画像を再生する際に、デジタル画像が撮影された場所や時間に基づいて、デジタル画像を表示するディスプレイ以外の設備等が連動して、音や映像などを生成し、視覚的のみならず、聴覚的にも楽しむことのできる空間を形成する技術が開示されている(例えば、特許文献1参照)。しかし、このような方法では、設備が大がかりなものとなり、それらを配置するスペース等の問題から、ユーザが手軽に楽しむことができるものとはなっていない。そこで、デジタル画像から一定の法則に基づいて知覚的に支配的な色を抽出し、デジタル画像の表示の際に、抽出した色の光を生成して、デジタル画像の周囲からその光を発するようにして、視覚的に楽しむことができる技術が提案されている(例えば、特許文献2)。
米国特許出願公開第2006/0203312号明細書 米国特許出願公開第2007/0242162号明細書
2. Description of the Related Art Conventionally, a technique has been developed that not only displays a digital image but also improves the viewing environment by using sound or light contrast, so that the user can enjoy and give satisfaction. For example, when a user plays back a digital image by arranging another display in the space in addition to a lighting facility, a sound facility, or a display that displays the digital image linked to the display device of the digital image, the digital image Based on the location and time at which the image was taken, the equipment other than the display that displays the digital image is linked to generate sound and video, which can be enjoyed not only visually but also auditorily. A forming technique is disclosed (for example, see Patent Document 1). However, in such a method, facilities are large-scaled, and it is not easy for the user to enjoy due to problems such as space for arranging them. Therefore, a perceptually dominant color is extracted from a digital image based on a certain rule, and when the digital image is displayed, the extracted color light is generated and emitted from the periphery of the digital image. Thus, a technique that can be enjoyed visually has been proposed (for example, Patent Document 2).
US Patent Application Publication No. 2006/020312 US Patent Application Publication No. 2007/0242162

しかしながら、この方法では、デジタル画像の周辺部分を6分割して、その画像の抽出された色に基づく光をその6分割された領域からそれぞれ発光させるのみであり、ユーザが満足感を十分に得ることができるものとはなっていない。つまり、この技術では、そのデジタル画像に支配的な色を抽出させて表示する際に、その色に基づく光を周囲から発光させるだけであるので、デジタル画像とその発光色が調和してしまい、視覚的にも画像が単調なものとなってしまうという課題があった。   However, in this method, the peripheral part of the digital image is divided into six parts, and the light based on the extracted color of the image is only emitted from each of the six divided areas. It is not something that can be done. In other words, in this technique, when a dominant color is extracted from the digital image and displayed, the light based on the color is only emitted from the surroundings, so the digital image and the emission color are harmonized. There has been a problem that the image becomes monotonous visually.

本発明は、このような課題に鑑みてなされたものであり、デジタル画像を支配する印象を特定して、そのデジタル画像の印象を強める効果のある処理を施して表示することにより、ユーザが視覚的に楽しめ、高い満足感が得られる画像表示方法、それを実行するプログラム、及び、画像表示装置を提供することを目的とする。   The present invention has been made in view of such problems, and it is possible to identify an impression that dominates a digital image, and to display the image by performing processing that has an effect of enhancing the impression of the digital image. An object of the present invention is to provide an image display method that can be enjoyed and that provides high satisfaction, a program that executes the image display method, and an image display device.

前記課題を解決するため、本発明に係る画像表示方法は、画像解析部を有し、予め登録された複数の印象ラベル毎に画像印象の学習結果が記憶された学習結果記憶部にアクセス可能なコンピュータにより実行され、入力された画像の印象を判定し、当該印象を強化して表示装置に出力する画像表示方法であって、画像解析部により、入力された画像から当該画像の特徴量を算出して、当該特徴量と学習結果記憶部に記憶されている学習結果に基づいて当該画像における複数の印象ラベルの各々に対する印象の近接度合いを判定する画像印象判定ステップと、この画像印象判定ステップでの印象ラベルに対する印象の近接度合いが、閾値以上である印象ラベルを選択して、当該印象ラベルを画像の印象ラベルとする印象ラベル決定ステップと、表示装置に画像を表示する際に、印象ラベル決定ステップにおいて決定された印象ラベルが有する印象を強化する画像処理を画像に対して施して出力する印象強化画像処理ステップと、を有する。   In order to solve the above-described problem, the image display method according to the present invention includes an image analysis unit, and can access a learning result storage unit in which learning results of image impressions are stored for each of a plurality of previously registered impression labels. An image display method that is executed by a computer, determines an impression of an input image, enhances the impression, and outputs the image to a display device. The image analysis unit calculates a feature amount of the image from the input image Then, an image impression determination step for determining the degree of proximity of the impression to each of a plurality of impression labels in the image based on the feature amount and the learning result stored in the learning result storage unit, and the image impression determination step Selecting an impression label whose degree of proximity of the impression to the impression label is equal to or greater than a threshold value, and setting the impression label as an impression label of the image; When an image is displayed on the shown apparatus has an impression enhancement image processing step of outputting performs image processing to enhance the impression having the impression label determined in impressive label determining step for the image, a.

このような画像表示方法は、画像印象判定ステップにおいて、画像に前処理を施して、当該前処理が施された画像の特徴量を算出するように構成されることが好ましい。   Such an image display method is preferably configured to perform preprocessing on the image and calculate a feature amount of the image subjected to the preprocessing in the image impression determination step.

また、このような画像表示方法は、印象ラベル決定ステップにおいて、閾値以上の印象ラベルから、印象の近接度合いの最も高い印象ラベルに対して、矛盾する印象ラベルを除いて、画像の印象ラベルを決定するように構成されることが好ましい。   In addition, in such an image display method, in the impression label determination step, the impression label of the image is determined by removing the contradictory impression label from the impression label that is equal to or higher than the threshold with respect to the impression label having the highest degree of proximity of the impression. It is preferable to be configured to do so.

また、このような画像表示方法において、印象解析部は、印象ラベルごとに当該印象ラベルを有する画像の印象を強化する強化色が記憶された印象枠定義テーブルにアクセス可能であり、印象強化画像処理ステップにおいて、印象枠定義テーブルから、画像の印象ラベルに対応する当該画像の印象を強化する強化色を取得し、画像の周囲にこの強化色を配置して表示装置に表示するように構成されることが好ましい。   Further, in such an image display method, the impression analysis unit can access an impression frame definition table in which an enhanced color that enhances an impression of an image having the impression label is stored for each impression label, and the impression enhanced image processing In the step, an enhanced color for enhancing the impression of the image corresponding to the impression label of the image is acquired from the impression frame definition table, and the enhanced color is arranged around the image and displayed on the display device. It is preferable.

また、このような画像表示方法において、印象枠定義テーブルは、印象ラベルごとに強化色と矛盾する色を記憶し、印象強化画像処理ステップにおいて、印象ラベル決定ステップにおいて決定された画像に対する印象ラベルが複数あるときに、最も印象の近接度合いの高い印象ラベルに対応する矛盾する色を印象枠定義テーブルから取得し、印象強化画像処理ステップにおいて、当該矛盾する色を画像に配置しないようにすることが好ましい。   In such an image display method, the impression frame definition table stores a color that contradicts the reinforced color for each impression label, and the impression label for the image determined in the impression label determination step is stored in the impression reinforced image processing step. When there are a plurality of colors, the contradictory color corresponding to the impression label having the highest degree of proximity of the impression is acquired from the impression frame definition table, and the contradictory color is not arranged in the image in the impression enhancement image processing step. preferable.

また、本発明に係る画像表示方法をコンピュータに実行させるためのプログラムを作成することができ、このプログラムは、例えば、フレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等の記憶媒体または記憶装置に格納される。また、ネットワークを介してデジタル信号として配信される場合もある。このとき、中間的な処理結果は、メインメモリ等の記憶装置に一時保管される。   In addition, a program for causing a computer to execute the image display method according to the present invention can be created. This program is, for example, a storage medium such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, a hard disk, or the like. It is stored in a storage device. Moreover, it may be distributed as a digital signal via a network. At this time, intermediate processing results are temporarily stored in a storage device such as a main memory.

また、本発明に係る画像表示装置は、予め登録された複数の印象ラベル毎に画像印象の学習結果が記憶された学習結果記憶部と、画像を表示する表示装置と、上述のプログラムを実行するコンピュータと、を有して構成される。   The image display device according to the present invention executes a learning result storage unit that stores a learning result of an image impression for each of a plurality of pre-registered impression labels, a display device that displays an image, and the above-described program. And a computer.

本発明に係る、画像表示方法、プログラム、及び、画像表示装置を以上のように構成すると、その画像の印象を与えている部分領域に基づいて、画像の印象を特定し、ユーザが視覚的に楽しめ、高い満足感が得られるように、その特定した印象を強める効果のある処理を画像に施して表示することができる。   When the image display method, the program, and the image display device according to the present invention are configured as described above, the image impression is specified based on the partial region giving the image impression, and the user visually The image can be displayed with a process having an effect of enhancing the specified impression so that the user can enjoy and have high satisfaction.

以下、本発明の好ましい実施形態について図面を参照して説明する。まず、図1を用いて、本実施形態に係る画像表示装置100の構成について説明する。この画像表示装置100は、CPUや、RAM、ROM等を有し、プログラムを実行可能なコンピュータ1と、画像を記憶する表示画像記憶装置2と、画像が表示される表示装置3と、を有して構成される。このコンピュータ1においては、プログラムにより実現される画像解析部30が設けられており、この画像解析部30は、表示画像記憶装置2から読み出された画像の印象判定を行う印象判定処理部10と、印象判定処理部10の評価結果に対して、印象ラベル関係定義記憶部41のデータを参照して、評価した画像の印象強化処理等を行う印象決定部40と、を有しており、その印象決定部40の結果と共に、画像が表示装置3に表示されるように構成されている。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. First, the configuration of the image display apparatus 100 according to the present embodiment will be described with reference to FIG. The image display device 100 includes a CPU, a RAM, a ROM, and the like, and includes a computer 1 that can execute a program, a display image storage device 2 that stores images, and a display device 3 that displays images. Configured. The computer 1 is provided with an image analysis unit 30 realized by a program. The image analysis unit 30 includes an impression determination processing unit 10 that performs impression determination of an image read from the display image storage device 2. An impression determination unit 40 that performs an impression enhancement process on the evaluated image with reference to the data in the impression label relation definition storage unit 41 with respect to the evaluation result of the impression determination processing unit 10. An image is displayed on the display device 3 together with the result of the impression determination unit 40.

ここで、印象判定処理部10は、印象ラベル毎に設けられ、学習画像に基づく学習結果を用いて表示画像記憶装置2から読み出されたデジタル画像200(以下、「画像200」という)の評価を行う複数の印象ラベル判定部11と、学習画像が記憶される学習画像記憶部21と、印象ラベル判定部11による学習結果が記憶される学習結果記憶部22と、複数の印象ラベル判定部11による判定結果を印象決定部40に出力する判定結果出力部14と、を有して構成される。この印象判定処理部10における画像の印象判定の方法等についての詳細は、後述するとして、表示装置3に表示される画像にどのような印象強化処理が施されるのかについて、図2〜図4を用いて説明する。   Here, the impression determination processing unit 10 is provided for each impression label, and evaluates a digital image 200 (hereinafter referred to as “image 200”) read from the display image storage device 2 using a learning result based on the learning image. A plurality of impression label determination units 11, a learning image storage unit 21 in which learning images are stored, a learning result storage unit 22 in which learning results from the impression label determination unit 11 are stored, and a plurality of impression label determination units 11 And a determination result output unit 14 that outputs the determination result by the impression determination unit 40. Details of the impression determination method and the like of the image in the impression determination processing unit 10 will be described later, and what kind of impression enhancement processing is performed on the image displayed on the display device 3 will be described with reference to FIGS. Will be described.

ユーザが、画像の印象を強化して、視覚的に楽しみたいときには、コンピュータ1においてこの画像解析部30が実行され、画像の表示再生が開始される。まず、図示しない入力装置等を用いてユーザにより表示装置3に表示したい画像200が選択され、画像解析部30は、表示画像記憶装置2からこの画像200を読み出し(ステップS100)、後述する印象判定処理部10によりこの画像200の印象判定を行い、画像200に対する印象ラベルごとの印象の近接度合いの評価を行う(ステップS101(画像印象判定ステップ))。そして、印象判定処理部10の処理が終了すると、次に、印象決定部40が、各印象ラベルの印象判定の結果から評価対象である画像200の最終的な印象ラベルを決定する(ステップS102(印象ラベル決定ステップ))。このとき、印象決定部40は、印象ラベル関係定義記憶部41を参照する。この印象ラベル関係定義記憶部41には、図3(a)に示す印象ラベル定義テーブル411と、図3(b)に示す印象枠定義テーブル412と、が記憶されている。そこで、印象決定部40は、最終的な印象ラベルを決定する際には、まず、印象ラベル関係定義記憶部41の印象ラベル定義テーブル411を参照するように構成されている。   When the user wants to enhance the impression of the image and enjoy it visually, the image analysis unit 30 is executed in the computer 1 and the display and reproduction of the image is started. First, an image 200 desired to be displayed on the display device 3 is selected by the user using an input device (not shown) or the like, and the image analysis unit 30 reads the image 200 from the display image storage device 2 (step S100), and impression determination described later. The processing unit 10 determines the impression of the image 200 and evaluates the degree of proximity of the impression for each impression label with respect to the image 200 (step S101 (image impression determination step)). When the process of the impression determination processing unit 10 is completed, the impression determination unit 40 next determines the final impression label of the image 200 to be evaluated from the impression determination result of each impression label (step S102 ( Impression label determination step)). At this time, the impression determination unit 40 refers to the impression label relationship definition storage unit 41. The impression label relationship definition storage unit 41 stores an impression label definition table 411 shown in FIG. 3A and an impression frame definition table 412 shown in FIG. Therefore, the impression determining unit 40 is configured to first refer to the impression label definition table 411 of the impression label relation definition storage unit 41 when determining the final impression label.

ここで、印象ラベル定義テーブル411は、各印象ラベル判定部11に割り当てられている印象ラベルを識別するための識別情報(印象ID)が記憶される印象IDカラム411a、印象ラベルが管理される印章ラベルカラム411b、及び、当該印象ラベルに対して矛盾する印象ラベルが記憶される矛盾する印象ラベルカラム411cから構成されている。例えば、印象IDカラム411aに“A”として記憶されている印象ラベルは、印象ラベルカラム411bにおいて、“明るい”が記憶されている。そして、これに対応する矛盾する印象ラベルとして、矛盾する印象ラベルカラム411cには、“暗い”、”ぼやけた”などの相反する単語が登録されている。その他にも、印象IDが”B”の印象ラベルとして“鮮明な”が登録され、これと矛盾する印象ラベルとして、“不鮮明な”、”ぼやけた”などの単語が登録されている。なお、矛盾する印象ラベルカラム411cに登録される順番は、特に限定されていないが、左から、相反する、あるいは矛盾する、あるいは反対語として認識される語句の中で、一番多いものから順に登録することが可能である。   Here, the impression label definition table 411 includes an impression ID column 411a in which identification information (impression ID) for identifying an impression label assigned to each impression label determination unit 11 is stored, and a seal in which the impression label is managed. It consists of a label column 411b and an inconsistent impression label column 411c in which an impression label that contradicts the impression label is stored. For example, the impression label stored as “A” in the impression ID column 411a stores “bright” in the impression label column 411b. As contradictory impression labels corresponding thereto, conflicting words such as “dark” and “blurred” are registered in the contradictory impression label column 411c. In addition, “clear” is registered as an impression label with an impression ID “B”, and words such as “unclear” and “blurred” are registered as impression labels contradicting this. Note that the order of registration in the contradictory impression label column 411c is not particularly limited, but from the left, in order from the most common among the conflicting, contradictory, or recognized opposite words. It is possible to register.

以上より、印象決定部40は、このステップS102において上記の印象ラベル定義テーブル411を参照して、画像20の最終的な印象ラベルを決定する。すなわち、印象決定部40は、印象判定処理部10の判定結果出力部14を介して得られた、複数の印象ラベルのうちで相反関係にある印象ラベル(矛盾する印象ラベル)を排除する処理を行い、残った印象ラベルのうちで印象判定結果の印象の近接度合いが最も大きな値を有する印象ラベルをこの画像200の印象ラベルとして決定する。また、更には、この印象ラベルと相反せず、所定の閾値以上の値を有する印象ラベルをこの画像の印象ラベルとして認識するように構成することも可能である。例えば、最終的に画像100に強化処理を行う際に、この画像200に与える印象が、最も大きい印象ラベルのみを画像200の強化処理に応用してもよいし、一定の閾値以上の印象判定結果を得られた印象ラベルのうち、最も印象の大きい印象ラベルと、この最も印象の大きい印象ラベルに相反しない印象ラベルと、を併用して画像200の強化処理に応用してもよい。   As described above, the impression determination unit 40 determines the final impression label of the image 20 with reference to the impression label definition table 411 in step S102. That is, the impression determination unit 40 performs a process of eliminating impression labels (conflicting impression labels) having a conflicting relationship among a plurality of impression labels obtained through the determination result output unit 14 of the impression determination processing unit 10. The impression label having the largest value of the degree of proximity of the impression as the impression determination result among the remaining impression labels is determined as the impression label of the image 200. Furthermore, it is also possible to configure so that an impression label having a value equal to or greater than a predetermined threshold is recognized as an impression label of the image without conflicting with the impression label. For example, when the enhancement process is finally performed on the image 100, only the impression label having the largest impression given to the image 200 may be applied to the enhancement process of the image 200, or the impression determination result of a certain threshold value or more. Among the obtained impression labels, the impression label having the greatest impression and the impression label not conflicting with the impression label having the greatest impression may be used in combination for the enhancement processing of the image 200.

次に、この画像200の印象を強化して表示装置3で表示するため、印象決定部40は、ステップS102で決定された最終的な印象ラベルに基づいて、画像200に対して印象強化処理を施す。この印象強化処理としては、印象ラベルに対応した色を選定して、その色の枠色やパターンを画像200と共に表示するものである。つまり、印象決定部40は、最終的な印象ラベルに相当する枠色・パターンを印象枠定義テーブル412を参照して選択する(ステップS103(印象強化画像処理ステップ))。   Next, in order to enhance the impression of the image 200 and display it on the display device 3, the impression determination unit 40 performs an impression enhancement process on the image 200 based on the final impression label determined in step S <b> 102. Apply. In this impression enhancement process, a color corresponding to the impression label is selected, and the frame color and pattern of that color are displayed together with the image 200. That is, the impression determination unit 40 selects a frame color / pattern corresponding to the final impression label with reference to the impression frame definition table 412 (step S103 (impression enhanced image processing step)).

印象ラベル関係定義記憶部41の印象枠定義テーブル412は、印象IDを記憶する印象IDカラム412aと、当該印象IDに対応する印象ラベルを強化するための色が記憶される強化色カラム412bと、この強化色に矛盾する色が記憶される矛盾色カラム412cと、を有して構成されている。そのため、このステップS103においては、印象決定部40は、最終的な印象ラベル(印象ID)を強化するための強化色と、この強化色に矛盾する色とを印象枠定義テーブル412から取得する。なお、上述のステップS102において、複数の印象ラベルが最終的に選択されている場合には、相反しない印象ラベルであっても、印象ラベルに対応した色が相容れない色(相反する色若しくは矛盾する色)同士となってしまう場合もあるため、そのような相容れない色も除外するようになっている。ここで、相反する色及び矛盾する色とは、例えば、ある色に対して、補色の関係にある色と、その補色に類似する色、もしくは等差色相の関係にある色である。つまりは、ある色に対しての類似関係にある色以外の色が、相容れない色の一例である。具体的には、例えば、色相環において、赤であれば、青緑や青、緑青、緑などであり、色を二系統に分類した際に赤は、暖色系の色として分類されるので、例えば、寒色系に分類される色は、相容れない色のように定義することもできる。   The impression frame definition table 412 of the impression label relation definition storage unit 41 includes an impression ID column 412a for storing an impression ID, an enhanced color column 412b for storing a color for enhancing an impression label corresponding to the impression ID, A contradiction color column 412c in which a color contradicting the enhancement color is stored. Therefore, in this step S103, the impression determination unit 40 acquires from the impression frame definition table 412 an enhanced color for enhancing the final impression label (impression ID) and a color that contradicts the enhanced color. In the above-described step S102, when a plurality of impression labels are finally selected, even if the impression labels are not contradictory, the colors corresponding to the impression labels are incompatible colors (conflicting colors or contradictory colors). ), Such incompatible colors are also excluded. Here, the conflicting color and the contradicting color are, for example, a color having a complementary color relationship with a certain color, a color similar to the complementary color, or a color having an equal hue relationship. In other words, colors other than colors that are similar to a certain color are examples of incompatible colors. Specifically, for example, in the hue circle, if it is red, it is blue-green, blue, patina, green, etc., and when red is classified into two systems, red is classified as a warm color. For example, a color classified as a cold color system can be defined as an incompatible color.

また、ステップS103において、印象決定部40は、画像200の表示に際して、その選択された色を画像200に対して、どの様に配置するかの枠のパターンについても決定できるようになっている。例えば、図1には図示していないが、印象ラベル関係定義記憶部41に幾つかの枠のパターンを予め登録しておき、その記憶されたパターンが、表示装置3に例示されるようにする。そして、ユーザは、押しボタンや、表示パネル等の操作部を操作して、この例示された枠のパターンから1つを選択して、画像の表示の際に使用するように決定することができるようになる。   In step S <b> 103, the impression determination unit 40 can determine a frame pattern as to how to arrange the selected color with respect to the image 200 when the image 200 is displayed. For example, although not shown in FIG. 1, several frame patterns are registered in advance in the impression label relation definition storage unit 41, and the stored patterns are exemplified in the display device 3. . The user can then operate the operation unit such as a push button or a display panel to select one of the illustrated frame patterns and decide to use it when displaying an image. It becomes like this.

ここで、例えば、枠の表示例としては、図4(a)〜(c)が挙げられる。画面500は、画像200を表示するイメージ表示部501と、このイメージ表示部501の周囲の外周辺部領域502とから構成されており、図4(a)は、イメージ表示部501に画像200が表示され、その周囲の外周辺部領域502にこの画像200の印象ラベルを強化するための色が配置されている例である。また、図4(b)は、イメージ表示部501に画像200が表示され、その周囲の外周辺部領域502とイメージ表示部501に表示されている画像200との間であって、主要な被写体(図4(b)における人物)が表示されていない領域501aに、この画像200の印象ラベルを強化するための色が配置されている。さらに、図4(c)では、図4(a)と図4(b)とで、画像200の印象ラベルを強化するための色が配置されている領域の両方に色が配置されている。つまり、外周辺部領域502と主要な被写体が表示されていない領域501aとの両方に強化するための色が配置される構成となっている。これらは、予め、ユーザが設定しておくこともできるし、表示の際に、最適な表示方法が自動で選択されるようになっていてもよい。   Here, for example, FIGS. 4A to 4C are given as display examples of the frame. The screen 500 includes an image display unit 501 that displays the image 200 and an outer peripheral area 502 around the image display unit 501. FIG. 4A illustrates the image 200 displayed on the image display unit 501. In this example, a color for enhancing the impression label of the image 200 is arranged in the outer peripheral area 502 around the displayed area. FIG. 4B shows an image 200 displayed on the image display unit 501, between the outer peripheral region 502 around the image 200 and the image 200 displayed on the image display unit 501, and the main subject. A color for reinforcing the impression label of the image 200 is arranged in an area 501a where (a person in FIG. 4B) is not displayed. Further, in FIG. 4C, colors are arranged in both of the regions where the color for enhancing the impression label of the image 200 is arranged in FIGS. 4A and 4B. That is, a color for enhancing the color is arranged in both the outer peripheral area 502 and the area 501a where the main subject is not displayed. These can be set in advance by the user, or an optimal display method may be automatically selected at the time of display.

以上のようにして枠のパターンが決定されると、印象決定部40は、図4(a)〜図4(c)の何れかの表示パターン沿って、選択された枠色を画像と共に表示する(ステップS104)。このように、画像の持つ印象(印象ラベル)に対応した色が、画像と共に表示されるので、ユーザが視覚的に楽しむことのできるものとなる。   When the frame pattern is determined as described above, the impression determination unit 40 displays the selected frame color along with the image along any one of the display patterns of FIGS. 4 (a) to 4 (c). (Step S104). In this way, since the color corresponding to the impression (impression label) of the image is displayed together with the image, the user can enjoy visually.

なお、以上のような構成において、印象枠定義テーブル412の印象IDと印象を強化する強化色との関係は、印象IDに対応する印象ラベルのイメージと合致するような色が設定されていると、さらに、良好である。例えば、印象ラベル定義テーブル411において印象IDカラム411aに”C”と記憶されている印象ラベルは、印象ラベル定義テーブル411に定義されているとおり、”落ち着いた”である。この印象IDが”C”の印象ラベルに対応する色は、印象枠定義テーブル412を参照すると、強化色として“青”が登録されていることが分かる。従って、印象ラベル“落ち着いた”に対応する色は“青”となっており、“落ち着いた”の印象ラベルを有する画像には、この印象を強化する際に“青”が使用されることとなる。“青”は、通常、精神を安定させる色として、使用される場合が多く、“落ち着いた”の印象ラベルのイメージと合致しているものであると考えられる。   In the configuration as described above, the relationship between the impression ID in the impression frame definition table 412 and the enhanced color that enhances the impression is set to a color that matches the image of the impression label corresponding to the impression ID. Furthermore, it is good. For example, the impression label stored as “C” in the impression ID column 411 a in the impression label definition table 411 is “settled” as defined in the impression label definition table 411. As for the color corresponding to the impression label whose impression ID is “C”, referring to the impression frame definition table 412, it can be seen that “blue” is registered as an enhanced color. Therefore, the color corresponding to the impression label “settled” is “blue”, and “blue” is used to enhance this impression for images having a “settled” impression label. Become. “Blue” is usually used as a color that stabilizes the mind and is considered to be consistent with the image of the “calm” impression label.

このように、印象ラベルのイメージと合致するような色が設定されていると、決定された印象ラベルに対応する色により画像の印象を強調する効果が高くなり、その色により強調した画像が表示されれば、画像のイメージが、ユーザの視覚を通して、さらに認識されやすくなり、満足感の高い画像表示となる。以上のような、処理により、ユーザが視覚的にも楽しめる画像の表示として、画像の印象を的確に抽出し、その抽出された印象を強化する色で、画像の枠を形成し、画像を表示する際にその枠と共に表示されるようになっている。   In this way, when a color that matches the image of the impression label is set, the effect of enhancing the impression of the image by the color corresponding to the determined impression label is enhanced, and the image emphasized by that color is displayed. Then, the image is more easily recognized through the user's vision, and the image display is highly satisfactory. As a result of the above processing, the user can visually extract the impression of the image as a display that can be enjoyed visually, and form an image frame with a color that enhances the extracted impression and display the image. When it does, it is displayed with the frame.

次に、上述のステップS101において実行される印象判定処理の具体的な内容について図5〜図12を用いて説明する。図2に示すステップS101は、印象判定処理部10における処理であり、具体的に画像200の印象ラベルの判定を行う方法である。この印象判定処理部10において、印象ラベル判定部11の各々は、図5に示すように、学習画像記憶部21に予め登録された学習画像及び印象ラベルに基づいて学習を行う学習処理部11aと、学習結果記憶部22記憶された学習結果に基づいて、画像200の評価を行う評価処理部11bとを有して構成されている。   Next, specific contents of the impression determination process executed in step S101 described above will be described with reference to FIGS. Step S101 shown in FIG. 2 is a process in the impression determination processing unit 10, and is a method of specifically determining the impression label of the image 200. In the impression determination processing unit 10, each of the impression label determination units 11 includes a learning processing unit 11a that performs learning based on a learning image and an impression label registered in advance in the learning image storage unit 21, as shown in FIG. The learning result storage unit 22 includes an evaluation processing unit 11b that evaluates the image 200 based on the stored learning result.

(a)学習画像による学習
学習処理部11aは、AdaBoostの手法により、複数の学習サンプル(学習画像)を用いて、図6に示す処理手順により画像の印象を判定するための1つの強識別器H(X)を構築するものである。この学習処理部11aは、学習を開始すると、学習画像記憶部21に記憶されている複数の学習画像を読み込む(ステップS600)。ここで、学習画像記憶部21には、図7に示すように、学習画像を記憶する学習画像記憶テーブル211と、印象ラベルと学習画像との対応付けを行う印象ラベル記憶テーブル212とを有して構成されている。
(A) Learning with a learning image The learning processing unit 11a uses a plurality of learning samples (learning images) by the AdaBoost technique to provide one strong classifier for determining the impression of an image according to the processing procedure shown in FIG. H (X) is constructed. When the learning processing unit 11a starts learning, the learning processing unit 11a reads a plurality of learning images stored in the learning image storage unit 21 (step S600). Here, as shown in FIG. 7, the learning image storage unit 21 includes a learning image storage table 211 that stores learning images, and an impression label storage table 212 that associates impression labels with learning images. Configured.

学習画像記憶テーブル211は、学習画像を識別するための画像IDが記憶される画像IDカラム211aと、学習画像が格納されるファイルカラム211bと、この学習画像の特徴量X(j)が記憶される特徴量カラム211cとから構成されている。図7(a)においては、7枚の画像が登録されている場合を示しており、jは、学習画像の番号を示す。なお、ファイルカラム211bに学習画像を直接記憶させるのではなく、別の領域に学習画像本体を記憶し、この学習画像のファイル名(又はパス名)をこのカラムに記憶するように構成することも可能である。   The learning image storage table 211 stores an image ID column 211a in which an image ID for identifying a learning image is stored, a file column 211b in which a learning image is stored, and a feature amount X (j) of the learning image. And a feature amount column 211c. FIG. 7A shows a case where seven images are registered, and j indicates a learning image number. In addition, the learning image main body may be stored in another area instead of directly storing the learning image in the file column 211b, and the file name (or path name) of the learning image may be stored in this column. Is possible.

また、印象ラベル記憶テーブル212は、印象ラベルを識別するための印象IDが記憶される印象IDカラム212aと、印象ラベルが記憶される印象ラベルカラム212bと、当該印象ラベルに対応付けられている学習画像の画像IDが記憶される画像IDカラム212cと、から構成されている。この画像IDカラム212cには、複数の画像IDを設定することが可能であり、例えば、印象ID=”1”の”明るい”という印象ラベルには、画像IDが”0001”と”0002”の2枚の学習画像が設定されている。   The impression label storage table 212 stores an impression ID column 212a for storing an impression ID for identifying an impression label, an impression label column 212b for storing an impression label, and learning associated with the impression label. And an image ID column 212c in which the image ID of the image is stored. In this image ID column 212c, a plurality of image IDs can be set. For example, an impression label of “bright” with impression ID = “1” has image IDs “0001” and “0002”. Two learning images are set.

なお、画像の特徴量Xは、MPEG7で規格化されている、スケーラブルカラー(Scalable Color)やエッジヒストグラム(Edge Histogram)を用いたn次元のベクトルとして定義されており、本実施の形態においては、学習画像毎に予め決められた方法により計算されて特徴量カラム211cに設定されている。   Note that the image feature amount X is defined as an n-dimensional vector using a scalable color or an edge histogram standardized by MPEG7, and in the present embodiment, It is calculated by a predetermined method for each learning image and set in the feature amount column 211c.

そして、学習処理部11aは、学習のステップ数tに初期値として”1”を設定し(ステップS610)、ステップ数tが、予め決められた回数(Tmax)を超えたか否かを判断し、Tmaxを超えるまで、ステップS630〜ステップS650を繰り返す(ステップS620)。この繰り返し処理において、ステップS630では、ステップS600で読み込んだ学習画像を用いて、繰り返し処理毎の(t回目の)学習における弱識別器h(x,t)が構築される。弱識別器h(x,t)の詳細な構築方法については後述するが、本実施の形態における学習処理部11aにおいては、学習画像を予め決められた部分領域に分割し、この部分領域における特徴量の部分ベクトル毎に学習を行い、当該部分領域の部分ベクトル毎の弱識別器hi,k(x,t)を構築し(iは部分領域の番号であり、kは当該部分領域に対応する特徴量の部分ベクトルの番号)、これらの部分領域における特徴量の部分ベクトルに対応する弱識別器の中から最も印象が強い部分領域の特徴量の部分ベクトルを選択し、この部分ベクトルに対応する弱識別器をこの学習処理(t回目の学習処理)における弱識別器h(x,t)として選択するように構成されている。そのため、xは、t回目の学習において入力される画像の特徴量(ベクトル量)Xのうち、各弱識別器h(x,t)が対応する部分領域における部分ベクトルを表している。 Then, the learning processing unit 11a sets “1” as an initial value to the learning step number t (step S610), determines whether the step number t has exceeded a predetermined number of times (Tmax), Steps S630 to S650 are repeated until Tmax is exceeded (step S620). In this iterative process, in step S630, the weak classifier h (x, t) in (t-th) learning for each iterative process is constructed using the learning image read in step S600. Although a detailed construction method of the weak classifier h (x, t) will be described later, the learning processing unit 11a in the present embodiment divides the learning image into predetermined partial areas, and features in the partial areas. Learning is performed for each partial vector of the quantity, and a weak classifier h i, k (x, t) is constructed for each partial vector of the partial area (i is the number of the partial area, and k corresponds to the partial area. Select the partial vector of the feature quantity of the partial area with the strongest impression from the weak classifiers corresponding to the partial vector of the feature quantity in these partial areas, and correspond to this partial vector The weak classifier to be selected is selected as the weak classifier h (x, t) in this learning process (t-th learning process). Therefore, x represents a partial vector in a partial region corresponding to each weak classifier h (x, t) in the feature amount (vector amount) X of the image input in the t-th learning.

また、ステップS640では、ステップS630で構築された弱識別器h(x,t)から、線形結合のためのt回目の学習ステップにおける係数αtを算出し、さらに、次の学習ステップ(t+1回目)で用いるj番目の学習画像の重みDt+1(j)を更新する。そして、ステップS650でステップ数tに1を加算する。 In step S640, the coefficient α t in the t-th learning step for linear combination is calculated from the weak classifier h (x, t) constructed in step S630, and then the next learning step (t + 1-th time). The weight D t + 1 (j) of the j-th learning image used in () is updated. In step S650, 1 is added to the step number t.

以上のようにして、Tmax回の学習をすることにより、Tmax個の部分領域(i)と、この部分領域における部分ベクトル(k)と、弱識別器h(x,t)との組が決定され、ステップS660においてこれらの弱識別器h(x,t)を線形結合することにより1つの強識別器H(X)が構築される。このステップS660において弱識別器h(x,t)を線形結合するための係数αtは、上述のようにステップS640で算出されるが、後述するように、ステップS630で選択された部分領域における部分ベクトルに対応する弱識別器h(x,t)とその誤り率εtとを用いて、次式(1)として決定される。ここで、1枚の学習画像をm個の部分領域に分割したとすると、部分領域の組み合わせの集合はG={g1,g2,...,gm}と表され、j枚目の学習画像の部分領域iに対応するk番目の部分ベクトルをxi,j,kとすると、特徴量のベクトルXは部分ベクトルの集合(X(j)={x1,j,1,x1,j,2,...,x1,j,k1,x2,j,1,x2,j,2,...,x2,j,k2,...,xm,j,1,xm,j,2,...,xm,j,km})として表される。なお、k1,k2,...,kmは、それぞれの部分領域iにおける特徴量の部分ベクトルの数である。 As described above, by learning Tmax times, a set of Tmax partial areas (i), partial vectors (k) in the partial areas, and weak classifiers h (x, t) is determined. In step S660, one weak classifier H (X) is constructed by linearly combining these weak classifiers h (x, t). The coefficient α t for linearly combining the weak classifiers h (x, t) in this step S660 is calculated in step S640 as described above. As described later, in the partial region selected in step S630, the coefficient α t is calculated. Using the weak classifier h (x, t) corresponding to the partial vector and its error rate ε t , it is determined as the following equation (1). Here, assuming that one learning image is divided into m partial regions, a set of combinations of partial regions is G = {g1, g2,. . . , Gm}, and the k-th partial vector corresponding to the partial area i of the j-th learning image is x i, j, k , the feature quantity vector X is a set of partial vectors (X (j) = {X1 , j, 1 , x1 , j, 2 , ..., x1 , j, k1 , x2 , j, 1 , x2 , j, 2 , ..., x2 , j, k2 , ..., xm , j, 1 , xm , j, 2 , ..., xm , j, km }). Note that k1, k2,. . . , Km is the number of feature partial vectors in each partial region i.

Figure 2010026017
Figure 2010026017

この式(1)は、弱識別器h(x,t)の信頼性を表しており、誤り率εtが低いほど係数αtが大きくなり、対応する弱識別器h(x,t)のステップS660での判断の影響が大きくなる。但し、誤り率εtが0.5を超えるときは、弱識別器h(x,t)の判定を逆にすれば誤り率εtを小さくすることができるので、この場合は1から誤り率εtを引いた値を新たな誤り率εtとする。従って、誤り率εtの最悪値は0.5となる。 This expression (1) represents the reliability of the weak classifier h (x, t). The coefficient α t increases as the error rate ε t decreases, and the corresponding weak classifier h (x, t) The influence of the determination in step S660 increases. However, when the error rate epsilon t exceeds 0.5, the weak classifier h (x, t) it is possible to reduce the error rate epsilon t If the judgment of the reverse, the error rate from 1 in this case the value obtained by subtracting the ε t as a new error rate ε t. Therefore, the worst value of the error rate ε t is 0.5.

また、t+1回目の学習における学習画像の重みDt+1(j)は、全ての学習画像に対する重みを加算したときに1になる必要があるため、次式(2)に示す条件値Ztを満たすように、t回目の学習における重みDt(j)から次式(3)により求められる。なお、この式(2)及び(3)において、Jmaxは学習画像の枚数を示し、xi,j,kは、弱識別器が選択された部分領域iに対応するj番目の画像のk番目の部分ベクトルを示し、yjは、j番目の画像の印象ラベルの有無を表し、この学習を行っている印象ラベル判定部に割り当てられた印象ラベルを有する場合は1、有しない場合は−1となる。 In addition, since the weight D t + 1 (j) of the learning image in the t + 1th learning needs to be 1 when the weights for all the learning images are added, the condition value Z t shown in the following equation (2) Is obtained from the weight D t (j) in the t-th learning so as to satisfy the following equation (3). In Equations (2) and (3), Jmax represents the number of learning images, and x i, j, k is the kth of the jth image corresponding to the partial region i for which the weak classifier has been selected. Y j represents the presence or absence of the impression label of the j-th image, 1 if the impression label assigned to the impression label determination unit performing this learning is 1, and -1 otherwise. It becomes.

Figure 2010026017
Figure 2010026017

以上より、ステップS660で構築される1つの強識別器H(X)は、次式(4)で表される。なお、この式(4)において、Xは強識別器Hで評価される画像の特徴量(ベクトル量)であり、xは、特徴量Xのうち、t回目の学習において弱識別器h(x,t)が選択された部分領域に対応する部分ベクトルである。   From the above, one strong classifier H (X) constructed in step S660 is expressed by the following equation (4). In Equation (4), X is a feature quantity (vector quantity) of the image evaluated by the strong classifier H, and x is a weak classifier h (x in the t-th learning of the feature quantity X. , T) are partial vectors corresponding to the selected partial region.

Figure 2010026017
Figure 2010026017

図9では、学習全体を通じて、一番選択された頻度の多かった部分領域が画像の印象に影響を与えている領域として特定される様子が示されており、Tmax回行った学習の結果は、学習全体を通じて出現頻度の高かった領域(丸印が付けられた領域)となる。   FIG. 9 shows a state where the most frequently selected partial area is identified as an area that affects the impression of the image throughout the learning, and the result of learning performed Tmax times is as follows. It becomes a region (a circled region) that has a high appearance frequency throughout the learning.

それでは、図8を用いて、弱識別器h(x,t)を構築するための処理(ステップS630)の具体的構成について説明する。まず、学習画像を予め決められた複数の部分領域に分割する(ステップS6301)。例えば、図9に示すように、横6×縦4の24の部分領域に分割する(この場合は、m=24となる)。なお、ここでは、説明を簡単にするために、縦、横を均等に分割した場合について示しているが、部分領域の大きさは任意に設定することができる。また、これらの分割された部分領域を組み合わせたものを新たな部分領域としても良い。次に上記部分領域の各々における部分ベクトルの数をk={k1,k2,...,km}とする(ステップS6302)。そして、部分領域のカウンタi及び部分ベクトルのカウンタkに初期値として”1”を設定し(ステップS6303)、部分領域g1から順に、部分領域gmまで以下の処理を繰り返す(ステップS6304)。   Now, a specific configuration of the process (step S630) for constructing the weak classifier h (x, t) will be described with reference to FIG. First, the learning image is divided into a plurality of predetermined partial areas (step S6301). For example, as shown in FIG. 9, the image is divided into 24 partial areas of 6 × 4 (in this case, m = 24). In addition, here, in order to simplify the description, the case where the vertical and horizontal sides are equally divided is shown, but the size of the partial region can be arbitrarily set. A combination of these divided partial areas may be used as a new partial area. Next, the number of partial vectors in each of the partial regions is k = {k1, k2,. . . , Km} (step S6302). Then, “1” is set as an initial value in the partial area counter i and the partial vector counter k (step S6303), and the following processing is repeated from the partial area g1 to the partial area gm (step S6304).

まず、上述のステップS600で学習画像記憶部21から読み込んだすべての学習画像の、部分領域giにおける特徴量の部分ベクトルを抽出する(ステップS6305)。上述のように7枚の学習画像がある場合は、i番目の部分領域の処理において抽出された部分ベクトルの集合は、{xi,j,1,xi,j,2,...,xi,j,ki}(j=1,2,...,7)となる。そして、kがkiより大きいか、すなわち、i番目の部分領域に対応する全ての特徴量の部分ベクトルについて判定が終わったか否かを判断し(ステップS6306)、全ての判定が終わっている場合には、iに1を加算し(ステップS6307)、また、kに1を設定し(ステップS6308)、ステップS6304に戻る。一方、ステップS6306で全ての部分ベクトルについて判定が終わっていないと判断したときは、t回目の学習において、学習画像の陽性サンプルの部分領域iの特徴量のk番目の部分ベクトルの重み付き平均値を次式(5)により算出し、学習画像の陰性サンプルの部分領域iの特徴量のk番目の部分ベクトルの重み付き平均値を次式(6)により算出する(ステップS6309)。ここで、陽性サンプルとは、印象ラベル判定部11に設定された印象ラベルに割り当てられている学習画像のことを言い、上述のyj=1のサンプルであり、反対に陰性サンプルとは、当該印象ラベルに割り当てられていない学習画像のことを言い、上述のyj=−1のサンプルである。例えば、図4(b)において、”明るい”という印象ラベルが設定された印象ラベル判定部11の学習処理部11aでは、画像IDが”0001”と”0002”の学習画像が陽性サンプルとなり、それ以外の学習画像が陰性サンプルとなる。なお、式(5),(6)において、〜付きのxは、部分ベクトルの重み付きの平均値であり、添え字の上側の文字は、”Yes”が陽性サンプルに対するものであることを示し、”No”が陰性サンプルに対するものであることを示す。また、m<nである。 First, partial vectors of feature amounts in the partial region gi of all the learning images read from the learning image storage unit 21 in step S600 are extracted (step S6305). As described above, when there are seven learning images, the set of partial vectors extracted in the processing of the i-th partial region is expressed as {xi , j, 1 , xi , j, 2,. . . , X i, j, ki } (j = 1, 2,..., 7). Then, it is determined whether or not k is larger than ki, that is, whether or not the determination is completed for all the feature vectors corresponding to the i-th partial region (step S6306). Adds 1 to i (step S6307), sets 1 to k (step S6308), and returns to step S6304. On the other hand, if it is determined in step S6306 that the determination has not been completed for all partial vectors, in the t-th learning, the weighted average value of the k-th partial vector of the feature amount of the partial region i of the positive sample of the learning image. Is calculated by the following equation (5), and the weighted average value of the k-th partial vector of the feature quantity of the partial region i of the negative sample of the learning image is calculated by the following equation (6) (step S6309). Here, the positive sample refers to the learning image assigned to the impression label set in the impression label determination unit 11, and is the above-described y j = 1 sample. It means a learning image that is not assigned to an impression label, and is the above-described sample of y j = −1. For example, in FIG. 4B, in the learning processing unit 11a of the impression label determination unit 11 in which the impression label “bright” is set, the learning images with the image IDs “0001” and “0002” become positive samples. Learning images other than are negative samples. In Expressions (5) and (6), “x” with “˜” is a weighted average value of the partial vectors, and the character above the subscript indicates that “Yes” is for a positive sample. , “No” indicates a negative sample. Also, m <n.

Figure 2010026017
Figure 2010026017

これらの式(5),(6)において、n1は陽性サンプルの枚数を示し、n2は陰性サンプルの枚数を示している。ここで、n=n1+n2である。また、λjはj番目の学習画像に付加されている印象ラベル数の逆数である。例えば、図7(b)において、画像IDが”0001”の学習画像には印象ラベルとして”明るい”と”落ち着いた”が付加されており、λ1=0.5となる。同様に、画像IDが”0002”の学習画像には”明るい”という印象ラベルだけが付加されているため、λ2=1.0となる。つまり、このλjは、j番目の学習画像の印象に対する影響力を表しており、多くの印象ラベルが付加されている学習画像ほど、その学習画像の印象に与える影響力は小さくなる。また、Dt(j)は、t回目の学習における、j番目のサンプルの重みである。ここで言う重みとは、各学習画像が平均的な特徴量の部分ベクトルである式(5)及び(6)に影響を与える割合のことであり、常に以下の式(7)の関係を満足するものとする。 In these formulas (5) and (6), n 1 represents the number of positive samples, and n 2 represents the number of negative samples. Here, n = n 1 + n 2 . Λ j is the reciprocal of the number of impression labels added to the j-th learning image. For example, in FIG. 7B, “bright” and “settled” are added as impression labels to the learning image with the image ID “0001”, and λ 1 = 0.5. Similarly, since only the impression label “bright” is added to the learning image with the image ID “0002”, λ 2 = 1.0. That is, λ j represents the influence on the impression of the j-th learning image, and the influence on the impression of the learning image becomes smaller as the learning image to which more impression labels are added. D t (j) is the weight of the j-th sample in the t-th learning. The weight mentioned here is a ratio that affects the equations (5) and (6) in which each learning image is a partial vector of an average feature amount, and always satisfies the relationship of the following equation (7). It shall be.

Figure 2010026017
Figure 2010026017

なお、この陽性及び陰性サンプルの重みDt(j)は、学習ステップの回数とともに変化するが、初期値(t=1)のときの値は、それぞれ、次式(8),(9)により定義され、各学習サンプルの重みを同じとする。 The weight D t (j) of the positive and negative samples changes with the number of learning steps, but the value at the initial value (t = 1) is expressed by the following equations (8) and (9), respectively. Defined and the weight of each learning sample is the same.

Figure 2010026017
Figure 2010026017

次に、上述のステップS6309で算出された特徴量の部分ベクトルの平均値と、各学習画像の特徴量の部分ベクトルとのユークリッド距離を次式(10),(11)により算出する(ステップS6310)。式(10)において、f1(x)は、第i番目の領域のk番目の部分ベクトルと陽性サンプルの特徴量のk番目の部分ベクトルの平均値とのユークリッド距離を示し、式(11)において、f2(x)は、第i番目の領域のk番目の部分ベクトルと陰性サンプルの特徴量のk番目の部分ベクトルの平均値とのユークリッド距離を示している。ただし、距離計算は1ノルムなど別のノルムでも代用できる。また、特徴量の部分ベクトルの平均値の添え字のうち、最初のtは、t回目の学習ステップであることを示す。 Next, the Euclidean distance between the average value of the partial vector of the feature amount calculated in step S6309 and the partial vector of the feature amount of each learning image is calculated by the following equations (10) and (11) (step S6310). ). In equation (10), f 1 (x) represents the Euclidean distance between the kth partial vector of the i-th region and the average value of the kth partial vector of the feature quantity of the positive sample. , F 2 (x) represents the Euclidean distance between the k-th partial vector of the i-th region and the average value of the k-th partial vector of the feature quantity of the negative sample. However, the distance calculation can be substituted by another norm such as 1 norm. Of the subscripts of the average value of the partial vector of feature amounts, the first t indicates the t-th learning step.

Figure 2010026017
Figure 2010026017

そして、ステップS6310で算出された距離f1(x),f2(x)を用いて、第i番目の部分領域のk番目の部分ベクトルにおいて印象が陽性か陰性かを判定する弱識別器hi,k(x,t)を次式(12)により構築する(ステップS6311)。ここで、”1”が陽性で、”−1”が陰性を表す。すなわち、この式(12)で表される弱識別器hi,k(x,t)は、評価画像の特徴量の部分ベクトルと学習画像より得られた部分ベクトルの重み付き平均値との距離が、陽性サンプルと近いときに陽性(1)と判断され、陽性及び陰性サンプルとの距離が等しいか若しくは陰性サンプルと近いときに陰性(−1)と判断するものである。 Then, using the distances f 1 (x) and f 2 (x) calculated in step S6310, the weak classifier h that determines whether the impression is positive or negative in the k-th partial vector of the i-th partial region. i, k (x, t) is constructed by the following equation (12) (step S6311). Here, “1” is positive and “−1” is negative. That is, the weak classifier h i, k (x, t) represented by the equation (12) is the distance between the partial vector of the feature amount of the evaluation image and the weighted average value of the partial vector obtained from the learning image. Is judged as positive (1) when close to the positive sample, and negative (-1) when the distance between the positive and negative samples is equal or close to the negative sample.

Figure 2010026017
Figure 2010026017

最後に、上述のステップS6311で構築された弱識別器hi,k(x,t)を用いて、すべての学習画像の第i番目の部分領域に対するk番目の部分ベクトルの判定を行い、その判定結果と、印象ラベル記憶テーブル212に設定された状態(陽性サンプルか、陰性サンプルか)が一致するかを検査する(ステップS6312)。この検査の結果、すべての学習画像について、弱識別器による判定結果と設定状態とが一致するときはkに1を加えた後(ステップS6315)、ステップS6306に戻り当該部分領域の次の部分ベクトルについて上記処理を繰り返す(ステップS6313)。一方、このステップS6313で何れかの学習画像において判定結果と設定状態とが一致しないときは、次式(13)により、該当する弱識別器hi,k(x,t)(言い換えると、該当する部分領域iのk番目の部分ベクトル)に対応する誤り率εi,kを算出し(ステップS6314)、kに1を加えた後(ステップS6315)ステップS6306に戻る。 Finally, using the weak classifiers h i, k (x, t) constructed in step S6311 described above, the k-th partial vector for the i-th partial region of all learning images is determined, It is examined whether the determination result matches the state (positive sample or negative sample) set in the impression label storage table 212 (step S6312). As a result of this inspection, when the determination result by the weak classifier matches the set state for all learning images, 1 is added to k (step S6315), and the process returns to step S6306 and the next partial vector of the partial area. The above processing is repeated for (Step S6313). On the other hand, if the determination result does not match the set state in any learning image in step S6313, the corresponding weak classifier h i, k (x, t) (in other words, Error rate ε i, k corresponding to the kth partial vector of the partial area i to be calculated (step S6314), 1 is added to k (step S6315), and the process returns to step S6306.

Figure 2010026017
Figure 2010026017

このようなステップS6309からS6312までの一連の処理を部分領域の組み合わせの集合Gの要素数だけ繰り返す。最終的に、i個の部分領域において、最も誤り率εi,kが低かった弱識別器hi,k(x,t)を、t回目の学習における弱識別器h(x,t)として選択し、学習ステップtと、この弱識別器h(x,t)に関する部分領域の番号i、部分ベクトルの番号k、係数αt及び選択された部分領域における特徴量のk番目の部分ベクトルの重み付き平均値とを学習結果記憶部22の特徴量テーブル221及び判定情報テーブル222に記憶する(ステップS6316)。なお、この特徴量テーブル221は、図10(a)に示すように印象IDカラム221aと特徴量カラム221bと、から構成され、印象IDカラム221aに記憶された印象ID毎に、特徴量カラム221bにt=1回目からTmax回目までの学習で選択された部分領域の番号i及び当該部分領域における部分ベクトルの番号kが記憶される。また、判定情報テーブル222は、図10(b)に示すように、印象IDカラム222aと、学習回数カラム222bと、係数カラム222cと、平均値カラム222dと、から構成され、印象ID毎に、t=1〜Tmax回までの学習における係数(αt)及び部分ベクトルの重み付き平均値が記憶される。なお、弱識別器hi,k(x,t)が選択された部分領域iの部分ベクトルkにおける誤り率εi,kが、t回目の学習における誤り率εtとして選択される。 Such a series of processing from steps S6309 to S6312 is repeated by the number of elements of the set G of partial area combinations. Finally, the weak classifier h i, k (x, t) having the lowest error rate ε i, k in the i partial regions is set as the weak classifier h (x, t) in the t-th learning. The learning step t, the partial area number i, the partial vector number k, the coefficient α t and the k-th partial vector of the feature quantity in the selected partial area for the weak classifier h (x, t). The weighted average value is stored in the feature value table 221 and the determination information table 222 of the learning result storage unit 22 (step S6316). As shown in FIG. 10A, the feature amount table 221 includes an impression ID column 221a and a feature amount column 221b. For each impression ID stored in the impression ID column 221a, the feature amount column 221b. The number i of the partial area selected in the learning from the time t = 1 to the time Tmax and the number k of the partial vector in the partial area are stored. Further, as shown in FIG. 10B, the determination information table 222 includes an impression ID column 222a, a learning frequency column 222b, a coefficient column 222c, and an average value column 222d. A coefficient (α t ) and a weighted average value of partial vectors in learning from t = 1 to Tmax times are stored. The error rate ε i, k in the partial vector k of the partial region i for which the weak classifier h i, k (x, t) is selected is selected as the error rate ε t in the t-th learning.

(b)画像の評価
評価処理部11bは、上述の学習結果に基づいて、式(4)により画像の評価を行うものである。具体的には、図9に示すように、まず、図1においては図示しない入力装置等により評価を行う対象となる画像(上述の画像200)が指定されると、表示画像記憶装置2から評価を行う画像200を取得する(ステップS700)。なお、学習結果記憶部22に、図12に示すような前処理格納データテーブル223を設けておき、この前処理格納データテーブル223に設定された情報に基づいて表示画像記憶装置2から取得した画像200を処理することが望ましい。
(B) Image Evaluation The evaluation processing unit 11b evaluates an image by Expression (4) based on the learning result described above. Specifically, as shown in FIG. 9, first, when an image to be evaluated (the above-described image 200) is designated by an input device (not shown) in FIG. 1, the evaluation is performed from the display image storage device 2. The image 200 to perform is acquired (step S700). Note that a preprocessing storage data table 223 as shown in FIG. 12 is provided in the learning result storage unit 22, and an image acquired from the display image storage device 2 based on information set in the preprocessing storage data table 223. It is desirable to process 200.

具体的には、この前処理格納データテーブル223には、前処理情報が記憶される前処理カラム223aと、そのオン/オフ及び設定値が記憶される設定値カラム223bとから構成されており、画像200の前処理として、「リサイズ」、「EXIFサムネイル画像使用」、「平滑化」、等が記憶されている。「リサイズ」とは取得した画像200を、設定値カラム223bに設定されているサイズ(画素数)にリサイズする処理であり、「EXIFサムネイル画像使用」とは、画像200がEXIF形式のファイルであるときに、そのファイル内に格納されているサムネイル画像を印象の判断に使用するというものであり、「平滑化」とは画像200を平滑化する処理である。このように、印象ラベルの評価を行う前に、画像200に対して前処理を施しておくことで、以下の特徴量を算出する際の処理時間を短縮でき、処理の高速化が可能となる。   Specifically, the preprocessing storage data table 223 includes a preprocessing column 223a in which preprocessing information is stored, and a setting value column 223b in which on / off and setting values are stored. As pre-processing of the image 200, “Resize”, “Use EXIF thumbnail image”, “Smoothing”, and the like are stored. “Resize” is a process of resizing the acquired image 200 to the size (number of pixels) set in the setting value column 223b, and “EXIF thumbnail image use” is an EXIF format file. Sometimes the thumbnail image stored in the file is used for impression determination, and “smoothing” is a process of smoothing the image 200. As described above, by performing the pre-processing on the image 200 before the impression label is evaluated, the processing time for calculating the following feature amount can be shortened, and the processing speed can be increased. .

そして、この画像200(若しくは、前処理後の画像)の特徴量のベクトルXを算出する(ステップS710)。次に、繰り返し回数tに初期値として”1”を設定し、この繰り返し回数tがTmaxより大きくなるまで次の処理(ステップS740〜ステップS760)を繰り返す(ステップS730)。ステップS740では、学習結果記憶部22の特徴量テーブル221からt回目の学習におけるi,kを取得し、また、判定情報テーブル222からt回目の学習における部分領域iのk番目の部分ベクトルの重み付き平均値を取得する。そして、ステップS750では、ステップS710で算出した画像の特徴量のベクトルXのうち、部分領域iにおけるk番目の部分ベクトル(x)と、ステップS740で取得した部分領域iのk番目の部分ベクトルの重み付き平均値とから、式(10)〜(12)により弱識別器h(x,t)の値を求める(ステップS750)。そして、ステップS760ではtに1を加算する。以上のようにして、Tmax個の弱識別器h(x,t)の結果が出ると、最後に、判定情報テーブル222からTmax個の重みαtの値を読み出し(ステップS770)、式(4)により、強識別器H(X)の値を算出する(ステップS780)。 Then, a feature value vector X of the image 200 (or an image after preprocessing) is calculated (step S710). Next, “1” is set as an initial value for the number of repetitions t, and the next processing (step S740 to step S760) is repeated until the number of repetitions t is greater than Tmax (step S730). In step S740, i and k in the t-th learning are acquired from the feature amount table 221 in the learning result storage unit 22, and the weight of the k-th partial vector of the partial region i in the t-th learning is determined from the determination information table 222. Get the average value. In step S750, among the vector X of the feature amount of the image calculated in step S710, the k-th partial vector (x) in the partial area i and the k-th partial vector in the partial area i acquired in step S740. From the weighted average value, the value of the weak discriminator h (x, t) is obtained by the equations (10) to (12) (step S750). In step S760, 1 is added to t. When the results of Tmax weak classifiers h (x, t) are obtained as described above, finally, the value of Tmax weights α t is read from the determination information table 222 (step S770), and the equation (4) ) To calculate the value of the strong classifier H (X) (step S780).

以上のような構成によると、評価処理部11bは、画像200が、この評価処理部11bが設けられた印象ラベル判定部11に設定されている印象ラベルに相当する印象を有するか否かを数値として算出することができる。上述のように弱識別器h(x,t)は”1”か”−1”の値が出力されるため、判定結果出力部14において、強識別器H(X)の値が正の値であれば当該印象を有し、0より小さい値であれば当該印象を有しないと判断することができる。あるいは、所定の閾値を設定し、この閾値以上の値であれば当該印象を有し、閾値より小さければ当該印象を有しないと判断することもできる。すなわち、この印象ラベル判定部11においては、強識別器H(X)の値は、印象を有する/有しない(”1”か”−1”か)ではなく、Tmax個の弱識別器と重みαtとの積の総和(線形結合)であるため、判定結果出力部14は、印象の近接度合いを数値として表現することが可能である。そのため、複数の印象ラベルが設定された印象ラベル判定部11の各々の演算結果(H(X))を比較して、どの印象が最も強いのかというような比較や、順位付けも行うことが可能である。 According to the above configuration, the evaluation processing unit 11b determines whether or not the image 200 has an impression corresponding to the impression label set in the impression label determination unit 11 provided with the evaluation processing unit 11b. Can be calculated as As described above, since the value of “1” or “−1” is output from the weak classifier h (x, t), the determination result output unit 14 determines that the value of the strong classifier H (X) is a positive value. If so, it can be determined that the impression is present, and if the value is less than 0, the impression is not present. Alternatively, a predetermined threshold value is set, and if the value is greater than or equal to this threshold value, the impression is given, and if the value is smaller than the threshold value, it can be determined that the impression is not given. That is, in this impression label determination unit 11, the value of the strong classifier H (X) does not have / does not have an impression (“1” or “−1”), but Tmax weak classifiers and weights. Since it is the total sum (linear combination) of the products with α t , the determination result output unit 14 can express the degree of proximity of the impression as a numerical value. Therefore, it is possible to compare and rank which impression is the strongest by comparing the respective calculation results (H (X)) of the impression label determination unit 11 in which a plurality of impression labels are set. It is.

なお、本実施形態における印象判定処理部10において、判定結果出力部14は、複数の印象ラベルのそれぞれに対応付けられた印象ラベル判定部11からの判定結果(強識別器H(X)の値)から、最も大きな値をその画像の印象ラベル(印象)として表示するように構成することもできるし、所定の閾値以上の印象ラベルを出力するように構成することもできる。また、画像の印象ラベルを操作部等からユーザが選択できるように、印象ラベル判定部11の選択部を設けることも可能である。また、以上の説明においては、印象ラベル判定部11が学習処理部11aと評価処理部11bとを有する場合について説明したが、本実施形態における印象ラベル判定部11は、画像200の印象判定だけを行うことができれば良いので、予め学習した結果が記憶された学習記憶部22と評価処理部11bとを有していれば、学習処理部11a及び学習画像記憶部21は省略可能である。   In the impression determination processing unit 10 according to the present embodiment, the determination result output unit 14 determines the determination result (value of the strong classifier H (X)) from the impression label determination unit 11 associated with each of a plurality of impression labels. ) Can be configured to display the largest value as an impression label (impression) of the image, or can be configured to output an impression label equal to or greater than a predetermined threshold. It is also possible to provide a selection unit for the impression label determination unit 11 so that the user can select the impression label of the image from the operation unit or the like. Moreover, in the above description, although the case where the impression label determination part 11 has the learning process part 11a and the evaluation process part 11b was demonstrated, the impression label determination part 11 in this embodiment performs only the impression determination of the image 200. As long as it can be performed, the learning processing unit 11a and the learning image storage unit 21 can be omitted if the learning storage unit 22 and the evaluation processing unit 11b in which the results learned in advance are stored.

そして、以上のような印象判定処理部10の判定結果出力部14は判定結果から得られた印象ラベルを上述した印象決定部40に出力する。印象決定部40における処理は上述の通りである。   And the determination result output part 14 of the above impression determination process parts 10 outputs the impression label obtained from the determination result to the impression determination part 40 mentioned above. The processing in the impression determination unit 40 is as described above.

以上のように、印象判定処理部10において、画像の印象を与えている部分領域と特徴量の部分ベクトルとを学習により特定し、それらの情報に基づいて識別器が構築され、そのような識別器によって、画像の印象ラベルの特定を行うことができる。そして、印象判定処理部10において特定された画像の印象ラベルに合致した色により、画像の印象を強調して、表示装置3に画像を表示する際に、その印象が強調された画像として表示することができるので、ユーザが、視覚的に十分に楽しめ、かつ、満足度の高い、表示を行うことができる。また、上述の例では、印象ラベルに対応する色を画像上に表示する際に、その色が1色の場合について説明したが、2色以上の場合には、その2色以上の色を画面上に配置して、画像を強調する際に、グラデーション表示したり、格子状に配置したり、市松模様や、チェック状、千鳥格子状に配置したりしても良い。または、その2色以上の場合に、判定結果(強識別器H(X)の値)において最も大きな値の印象ラベルをメインのベース色として、その上に、模様等で他の色を配置するようにしてもよい。   As described above, in the impression determination processing unit 10, the partial region giving the impression of the image and the partial vector of the feature amount are specified by learning, and a discriminator is constructed based on the information. The impression label of the image can be specified by the device. The impression of the image is emphasized with a color that matches the impression label of the image specified in the impression determination processing unit 10, and when the image is displayed on the display device 3, the image is displayed as an image with the impression enhanced. Therefore, it is possible for the user to perform a display that is sufficiently enjoyable visually and highly satisfactory. Further, in the above-described example, when the color corresponding to the impression label is displayed on the image, the case where the color is one color has been described. However, when there are two or more colors, the two or more colors are displayed on the screen. When the image is emphasized by placing it above, it may be displayed in gradation, in a grid pattern, or in a checkered pattern, check pattern, or staggered pattern. Alternatively, in the case of two or more colors, the impression label having the largest value in the determination result (the value of the strong discriminator H (X)) is set as the main base color, and another color is arranged thereon with a pattern or the like. You may do it.

本発明に係る画像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image display apparatus which concerns on this invention. 画像解析部の処理を示すフローチャートである。It is a flowchart which shows the process of an image analysis part. 印象ラベル関係定義記憶部に記憶されるテーブルのデータ構造を示すデータ構造図であって、(a)は印象ラベル定義テーブルを示し、(b)は印象枠定義テーブルを示す。It is a data structure figure which shows the data structure of the table memorize | stored in the impression label relation definition memory | storage part, Comprising: (a) shows an impression label definition table, (b) shows an impression frame definition table. 画像の強化処理を行う際の枠色の配置を示す画面の模式図であって(a)画像の外周辺部領域に枠色を配置した例を示し、(b)画像の外部周辺領域を除き、画像の表示されていない領域に枠色を配置した例を示し、(c)画像の外周辺部領域と画像の表示されていない領域とに枠色を配置した例を示す。It is a schematic diagram of the screen showing the arrangement of the frame color when performing the image enhancement processing, showing (a) an example in which the frame color is arranged in the outer peripheral area of the image, and (b) excluding the outer peripheral area of the image An example in which a frame color is arranged in an area where no image is displayed is shown, and (c) an example in which a frame color is arranged in an outer peripheral area of the image and an area where no image is displayed is shown. 印象判定処理部における判定部の構成を示すブロック図である。It is a block diagram which shows the structure of the determination part in an impression determination process part. 上記判定部のうち、学習処理部における処理を示すフローチャートである。It is a flowchart which shows the process in a learning process part among the said determination parts. 学習画像記憶部のデータ構造を示すデータ構造図であって、(a)は学習画像記憶テーブルの構造を示し、(b)は、印象ラベル記憶テーブルの構造を示す。It is a data structure figure which shows the data structure of a learning image memory | storage part, Comprising: (a) shows the structure of a learning image storage table, (b) shows the structure of an impression label storage table. 上記学習処理部において、弱識別器を構築する処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process which builds a weak discriminator in the said learning process part. 上述の学習処理部における処理において、印象に影響を与える部分領域が特定される過程を示す説明図である。It is explanatory drawing which shows the process in which the partial area | region which affects an impression is specified in the process in the above-mentioned learning process part. 学習結果記憶部のデータ構造を示すデータ構造図であって、(a)は特徴量テーブルの構造を示し、(b)は判定情報テーブルの構造を示す。It is a data structure figure which shows the data structure of a learning result memory | storage part, (a) shows the structure of a feature-value table, (b) shows the structure of a determination information table. 上記判定部のうち、評価処理部における処理を示すフローチャートである。It is a flowchart which shows the process in an evaluation process part among the said determination parts. 前処理格納データテーブルのデータ構造を示すデータ構造図。The data structure figure which shows the data structure of the pre-processing storage data table.

符号の説明Explanation of symbols

1 コンピュータ 3 表示装置 22 学習結果記憶部
30 画像解析部
41 印象ラベル関係定義記憶部(412 印象枠定義テーブル)
100 画像表示装置
1 Computer 3 Display Device 22 Learning Result Storage Unit 30 Image Analysis Unit 41 Impression Label Relationship Definition Storage Unit (412 Impression Frame Definition Table)
100 Image display device

Claims (7)

画像解析部を有し、予め登録された複数の印象ラベル毎に画像印象の学習結果が記憶された学習結果記憶部にアクセス可能なコンピュータにより実行され、入力された画像の印象を判定し、当該印象を強化して表示装置に出力する画像表示方法であって、
前記画像解析部により、
前記画像から当該画像の特徴量を算出して、当該特徴量と前記学習結果記憶部に記憶されている前記学習結果に基づいて当該画像における前記複数の印象ラベルの各々に対する印象の近接度合いを判定する画像印象判定ステップと、
前記画像印象判定ステップでの前記印象ラベルに対する印象の近接度合いが、閾値以上である印象ラベルを選択して、当該印象ラベルを前記画像の印象ラベルとする印象ラベル決定ステップと、
前記表示装置に前記画像を表示する際に、前記印象ラベル決定ステップにおいて決定された前記印象ラベルが有する印象を強化する画像処理を前記画像に対して施して出力する印象強化画像処理ステップと、
を有する画像表示方法。
The image analysis unit is executed by a computer accessible to a learning result storage unit in which a learning result of an image impression is stored for each of a plurality of pre-registered impression labels, the impression of the input image is determined, An image display method for enhancing an impression and outputting to a display device,
By the image analysis unit,
The feature amount of the image is calculated from the image, and the proximity degree of the impression to each of the plurality of impression labels in the image is determined based on the feature amount and the learning result stored in the learning result storage unit. An image impression determination step,
An impression label determining step of selecting an impression label whose degree of proximity of the impression to the impression label in the image impression determination step is equal to or greater than a threshold, and using the impression label as an impression label of the image;
Impression-enhanced image processing step of performing image processing for enhancing the impression of the impression label determined in the impression label determination step when the image is displayed on the display device, and outputting the image.
An image display method comprising:
前記画像印象判定ステップにおいて、前記画像に前処理を施して、当該前処理が施された画像の特徴量を算出するように構成された請求項1に記載の画像表示方法。   The image display method according to claim 1, wherein in the image impression determination step, preprocessing is performed on the image and a feature amount of the preprocessed image is calculated. 前記印象ラベル決定ステップにおいて、閾値以上の前記印象ラベルから、前記印象の近接度合いの最も高い印象ラベルに対して、矛盾する前記印象ラベルを除いて、前記画像の印象ラベルを決定するように構成された請求項1または2に記載の画像表示方法。   In the impression label determination step, the impression label of the image is determined by excluding the contradictory impression label from the impression label that is equal to or higher than a threshold value with respect to the impression label having the highest degree of proximity of the impression. The image display method according to claim 1 or 2. 前記画像解析部は、前記印象ラベルごとに当該印象ラベルを有する前記画像の印象を強化する強化色が記憶された印象枠定義テーブルにアクセス可能であり、
前記印象強化画像処理ステップにおいて、前記印象枠定義テーブルから、前記画像の前記印象ラベルに対応する当該画像の印象を強化する前記強化色を取得し、前記画像の周囲に前記強化色を配置して前記表示装置に表示するように構成された請求項1〜3いずれか一項に記載の画像表示方法。
The image analysis unit can access an impression frame definition table in which an enhanced color that enhances an impression of the image having the impression label is stored for each impression label,
In the impression enhancement image processing step, the enhancement color for enhancing the impression of the image corresponding to the impression label of the image is acquired from the impression frame definition table, and the enhancement color is arranged around the image. The image display method according to claim 1, wherein the image display method is configured to display on the display device.
前記印象枠定義テーブルは、前記印象ラベルごとに前記強化色と矛盾する色を記憶し、
前記印象強化画像処理ステップにおいて、
前記印象ラベル決定ステップにおいて決定された前記画像に対する前記印象ラベルが複数あるときに、最も印象の近接度合いの高い前記印象ラベルに対応する前記矛盾する色を前記印象枠定義テーブルから取得し、
前記印象強化画像処理ステップにおいて、当該矛盾する色を前記画像に配置しないようにした請求項4に記載の画像表示方法。
The impression frame definition table stores a color that contradicts the enhanced color for each impression label,
In the impression enhancing image processing step,
When there are a plurality of impression labels for the image determined in the impression label determination step, the contradictory color corresponding to the impression label having the highest degree of proximity of the impression is acquired from the impression frame definition table,
The image display method according to claim 4, wherein the contradictory color is not arranged in the image in the impression enhancing image processing step.
請求項1〜5いずれか一項に記載の画像表示方法をコンピュータに実行させるためのプログラム。   The program for making a computer perform the image display method as described in any one of Claims 1-5. 予め登録された複数の印象ラベル毎に画像印象の学習結果が記憶された学習結果記憶部と、
画像を表示する表示装置と、
請求項6に記載のプログラムを実行するコンピュータと、を有する画像表示装置。
A learning result storage unit storing a learning result of an image impression for each of a plurality of impression labels registered in advance;
A display device for displaying an image;
An image display apparatus comprising: a computer that executes the program according to claim 6.
JP2008184353A 2008-07-16 2008-07-16 Image display method, program, and image display apparatus Active JP5314954B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008184353A JP5314954B2 (en) 2008-07-16 2008-07-16 Image display method, program, and image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008184353A JP5314954B2 (en) 2008-07-16 2008-07-16 Image display method, program, and image display apparatus

Publications (2)

Publication Number Publication Date
JP2010026017A true JP2010026017A (en) 2010-02-04
JP5314954B2 JP5314954B2 (en) 2013-10-16

Family

ID=41731944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008184353A Active JP5314954B2 (en) 2008-07-16 2008-07-16 Image display method, program, and image display apparatus

Country Status (1)

Country Link
JP (1) JP5314954B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266835A (en) * 1993-03-11 1994-09-22 Fujitsu Ltd Plotting system
JPH09161062A (en) * 1995-12-13 1997-06-20 Nissan Motor Co Ltd Method for recognizing pattern
JPH11203453A (en) * 1998-01-19 1999-07-30 Fuji Xerox Co Ltd Image processor and its method
JPH11283036A (en) * 1998-03-30 1999-10-15 Toshiba Tec Corp Object detector and object detection method
JP2004333689A (en) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> Presentation system and presentation method
US20060203312A1 (en) * 2003-07-29 2006-09-14 Koninklijke Philips Electronics N.V. Enriched photo viewing experience of digital photographs
WO2007029467A1 (en) * 2005-09-05 2007-03-15 Konica Minolta Medical & Graphic, Inc. Image processing method and image processing device
US20070242162A1 (en) * 2004-06-30 2007-10-18 Koninklijke Philips Electronics, N.V. Dominant Color Extraction Using Perceptual Rules to Produce Ambient Light Derived From Video Content
JP2008122551A (en) * 2006-11-10 2008-05-29 Matsushita Electric Ind Co Ltd Image display device and determining method for image quality adjustment parameter

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266835A (en) * 1993-03-11 1994-09-22 Fujitsu Ltd Plotting system
JPH09161062A (en) * 1995-12-13 1997-06-20 Nissan Motor Co Ltd Method for recognizing pattern
JPH11203453A (en) * 1998-01-19 1999-07-30 Fuji Xerox Co Ltd Image processor and its method
JPH11283036A (en) * 1998-03-30 1999-10-15 Toshiba Tec Corp Object detector and object detection method
JP2004333689A (en) * 2003-05-02 2004-11-25 Nippon Hoso Kyokai <Nhk> Presentation system and presentation method
US20060203312A1 (en) * 2003-07-29 2006-09-14 Koninklijke Philips Electronics N.V. Enriched photo viewing experience of digital photographs
US20070242162A1 (en) * 2004-06-30 2007-10-18 Koninklijke Philips Electronics, N.V. Dominant Color Extraction Using Perceptual Rules to Produce Ambient Light Derived From Video Content
WO2007029467A1 (en) * 2005-09-05 2007-03-15 Konica Minolta Medical & Graphic, Inc. Image processing method and image processing device
JP2008122551A (en) * 2006-11-10 2008-05-29 Matsushita Electric Ind Co Ltd Image display device and determining method for image quality adjustment parameter

Also Published As

Publication number Publication date
JP5314954B2 (en) 2013-10-16

Similar Documents

Publication Publication Date Title
US20100271513A1 (en) Selection of decorative picture suitable for input picture
US20150278710A1 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium
CN109670558A (en) It is completed using the digital picture of deep learning
US20130101209A1 (en) Method and system for extraction and association of object of interest in video
EP1555634A1 (en) Method and apparatus for automatically determining image foreground color
KR100669251B1 (en) Apparatus and method for automatically analyzing digital image quality
CN105761283A (en) Picture dominant color extraction method and device
US8345742B2 (en) Method of processing moving picture and apparatus thereof
JP2006172437A (en) Method for determining position of segment boundary in data stream, method for determining segment boundary by comparing data subset with vicinal data subset, program of instruction executable by computer, and system or device for identifying boundary and non-boundary in data stream
US20090251458A1 (en) Image signal generating apparatus, image signal generation method, computer program, and recording medium
CN114005077B (en) Audience evaluation data driven silent product video creation auxiliary method and device
JP6031210B1 (en) Sales prediction device, sales prediction method, and program
JP2012174273A (en) Image processing apparatus and image processing method
CN114677402A (en) Poster text layout, poster generation method and related device
Liu et al. Image-driven harmonious color palette generation for diverse information visualization
JP2004086737A (en) Method and device for similarity determination and program
JPH1139325A (en) Similarity retrieval method and system therefor
JP5314954B2 (en) Image display method, program, and image display apparatus
JP6855175B2 (en) Image processing equipment, image processing methods and programs
JP2022036131A (en) Learning device, inferring device, learning method, inferring method, computer system, and program
CN108491820A (en) Limbs indicate recognition methods, device and the equipment of information, storage medium in image
JP2000048041A (en) Data retrieval system and device to be used for the system
US11494553B2 (en) Document creation assistance apparatus and non-transitory computer readable medium
JP7144384B2 (en) Object detection device, method and program
Bohra et al. ColorArt: Suggesting colorizations for graphic arts using optimal color-graph matching

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20110715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130708

R150 Certificate of patent or registration of utility model

Ref document number: 5314954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250