JP2018088132A - Sensitivity evaluation system - Google Patents

Sensitivity evaluation system Download PDF

Info

Publication number
JP2018088132A
JP2018088132A JP2016231119A JP2016231119A JP2018088132A JP 2018088132 A JP2018088132 A JP 2018088132A JP 2016231119 A JP2016231119 A JP 2016231119A JP 2016231119 A JP2016231119 A JP 2016231119A JP 2018088132 A JP2018088132 A JP 2018088132A
Authority
JP
Japan
Prior art keywords
evaluation
correlation
feature data
cross
autocorrelation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016231119A
Other languages
Japanese (ja)
Other versions
JP6754282B2 (en
Inventor
雅之 渡邊
Masayuki Watanabe
雅之 渡邊
道田 奈々江
Nanae Michida
奈々江 道田
篤秀 岸
Atsuhide Kishi
篤秀 岸
西川 一男
Kazuo Nishikawa
一男 西川
隆秀 農沢
Takahide Nozawa
隆秀 農沢
小松 英彦
Hidehiko Komatsu
英彦 小松
直一 郷田
Naoichi Goda
直一 郷田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
National Institute of Natural Sciences
Original Assignee
Mazda Motor Corp
National Institute of Natural Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp, National Institute of Natural Sciences filed Critical Mazda Motor Corp
Priority to JP2016231119A priority Critical patent/JP6754282B2/en
Publication of JP2018088132A publication Critical patent/JP2018088132A/en
Application granted granted Critical
Publication of JP6754282B2 publication Critical patent/JP6754282B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable human visual sensibility to be quantified for evaluation.SOLUTION: For an image to be evaluated with respect to a predetermined sensibility (for example, texture), feature data in plural hierarchies simulating hierarchical visual information processing in the human brain (a plurality of first feature data by frequency processing to be processed in a first hierarchy, a plurality of second feature data by azimuth selection processing to be processed in a second hierarchy and a plurality of third feature data by azimuth signal intensity processing to be processed in a third hierarchy) is calculated. For each feature data, autocorrelation and cross-correlation are calculated. An evaluation model in which the autocorrelation and the cross-correlation of feature data of each hierarchy are set as parameters is stored. The autocorrelation and the cross-correlation calculated for a certain image are checked against the evaluation model to evaluate the predetermined sensitivity.SELECTED DRAWING: Figure 1

Description

本発明は、感性評価システムに関するものである。   The present invention relates to a sensitivity evaluation system.

人間は、視覚について、例えば、質感、美観等に関する感性を有するものである。この視覚上の感性を評価するものとして、特許文献1、特許文献2がある。特許文献1は、感性を表す感性用語を用いて、画像印象の評価結果を表示するものとなっている。特許文献2は、露光度等の撮影者の好みを反映させた画像評価を行うものとなっている。   Human beings have sensibilities related to vision, for example, texture, aesthetics, and the like. There are Patent Document 1 and Patent Document 2 for evaluating this visual sensitivity. Patent Document 1 displays an evaluation result of an image impression using a sensitivity term representing sensitivity. Japanese Patent Application Laid-Open No. 2004-228561 performs image evaluation reflecting a photographer's preference such as exposure level.

特開平9−16797号公報JP-A-9-16797 特開2006−254107号公報JP 2006-254107 A

従来の視覚上の感性の評価は、感性用語を用いたり、画像撮影者の好みを反映したものとされていて、感性そのものを物理的に評価するものではなく、具体性に欠けるものとならざるを得ないものであった。   Conventional evaluation of visual sensibilities is based on the use of sensibility terms and reflects the preference of the photographer. It does not physically evaluate the sensibility itself, and it does not lack concreteness. It was something that I did not get.

本発明は以上のような事情を勘案してなされたもので、その目的は、人間の視覚上の感性を定量化して評価できるようにした感性評価システムを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a sensitivity evaluation system capable of quantifying and evaluating human visual sensitivity.

前記目的を達成するため、本発明にあっては次のような解決手法を採択してある。すなわち、請求項1に記載のように、
所定の感性について評価の対象となる画像を取得する画像取得手段と、
人間脳内の階層的な視覚情報処理を模擬して構成され、前記画像取得手段で取得された画像について該階層毎に特徴データを算出する画像特徴算出手段と、
前記画像特徴算出手段で算出された特徴データについて、自己相関および相互相関を算出する視覚統計量算出手段と、
前記各階層の特徴データの自己相関および相互相関をパラメータとしてあらかじめ設定され、前記所定の感性についての評価モデルを記憶した評価モデル記憶手段と、
前記視覚統計量算出手段で算出された自己相関と相互相関とを前記評価モデルに照合して、前記評価対象となる画像についての感性を評価する感性評価部と、
を備えているようにしてある。上記解決手法によれば、人間の視覚上の感性を定量化して評価することができる。特に、人間の視覚上の情報処理を模擬化したデータを用いた評価手法なので、実際に人間が感じる感性と適切に合致した評価を行うことができる。
In order to achieve the above object, the following solution is adopted in the present invention. That is, as described in claim 1,
Image acquisition means for acquiring an image to be evaluated for a predetermined sensitivity;
Image feature calculation means configured to simulate hierarchical visual information processing in the human brain, and to calculate feature data for each hierarchy of the image acquired by the image acquisition means;
A visual statistic calculating means for calculating auto-correlation and cross-correlation for the feature data calculated by the image feature calculating means;
An evaluation model storage means that stores preset evaluation models for the predetermined sensibilities, which are set in advance as parameters of autocorrelation and cross-correlation of the feature data of each of the layers,
A sensitivity evaluation unit that compares the autocorrelation and cross-correlation calculated by the visual statistic calculation means with the evaluation model, and evaluates the sensitivity of the image to be evaluated,
It is supposed to be equipped with. According to the above solution method, human visual sensitivity can be quantified and evaluated. In particular, since the evaluation method uses data simulating human visual information processing, it is possible to perform an evaluation that appropriately matches the sensibility actually felt by humans.

上記解決手法を前提とした好ましい態様は、請求項2以下に記載のとおりである。すなわち、
前記画像特徴算出手段は、第1階層での処理となる周波数処理による複数の第1特徴データと、第2階層での処理となる方位選択処理による複数の第2特徴データと、第3階層での処理となる方位信号強度処理による複数の第3特徴データとを算出する、ようにしてある(請求項2対応)。この場合、人間の網膜から外側膝状体を経て大脳皮質で行われる視覚上の情報処理を適切に再現した評価を得ることができる。
A preferred mode based on the above solution is as described in claim 2 and the following. That is,
The image feature calculation means includes a plurality of first feature data by frequency processing that is processing in the first hierarchy, a plurality of second feature data by orientation selection processing that is processing in the second hierarchy, and a third hierarchy. A plurality of third feature data is calculated by the azimuth signal intensity process which is the process (corresponding to claim 2). In this case, it is possible to obtain an evaluation that appropriately reproduces the visual information processing performed in the cerebral cortex from the human retina through the outer knee.

前記視覚統計量算出手段で算出された自己相関、相互相関とに基づいて、前記評価モデルを学習補正する学習手段をさらに備えている、ようにしてある(請求項3対応)。この場合、評価モデルをより適切に設定する上で好ましいものとなる。   The apparatus further comprises learning means for learning and correcting the evaluation model based on autocorrelation and cross-correlation calculated by the visual statistic calculation means (corresponding to claim 3). In this case, it is preferable to set the evaluation model more appropriately.

評価される感性の種類が複数設定されて、該複数の感性に対応して前記評価モデルが複数設定され、
前記複数の評価モデルの中から、評価される前記所定の感性に応じて1つの評価モデルを選択するモデル選択手段をさらに有し、
前記感性評価手段は、前記視覚統計量算出手段で算出された自己相関と相互相関とを
前記モデル選択手段で選択された評価モデルに対して照合する、
ようにしてある(請求項4対応)。この場合、視覚上の種々の感性に対応した評価を行うことができる。
A plurality of types of sensibilities to be evaluated are set, and a plurality of the evaluation models are set corresponding to the plurality of sensibilities,
Model selection means for selecting one evaluation model from the plurality of evaluation models according to the predetermined sensitivity to be evaluated,
The Kansei evaluation means collates the autocorrelation and cross-correlation calculated by the visual statistic calculation means against the evaluation model selected by the model selection means,
(Corresponding to claim 4). In this case, evaluation corresponding to various visual sensibilities can be performed.

前記評価モデルが、多数の画像について取得された前記自己相関および前記相互相関について主成分分析を行った後、前記所定の感性の評価用のパラメータを選択することにより決定されている、ようにしてある(請求項5対応)。この場合、評価モデルを極力簡単かつ容易に設定する等の上で好ましいものとなる。   The evaluation model is determined by performing a principal component analysis on the autocorrelation and the cross-correlation acquired for a large number of images, and then selecting a parameter for evaluating the predetermined sensitivity. Yes (corresponding to claim 5). In this case, it is preferable for setting the evaluation model as easily and easily as possible.

前記評価モデルが、次式によって設定されている(ただし、Yは感性の主観評価値、a、b、cは係数、Xは前記自己相関または前記相互相関である)、ようにしてある(請求項6対応)。この場合、感性の評価値を数式でもって得ることができる。   The evaluation model is set by the following equation (where Y is a subjective evaluation value of sensitivity, a, b, and c are coefficients, and X is the autocorrelation or the cross-correlation): Item 6). In this case, the sensitivity evaluation value can be obtained by a mathematical expression.

Figure 2018088132
Figure 2018088132

前記所定の感性についての評価が、質感の評価とされている、ようにしてある(請求項7対応)。この場合、広く一般に行われることの多い質感についての評価を行うことができる。   The predetermined sensitivity is evaluated as a texture evaluation (corresponding to claim 7). In this case, it is possible to evaluate the texture that is often performed widely.

前記評価モデルが、前記第3特徴データの自己相関と前記第2特徴データの相互相関とをパラメータとして設定されている、ようにしてある(請求項8対応)。この場合、評価モデルが用いるパラメータを極力簡単化しつつ、2次元マップの形式でもって質感を評価することができる。また、2次元マップ上での位置づけを直感的に理解できることから、質感を高めるあるいは低下させるための方向付けを容易に知ることができる。   The evaluation model is configured to set autocorrelation of the third feature data and cross-correlation of the second feature data as parameters (corresponding to claim 8). In this case, the texture can be evaluated in the form of a two-dimensional map while simplifying the parameters used by the evaluation model as much as possible. In addition, since the position on the two-dimensional map can be intuitively understood, it is possible to easily know the orientation for increasing or decreasing the texture.

本発明によれば、視覚上の感性を定量化して評価することができる。   According to the present invention, visual sensitivity can be quantified and evaluated.

感性評価を行う制御系統を示すブロック図。The block diagram which shows the control system which performs sensitivity evaluation. 人間脳内の階層的な視覚情報処理を模擬化して示すもので、各階層の特徴データと各特徴データの自己相関および相互相関の算出を示す図。The figure which simulates the hierarchical visual information processing in a human brain, and shows the calculation of the autocorrelation and the cross correlation of the feature data of each hierarchy, and each feature data. 評価モデルを決定する手法を説明するための図。The figure for demonstrating the method of determining an evaluation model. 第3特徴データの自己相関マップの例示す図。The figure which shows the example of the autocorrelation map of 3rd characteristic data. 第2特徴データの相互相関を算出する例を示す図。The figure which shows the example which calculates the cross correlation of 2nd feature data. 質感評価のためのマップの例を示す図。The figure which shows the example of the map for texture evaluation. 質感評価の評価の対象となる自動車のインストルメントパネル部分の画像例を示す図。The figure which shows the example of an image of the instrument panel part of the motor vehicle used as the object of evaluation of texture evaluation.

まず、図2を参照しつつ、人間脳内の視覚情報処理を模擬化した処理に基づく各階層での特徴データの算出と、各特徴データについての自己相関および相互相関について説明する。   First, with reference to FIG. 2, calculation of feature data in each layer based on processing simulating visual information processing in the human brain, and autocorrelation and cross-correlation for each feature data will be described.

人間の脳内の視覚情報処理は、網膜から外側膝状体を経て大脳皮質での処理となり、第1階層での処理、第2階層での処理、第3階層での処理というように、3段階で行われる。網膜に入力される視覚情報の入力が図中○1で示される。なお、以下の説明で、図2中の数字を○印で囲ったものを、○1、○2等でもって表示することとする(例えば○1は、数字の1を○印で囲ったもの)。   The visual information processing in the human brain is a process in the cerebral cortex from the retina through the outer knee-like body, such as a process in the first layer, a process in the second layer, and a process in the third layer. Done in stages. The input of visual information input to the retina is indicated by ○ 1 in the figure. In the following explanation, the numbers in FIG. 2 surrounded by circles are displayed with circles 1, 2, etc. (for example, circle 1 is the number 1 surrounded by circles). ).

第1階層での処理は、網膜入力後の外側膝状体の処理を模擬したもので、周波数処理つまり解像度処理とされて、例えば高周波(高解像度)と低周波(低解像度)とに分解される。実施形態では、2段階で周波数が分解される処理を行うものとなっており、この第1階層での処理によって、図2中○2、○3として示される2種類の特徴データが算出される。なお、第1階層での処理を、外側膝状体(LGN)の表示を取って「LGN」として表示してある。   The processing in the first layer is a simulation of the outer knee-like body processing after retinal input, and is frequency processing, that is, resolution processing, for example, decomposed into high frequency (high resolution) and low frequency (low resolution). The In the embodiment, the frequency is decomposed in two stages, and the two types of feature data shown as ○ 2 and ○ 3 in FIG. 2 are calculated by the processing in the first layer. . In addition, the process in the first hierarchy is displayed as “LGN” by taking the display of the outer knee (LGN).

第2階層での処理は、第1次視覚野の単純型細胞の処理を模擬したもので、第1階層で処理された各周波数について、方位と位相との分解処理が行われる。この第2階層の処理によって、○4〜○11の合計8種類の特徴データが算出される。なお、第2階層での処理を、第1次視覚野の単純型細胞の表示を取って「V1 Simple」として表示してある。   The processing in the second layer simulates the processing of simple cells in the primary visual cortex, and the direction and phase decomposition processing is performed for each frequency processed in the first layer. A total of eight types of feature data of ○ 4 to ○ 11 are calculated by the processing of the second hierarchy. Note that the processing in the second hierarchy is displayed as “V1 Simple” by taking the display of simple cells in the primary visual cortex.

第3階層での処理は、第1次視覚野の複雑型細胞の処理を模擬したもので、周波数別に位相差を統一させて、方位強度を示す処理となり、○12〜○15の4種類の特徴データが算出される。なお、第3階層での処理を、第1次視覚野の複雑型細胞の表示を取って「V1 Complex」として表示してある。   The processing in the third layer simulates the processing of complex cells in the primary visual cortex, and is a processing that shows the azimuth strength by unifying the phase difference for each frequency. Four types of ○ 12 to ○ 15 Feature data is calculated. The process in the third hierarchy is displayed as “V1 Complex” by taking a display of complex cells in the primary visual cortex.

各階層での特徴データについて、自己相関、相互相関が算出される。図2中、「Auto」として示すのが自己相関を示し、「Within」として示すのが同一周波数間での相互相関を示し、「Across」として示すのが異なる周波数間での相互相関を示す。   Auto-correlation and cross-correlation are calculated for feature data in each layer. In FIG. 2, “Auto” indicates autocorrelation, “Within” indicates cross-correlation between the same frequencies, and “Across” indicates cross-correlation between different frequencies.

算出される自己相関の種類は次のようになる。まず、第1階層の特徴データ○2、○3についての自己相関が、「LGN Auto」として算出される。   The types of autocorrelation calculated are as follows. First, the autocorrelation for the feature data ○ 2 and ○ 3 of the first layer is calculated as “LGN Auto”.

第2階層での8つの特徴データについて、同一周波数内で同一位相内での相互相関が、「Simple Within」として算出される。また、上記8つの特徴データのうち異なる周波数間での相互相関が「Simple Across」として算出される。なお、実施形態では、「Simple Across」は、フーリエ変換によって、実部と虚部との2種類を算出するようにしてある。   For the eight feature data in the second layer, the cross-correlation within the same frequency and the same phase is calculated as “Simple Within”. Further, the cross-correlation between different frequencies among the eight feature data is calculated as “Simple Across”. In the embodiment, “Simple Access” calculates two types of real part and imaginary part by Fourier transform.

第3階層での4つの特徴データの自己相関が、「Complex Auto」として算出される。また、この4つの特徴データの同一周波数内での相互相関が「Complex Within」として算出される。さらに、この4つの特徴データの異なる周波数間ので相互相関が、「Complex Across」として算出される。   The autocorrelation of the four feature data in the third hierarchy is calculated as “Complex Auto”. Further, the cross-correlation within the same frequency of the four feature data is calculated as “Complex Within”. Further, a cross-correlation between different frequencies of the four feature data is calculated as “Complex Across”.

上記のように算出された自己相関および相互相関の算出に加えて、視覚入力についてのモーメント、第1階層での特徴データについてのモーメント(LGNモーメント)、第3階層での特徴データについてのモーメント(V1 Complexモーメント)が算出される(モーメントは、画像の基本的な統計量であって、平均、分散、歪度、尖度のいずれかで定義される)。   In addition to the calculation of autocorrelation and cross-correlation calculated as described above, moment for visual input, moment for feature data in the first layer (LGN moment), moment for feature data in the third layer ( (V1 Complex moment) is calculated (moment is a basic statistic of an image and is defined by one of average, variance, skewness, and kurtosis).

次に、図3を参照しつつ、評価モデルを設定する例について説明する。なお、以下の説明では、評価する感性が物体(物品)の「質感」とした場合を例にして行うこととする。まず、図3中、G1、G2・・・Gnとして示すのは、質感評価の対象となる異なる多数(例えば500〜1000)の画像を示す。この多数の画像についての視覚上の感性評価値(例えば質感の良否について複数段階での評価値)が紐付けられている。なお、質感評価値は、質感評価を行う複数人の専門家による評価値の生データあるいは平均した値としてある。   Next, an example of setting an evaluation model will be described with reference to FIG. In the following description, it is assumed that the sensitivity to be evaluated is the “texture” of an object (article). First, in FIG. 3, G1, G2,... Gn indicate a large number of different images (for example, 500 to 1000) to be subjected to texture evaluation. The visual sensibility evaluation values (for example, the evaluation values in multiple stages regarding the quality of the texture) are associated with the large number of images. The texture evaluation value is raw data or an average value of evaluation values by a plurality of experts who perform texture evaluation.

各画像について、図2について説明したように、自己相関、相互相関が算出される。1つの画像について、自己相関および相互相関について、数多くの相関レベル(数値としての相関係数)を有するものである。各自己相関および各相互相関について、主成分分析(例えば5次元)が行われて、図3中A列で示すような抽出が行われる。また、図3中B列で示すように、A列の中から、質感評価に大きな影響を及ぼすパラメータが選択される。   For each image, autocorrelation and cross-correlation are calculated as described with reference to FIG. One image has many correlation levels (correlation coefficients as numerical values) for autocorrelation and cross-correlation. For each autocorrelation and each cross-correlation, principal component analysis (for example, five dimensions) is performed, and extraction as shown by the column A in FIG. 3 is performed. Also, as shown by the B column in FIG. 3, parameters that greatly affect the texture evaluation are selected from the A column.

主成分分析によって取得された上記A列に示すパラメータに基づいて、評価モデルを示す(1)式が、数1のように決定される。   Based on the parameters shown in the column A acquired by the principal component analysis, the expression (1) indicating the evaluation model is determined as shown in Equation 1.

Figure 2018088132
Figure 2018088132

(1)式中、Yは、各画像についての質感評価値であり、a0〜am、b1〜bm、c(cについてのサフィックスはここでは省略)は係数(定数)であり、X1〜Xmは、図3で示すA列での相関レベルである。当初は、各係数は不知である。(1)式に対して、各画像G1〜Gnについての主観的な質感評価値Yと相関レベルX1〜Xmをあてはめて、回帰手法によって各係数が決定される。回帰モデルとなる(1)式において、個々の係数は、多数の自己相関および多数の相互相関のうち特定の1つが対応づけられている。   In the formula (1), Y is a texture evaluation value for each image, a0 to am, b1 to bm, c (suffix is omitted here) is a coefficient (constant), and X1 to Xm are , The correlation level in the column A shown in FIG. Initially, each coefficient is unknown. By applying the subjective texture evaluation value Y and the correlation levels X1 to Xm for the images G1 to Gn to the equation (1), each coefficient is determined by a regression method. In equation (1), which is a regression model, each coefficient is associated with a specific one of a number of autocorrelations and a number of cross-correlations.

(1)式は、抽出されたA列で示す自己相関および全ての相互相関を含むように決定されたものとなる。この(1)式から、図3のB列で示すような質感評価に大きな影響を与えるパラメータのみを残して、質感評価に影響がないパラメータを削除して、質感評価用の評価モデル式が下記の(2)式として決定される。したがって、(2)式でのサフィックスnは、(1)式でのサフィックスmよりも小となる。なお、(2)式は、(1)式から不要なパラメータについての係数分を削除した後に、係数のサフィックスが連続するように書き直したものとなっている((1)式と(2)式とでは、同じサフィックスの係数が同じ内容を示すものとは限らない)。   The expression (1) is determined so as to include the autocorrelation and all cross-correlations indicated by the extracted column A. From this equation (1), only parameters that have a large effect on the texture evaluation as shown in column B in FIG. 3 are left, parameters that do not affect the texture evaluation are deleted, and the evaluation model formula for the texture evaluation is as follows: (2). Therefore, the suffix n in the equation (2) is smaller than the suffix m in the equation (1). The expression (2) is rewritten so that the coefficient suffixes are continued after deleting the coefficients for the unnecessary parameters from the expression (1) (expressions (1) and (2)). And the same suffix coefficient does not necessarily indicate the same content).

Figure 2018088132
Figure 2018088132

ここで、上記(1)式では、全ての1次項に対して、2次の項および交互作用の項(初期値a0を除く右辺第3項)を含んでいる。実際には、評価モデルを極力シンプルにするという観点から、主観評価に所定以上の影響を有するある特定の1次の項に対してのみ、2次の項および交互作用の項を有するものとするのが好ましく、このような処理が行われた後の状態が、(2)式である。   Here, the above equation (1) includes a second-order term and an interaction term (the third term on the right side excluding the initial value a0) for all the first-order terms. Actually, from the viewpoint of simplifying the evaluation model as much as possible, only a specific first-order term that has a predetermined influence or more on the subjective evaluation has a second-order term and an interaction term. It is preferable that the state after such processing is performed is Equation (2).

ある物体の質感評価を行う場合、当該ある物体についての画像を取得して、図2に示すように自己相関、相互相関を算出し、この算出結果を上記(2)式に当てはめる(自己相関、相互相関の各相関レベルをX1〜Xnに当てはめる)ことにより、上記ある物体についての質感の評価値が数値でもって算出されることになる(定量化で可視化ともなる)。なお、(2)式での評価モデルの妥当性を、図3で示す画像G1〜Gn以外の複数の画像(から算出される自己相関、相互相関)とそれに対する主観的な質感評価値とを利用して、検証することもできる。   When evaluating the texture of a certain object, an image of the certain object is acquired, autocorrelation and cross-correlation are calculated as shown in FIG. 2, and this calculation result is applied to the above equation (2) (autocorrelation, By applying each correlation level of the cross-correlation to X1 to Xn), the texture evaluation value for the certain object is calculated with a numerical value (it is also visualized by quantification). It should be noted that the validity of the evaluation model in the expression (2) is expressed by a plurality of images (autocorrelation and cross-correlation calculated from) other than the images G1 to Gn shown in FIG. It can also be used and verified.

次に、図1を参照しつつ、感性評価を行うための全体的な制御系統例について説明する。図1において、11は、視覚上の感性の評価対象となるカラーの画像であり、この画像11はカメラによって取得される。この画像11について、前述したように、第1階層から第3階層での特徴データが画像特徴算出部12によって算出されて、この特徴データに基づいて、視覚統計量計算部13によって自己相関および相互相関が算出される。   Next, an example of an overall control system for performing sensitivity evaluation will be described with reference to FIG. In FIG. 1, reference numeral 11 denotes a color image to be evaluated for visual sensitivity, and this image 11 is acquired by a camera. As described above, for the image 11, the feature data in the first to third layers is calculated by the image feature calculation unit 12, and the autocorrelation and mutual correlation are calculated by the visual statistic calculation unit 13 based on the feature data. A correlation is calculated.

一方、視覚上の感性についての評価モデルが、複数設定されている。図1では、評価モデルAは質感評価用であり、評価モデルBは美観評価用であり、このように、評価する感性の相違に応じて、複数の評価モデルが設定されている。評価モデルとしては、顔表情(が示す感性)等の他の評価対象を適宜設定できる。   On the other hand, a plurality of evaluation models for visual sensitivity are set. In FIG. 1, the evaluation model A is for texture evaluation, and the evaluation model B is for aesthetic evaluation. Thus, a plurality of evaluation models are set according to the difference in sensitivity to be evaluated. As the evaluation model, other evaluation objects such as facial expression (sensitivity shown) can be set as appropriate.

各評価モデルは、評価パラメータ選択部Pでの選択によって、評価すべき感性の種類に応じたパラメータが設定されている。例えば、質感評価においては、構造・輝度の一様性と輝度のグラデーションとがパラメータとされる(自己相関、相互相関が、構造・輝度の一様性と輝度のグラデーションを検出するように行われる)。また、美観評価においては、例えば輝度分布の対称性がパラメータとして設定される(自己相関、相互相関が、輝度分布の対称性を検出するように行われる)。このように、感性の評価対象に応じてパラメータの選択が行われて、これに応じて自己相関および相互相関が選択されたパラメータに応じて算出される。   In each evaluation model, parameters according to the type of sensitivity to be evaluated are set by selection by the evaluation parameter selection unit P. For example, in texture evaluation, structure / luminance uniformity and luminance gradation are parameters (autocorrelation and cross-correlation are performed to detect structure / luminance uniformity and luminance gradation. ). In the aesthetic evaluation, for example, the symmetry of the luminance distribution is set as a parameter (autocorrelation and cross-correlation are performed so as to detect the symmetry of the luminance distribution). In this way, parameters are selected according to the sensitivity evaluation target, and autocorrelation and cross-correlation are calculated according to the selected parameters.

図1において、個人情報入力部21において個人情報(例えば性別、年齢、職業等)が入力され、入力された個人情報が、個人情報前処理部22で前処理(例えば年齢を複数段階に分類等)された後、個人情報記録部23に記録(記憶)される。   In FIG. 1, personal information (for example, gender, age, occupation, etc.) is input in the personal information input unit 21, and the input personal information is pre-processed in the personal information pre-processing unit 22 (for example, age is classified into a plurality of levels). Is recorded (stored) in the personal information recording unit 23.

生体センサ入力部24で入力された生体情報と主観評価部25で入力された主観的な感性評価値とが、感性実測値推定部26に入力されて感性実測値が推定され、この推定された感性実測値が感性実測値記録部27に記録(記憶)される。   The biological information input by the biological sensor input unit 24 and the subjective sensitivity evaluation value input by the subjective evaluation unit 25 are input to the actual measured sensitivity estimation unit 26 to estimate the actual measured sensitivity value. The actual measured sensitivity value is recorded (stored) in the actual measured sensitivity value recording unit 27.

シーン情報入力部28で入力されたシーンのうち、評価対象特定部29でもって評価対象が特定される。そして、この評価対象特定部で特定された評価対象(の画像)が、評価対象記録部30に記録(記憶)される。前述した視覚統計量計算部13での計算結果が、視覚統計量記録部31に記録(記憶)される。   Among the scenes input by the scene information input unit 28, the evaluation target is specified by the evaluation target specifying unit 29. The evaluation target (image) specified by the evaluation target specifying unit is recorded (stored) in the evaluation target recording unit 30. The calculation result in the visual statistic calculation unit 13 described above is recorded (stored) in the visual statistic recording unit 31.

上述した各記録部23、27、30、31が、データベース部Dを構成する。このデータベース部Dでのデータに基づいて、評価モデルが設定される。具体的には、データベース部でのデータが、評価パラメータ選択部Pに入力されて、評価すべき感性の種類に応じて、適切なパラメータ(評価軸)が選択されて(図3のB列のパラメータ選択が対応)、選択されたパラメータに応じて評価モデルが設定される((2)式に示す評価モデルが設定される)。   Each of the recording units 23, 27, 30, and 31 described above constitutes the database unit D. An evaluation model is set based on the data in the database part D. Specifically, data in the database unit is input to the evaluation parameter selection unit P, and an appropriate parameter (evaluation axis) is selected according to the type of sensitivity to be evaluated (in column B of FIG. 3). The parameter selection corresponds), and an evaluation model is set according to the selected parameter (the evaluation model shown in the equation (2) is set).

前記記録部30での記録内容が、図3に示す多数の画像G1〜Gnとして利用され、記録部27での記録内容が、各画像G1〜Gnに対する主観的な評価値として利用される。
なお、個人情報入力部21は、個人情報(例えば性別や年齢層)に応じて評価値を補正するためであり、無くてもよいものである。また、記録部31は、新たに感性評価したときにこれを評価モデルを学習補正するためであり、学習補正を行わない場合は無くてもよいものである。
The recorded contents in the recording unit 30 are used as a large number of images G1 to Gn shown in FIG. 3, and the recorded contents in the recording unit 27 are used as subjective evaluation values for the images G1 to Gn.
The personal information input unit 21 is for correcting the evaluation value according to personal information (for example, gender or age group), and may be omitted. The recording unit 31 is for learning correction of the evaluation model when a new sensibility evaluation is performed, and may be omitted when the learning correction is not performed.

評価パラメータ選択部は、評価する感性の内容(種類)に応じて評価パラメータ(評価軸)を選択する。評価パラメータは、前述したように、評価される感性が例えば質感の場合は、特に構造・輝度の一様性と輝度のグラデーション(の一様性)とされる。また、評価される感性が例えば美観の場合は、輝度分布の対称性等とされる。このように、評価される感性の内容に応じた適切なパラメータが選択されて、前述したように評価モデルが設定され、この他人間の顔表情が示す感性等、視覚上の適宜の感性について評価モデルを設定することができる。   The evaluation parameter selection unit selects an evaluation parameter (evaluation axis) according to the content (kind) of the sensitivity to be evaluated. As described above, when the sensitivity to be evaluated is, for example, a texture, the evaluation parameters are, in particular, the structure / luminance uniformity and the luminance gradation (uniformity). In addition, when the sensibility to be evaluated is, for example, aesthetics, the luminance distribution is symmetric. In this way, appropriate parameters are selected according to the content of the sensibility to be evaluated, the evaluation model is set as described above, and evaluation of appropriate sensibilities on the sight such as sensibilities exhibited by other human facial expressions. A model can be set.

図1の制御系において、評価モデル設定部41によって、いずれか1つの評価モデルが設定(選択)される。例えば質感評価を行う場合は、評価モデル設定部41によって、質感評価用のとなる評価モデルAが設定される。そして、感性評価部42によって、視覚統計量計算部13で計算された自己相関および相互相関の相関レベル(相関係数)を評価モデルAに当てはめて、質感が算出(評価値として出力)される。   In the control system of FIG. 1, any one evaluation model is set (selected) by the evaluation model setting unit 41. For example, when texture evaluation is performed, the evaluation model setting unit 41 sets an evaluation model A for texture evaluation. Then, the emotion evaluation unit 42 applies the autocorrelation and cross-correlation correlation levels (correlation coefficients) calculated by the visual statistic calculation unit 13 to the evaluation model A to calculate the texture (output as an evaluation value). .

評価モデルAをより適切化するため、評価対象画像取得部11で取得された画像について、質感評価の専門家による質感評価値と感性評価部42による質感評価値とが相違する場合は、上記取得された画像を図3の画像に含めると共に質感評価の専門家による質感評価値を含めるようにして、評価モデルA(これに対応した(2)式)を学習補正することができる。   In order to make the evaluation model A more appropriate, for the image acquired by the evaluation target image acquisition unit 11, when the texture evaluation value by the texture evaluation specialist is different from the texture evaluation value by the sensitivity evaluation unit 42, the above acquisition The evaluation model A (Equation (2) corresponding to this) can be learned and corrected by including the processed image in the image of FIG. 3 and including the texture evaluation value by the texture evaluation specialist.

次に、質感評価の場合を例にして、自己相関および相互相関についてさらに詳細に説明する。まず、質感評価の場合に用いる第3階層での自己相関について説明する。この場合、第3階層の特徴データ(例えば図2の○12)についての自己相関は、第3階層での特徴データとなる元画像とそのコピー画像との相関性が取得される。具体的には、元画像に対してコピー画像を横方向に所定分ずらした状態で両画像同士を比較してその相関性が取得される(相関係の取得)。コピー画像を順次横方向にずらして同様のことが繰り返される。   Next, autocorrelation and cross-correlation will be described in more detail with reference to the case of texture evaluation. First, the autocorrelation in the third hierarchy used in the texture evaluation will be described. In this case, as the autocorrelation for the feature data of the third hierarchy (for example, ◯ 12 in FIG. 2), the correlation between the original image serving as the feature data of the third hierarchy and the copy image is acquired. Specifically, both images are compared with each other in a state where the copy image is shifted by a predetermined amount in the horizontal direction with respect to the original image, and the correlation is acquired (acquisition of correlation). The same process is repeated by sequentially shifting the copy images in the horizontal direction.

次いで、元画像に対してコピー画像を縦向に所定分ずらした状態で両画像同士を比較してその相関性が取得される(相関係の取得)。コピー画像を順次縦方向にずらして同様のことが繰り返される。   Next, the two images are compared with each other in a state where the copy image is shifted vertically by a predetermined amount with respect to the original image (acquisition of correlation). The same is repeated by sequentially shifting the copy images in the vertical direction.

以上のようにして得られた相関性を示す相関係数は、例えば図4に示すような自己相関マップとなる。図4に示すマップのうち、相関係数が最大となる部分(図4において○1で示す部分)を含むその周辺領域での相関係数の平均値が、元画像についての相関係数とされる。   The correlation coefficient indicating the correlation obtained as described above is, for example, an autocorrelation map as shown in FIG. In the map shown in FIG. 4, the average value of the correlation coefficients in the peripheral area including the portion where the correlation coefficient is maximum (the portion indicated by ○ 1 in FIG. 4) is the correlation coefficient for the original image. The

同様のことが、図2に示す第3階層での画像○13〜○15について行われて、第3階層での特徴データ全てについて自己相関の相関係数が取得される。各画像○12〜○15について算出された複数の相関係数の平均値を算出して、この平均値が第3階層での特徴データについての自己相関を示す相関係数とされる。   The same is performed for the images ○ 13 to ○ 15 in the third hierarchy shown in FIG. 2, and autocorrelation correlation coefficients are obtained for all feature data in the third hierarchy. An average value of a plurality of correlation coefficients calculated for each of the images ◯ 12 to ◯ 15 is calculated, and this average value is used as a correlation coefficient indicating autocorrelation for feature data in the third hierarchy.

次に、第2階層での相互相関を取得する場合の詳細について説明する。なお、以下の説明では、図2における第2階層での○4の画像と、○4の画像に対して周波数の異なる○8の画像との相互相関を得る場合を例として説明する。この場合、図5に示すように、周波数の異なる2つの画像同士を重畳して、輝度についてのグラデーションを表現する相関画像が取得される(輝度変化の一様性が高いほど相関性が高いとされる)。90度、45度、0度、−45度という方位の異なる画像同士の間においても同様に輝度についてのグラデーションを表現する相関画像が取得される(図5では、第2階層での特徴データについての方位が4種類とした場合を示してある)。この後、全ての方位についての相関画像を総和した画像から、輝度変化の一様性についての相相関係数のもっとも大きい部分を含むその周辺部分での相関係数の平均値が算出される。同様のことが、第2階層の他の特徴データ(画像)についても行われて、取得された全ての相互相関の平均値を算出して、この平均値が第2階層での特徴データについての相互相関を示す相関係数とされる。   Next, details of obtaining the cross-correlation in the second hierarchy will be described. In the following description, an example is described in which cross-correlation between an image of ○ 4 in the second hierarchy in FIG. 2 and an image of ○ 8 having a different frequency with respect to the image of ○ 4 is obtained. In this case, as shown in FIG. 5, two images having different frequencies are overlapped to obtain a correlation image that represents a gradation regarding luminance (the higher the uniformity of luminance change, the higher the correlation is. ) Correlation images that represent gradations of luminance are similarly acquired between images having different orientations of 90 degrees, 45 degrees, 0 degrees, and -45 degrees (in FIG. 5, feature data in the second hierarchy is shown). Is shown in the case of four types). Thereafter, an average value of the correlation coefficients in the peripheral portion including the portion having the largest phase correlation coefficient regarding the uniformity of the luminance change is calculated from the sum of the correlation images for all the directions. The same is performed for other feature data (images) in the second layer, and the average value of all the acquired cross-correlations is calculated, and this average value is calculated for the feature data in the second layer. The correlation coefficient indicates a cross correlation.

前述のようにして得られた第3階層での特徴データについての自己相関(についての相関係数)と第2階層での特徴データについての相互相関(についての相関係数)とをパラメータとして、質感のレベルを示すマップが例えば図6のように設定される(可視化された評価形態)。図6は、マップ式の評価モデルとなるものである。この図6に示すマップにおいて、領域分けとして例えばα1、α2、α3、α4、α5の5つが設定されているが、領域α1がもっとも上質で、領域α2が2番目に上質で、領域α3が中程度であり、領域α4が上質でなく、領域α5がもっとも上質でないことを示す。   Using the autocorrelation (correlation coefficient) for the feature data in the third hierarchy and the cross-correlation (correlation coefficient) for the feature data in the second hierarchy obtained as described above as parameters, A map showing the level of texture is set, for example, as shown in FIG. 6 (visualized evaluation form). FIG. 6 is a map type evaluation model. In the map shown in FIG. 6, for example, five areas α1, α2, α3, α4, and α5 are set as the area division. The area α1 is the highest quality, the area α2 is the second highest quality, and the area α3 is the middle. This indicates that the region α4 is not fine and the region α5 is least fine.

図6中、白丸印と黒丸印とは、実際の車両におけるインストルメントパネルについての質感評価の結果を示す。白丸印の車両は、質感レベルが所定レベル以上の合格レベルと評価される。この一方、黒丸印の車両は、質感が低いと評価される。評価された種々の車両におけるインストルメントパネルのオリジナル画像(図2における画像○1に相当)は、例えば図7に示すようなものである。なお、図7では、輝度が高い加飾部分についてハッチングを付してある。種々の車両についての図7に示すようなオリジナル画像から、第3特徴データの自己相関と第2階層での特徴データの相互相関とを取得して、図6に照合したものが白丸印と黒丸印である。   In FIG. 6, white circles and black circles indicate the results of the texture evaluation for the instrument panel in an actual vehicle. A vehicle with a white circle is evaluated as a passing level having a texture level of a predetermined level or higher. On the other hand, a vehicle with a black circle is evaluated as having a low texture. The original image (corresponding to the image 1 in FIG. 2) of the instrument panel in various evaluated vehicles is, for example, as shown in FIG. In addition, in FIG. 7, the decoration part with high brightness | luminance is attached | subjected. The auto-correlation of the third feature data and the cross-correlation of the feature data in the second layer are obtained from the original images as shown in FIG. 7 for various vehicles, and the white circles and black circles are collated in FIG. It is a mark.

図6に示すようなマップを用いて質感評価することにより、他車両との関係での質感の相違を一目で知ることができる。また、図6を利用して、どのようにすれば質感を高める(あるいは低下させる)ことができるかが、一目瞭然となる。すなわち、2つの黒丸印のうち、下方側の丸印で示す車両においては、構造輝度の一様性はほぼそのままで、輝度のグラデーションを高めることにより、質感を高めることができる、ということが理解される。また、上側の黒丸印の車両においては、輝度のグラデーションはほぼそのままで、構造・輝度の一様性を高めることにより、質感を高めることができる、ということが理解される。特に、図6のマップを利用して質感評価することは、質感を高める(あるいは低下させる)ために、構造・輝度の一様性と輝度のグラデーションとのいずれか一方を変更すればよいのか、あるいは両方を変更する必要があるのかの判断を行うことが可能となる。   By performing a texture evaluation using a map as shown in FIG. 6, it is possible to know at a glance the difference in texture in relation to other vehicles. In addition, using FIG. 6, it is obvious how the texture can be increased (or decreased). That is, it is understood that in the vehicle indicated by the lower circle of the two black circles, the uniformity of the structural luminance is almost the same, and the texture can be enhanced by increasing the luminance gradation. Is done. Further, it is understood that in the vehicle with the black circle on the upper side, the gradation of luminance is almost the same, and the texture can be enhanced by improving the uniformity of the structure and luminance. In particular, the texture evaluation using the map of FIG. 6 may be performed by changing either the structure / luminance uniformity or the luminance gradation in order to increase (or decrease) the texture. Or it becomes possible to judge whether it is necessary to change both.

以上実施形態について説明したが、本発明は、実施形態に限定されるものではなく、特許請求の範囲の記載された範囲において適宜の変更が可能である。例えば質感を評価する場合に、評価モデルを、評価対象の物体の種類毎に個々に設定することもできる。例えば、車両においては、インストルメントパネル部分の評価用とシートの評価用とドア内装の評価用とを互いに別の評価モデルとして設定することもできる。また、同一種類の物体の例えば質感評価するモデルについて、年齢、性別等で分けた複数の評価モデルを設定することもできる(例えば若年女性層、男性高齢者層等に応じた評価モデルを個々に設定する)車両に限らず、家具類を含むインテリアの評価等、種々の分野における評価を行うことができる。図2に示した各種モーメント(モーメントの2乗等、モーメントに基づく値を含む)を加味して評価モデルを設定することもできる。勿論、本発明の目的は、明記されたものに限らず、実質的に好ましいあるいは利点として表現されたものを提供することをも暗黙的に含むものである。   Although the embodiments have been described above, the present invention is not limited to the embodiments, and appropriate modifications can be made within the scope of the claims. For example, when evaluating a texture, an evaluation model can be set for each type of object to be evaluated. For example, in a vehicle, the evaluation for the instrument panel portion, the evaluation for the seat, and the evaluation for the door interior can be set as separate evaluation models. It is also possible to set a plurality of evaluation models divided by age, gender, etc. for models that evaluate the texture of the same type of object (for example, evaluation models corresponding to young females, male seniors, etc. individually). It is possible to perform evaluations in various fields such as evaluation of interiors including furniture as well as vehicles. The evaluation model can be set in consideration of various moments shown in FIG. 2 (including values based on the moment, such as the square of the moment). Of course, the object of the present invention is not limited to what is explicitly stated, but also implicitly includes providing what is substantially preferred or expressed as an advantage.

本発明は、視覚上の感性を定量化して評価することができる。   In the present invention, visual sensitivity can be quantified and evaluated.

11:評価対象画像取得部
12:画像特徴算出部
13:視覚統計量計算部
25:主観評価入力部
28:シーン情報入力部(評価対象画像の入力部)
41:評価モデル設定部
42:感性評価部
11: Evaluation target image acquisition unit 12: Image feature calculation unit 13: Visual statistics calculation unit 25: Subjective evaluation input unit 28: Scene information input unit (input unit of evaluation target image)
41: Evaluation model setting unit 42: Kansei evaluation unit

Claims (8)

所定の感性について評価の対象となる画像を取得する画像取得手段と、
人間脳内の階層的な視覚情報処理を模擬して構成され、前記画像取得手段で取得された画像について該階層毎に特徴データを算出する画像特徴算出手段と、
前記画像特徴算出手段で算出された特徴データについて、自己相関および相互相関を算出する視覚統計量算出手段と、
前記各階層の特徴データの自己相関および相互相関をパラメータとしてあらかじめ設定され、前記所定の感性についての評価モデルを記憶した評価モデル記憶手段と、
前記視覚統計量算出手段で算出された自己相関と相互相関とを前記評価モデルに照合して、前記評価対象となる画像についての感性を評価する感性評価部と、
を備えていることを特徴とする感性評価システム。
Image acquisition means for acquiring an image to be evaluated for a predetermined sensitivity;
Image feature calculation means configured to simulate hierarchical visual information processing in the human brain, and to calculate feature data for each hierarchy of the image acquired by the image acquisition means;
A visual statistic calculating means for calculating auto-correlation and cross-correlation for the feature data calculated by the image feature calculating means;
An evaluation model storage means that stores preset evaluation models for the predetermined sensibilities, which are set in advance as parameters of autocorrelation and cross-correlation of the feature data of each of the layers,
A sensitivity evaluation unit that compares the autocorrelation and cross-correlation calculated by the visual statistic calculation means with the evaluation model, and evaluates the sensitivity of the image to be evaluated,
Kansei evaluation system characterized by having
請求項1において、
前記画像特徴算出手段は、第1階層での処理となる周波数処理による複数の第1特徴データと、第2階層での処理となる方位選択処理による複数の第2特徴データと、第3階層での処理となる方位信号強度処理による複数の第3特徴データとを算出する、ことを特徴とする感性評価システム。
In claim 1,
The image feature calculation means includes a plurality of first feature data by frequency processing that is processing in the first hierarchy, a plurality of second feature data by orientation selection processing that is processing in the second hierarchy, and a third hierarchy. A sensibility evaluation system characterized by calculating a plurality of third feature data by azimuth signal intensity processing which is the processing of.
請求項1または請求項2において、
前記視覚統計量算出手段で算出された自己相関、相互相関とに基づいて、前記評価モデルを学習補正する学習手段をさらに備えている、感性評価システム。
In claim 1 or claim 2,
A sensitivity evaluation system further comprising learning means for learning and correcting the evaluation model based on autocorrelation and cross-correlation calculated by the visual statistic calculation means.
請求項1ないし請求項請求項3のいずれか1項において、
評価される感性の種類が複数設定されて、該複数の感性に対応して前記評価モデルが複数設定され、
前記複数の評価モデルの中から、評価される前記所定の感性に応じて1つの評価モデルを選択するモデル選択手段をさらに有し、
前記感性評価手段は、前記視覚統計量算出手段で算出された自己相関と相互相関とを
前記モデル選択手段で選択された評価モデルに対して照合する、
ことを特徴とする感性評価システム。
In any one of Claim 1 thru | or Claim 3,
A plurality of types of sensibilities to be evaluated are set, and a plurality of the evaluation models are set corresponding to the plurality of sensibilities,
Model selection means for selecting one evaluation model from the plurality of evaluation models according to the predetermined sensitivity to be evaluated,
The Kansei evaluation means collates the autocorrelation and cross-correlation calculated by the visual statistic calculation means against the evaluation model selected by the model selection means,
Kansei evaluation system characterized by that.
請求項1ないし請求項4のいずれか1項において、
前記評価モデルが、多数の画像について取得された前記自己相関および前記相互相関について主成分分析を行った後、前記所定の感性の評価用のパラメータを選択することにより決定されている、ことを特徴とする感性評価システム。
In any one of Claims 1 thru | or 4,
The evaluation model is determined by performing a principal component analysis on the autocorrelation and the cross-correlation acquired for a large number of images, and then selecting a parameter for evaluating the predetermined sensitivity. Kansei evaluation system.
請求項5において、
前記評価モデルが、次式によって設定されている(ただし、Yは感性の主観評価値、a、b、cは係数、Xは前記自己相関または前記相互相関である)、ことを特徴とする感性評価システム。
Figure 2018088132
In claim 5,
The evaluation model is set by the following equation (where Y is a subjective evaluation value of sensitivity, a, b, and c are coefficients, and X is the autocorrelation or the cross-correlation). Evaluation system.
Figure 2018088132
請求項2において、
前記所定の感性についての評価が、質感の評価とされている、ことを特徴とする感性評価システム。
In claim 2,
A sensitivity evaluation system, wherein the evaluation of the predetermined sensitivity is a texture evaluation.
請求項7において、
前記評価モデルが、前記第3特徴データの自己相関と前記第2特徴データの相互相関とをパラメータとして設定されている、ことを特徴とする感性評価システム。
In claim 7,
The sensitivity evaluation system, wherein the evaluation model is set with parameters of autocorrelation of the third feature data and cross-correlation of the second feature data.
JP2016231119A 2016-11-29 2016-11-29 Sensitivity evaluation system Active JP6754282B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016231119A JP6754282B2 (en) 2016-11-29 2016-11-29 Sensitivity evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016231119A JP6754282B2 (en) 2016-11-29 2016-11-29 Sensitivity evaluation system

Publications (2)

Publication Number Publication Date
JP2018088132A true JP2018088132A (en) 2018-06-07
JP6754282B2 JP6754282B2 (en) 2020-09-09

Family

ID=62494542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016231119A Active JP6754282B2 (en) 2016-11-29 2016-11-29 Sensitivity evaluation system

Country Status (1)

Country Link
JP (1) JP6754282B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916797A (en) * 1995-06-30 1997-01-17 Fuji Xerox Co Ltd Image analyzing and expression adding device
JP2003157439A (en) * 2001-11-20 2003-05-30 National Institute Of Advanced Industrial & Technology Correlation extracting method of image feature amount by image categorization and correlation extracting device thereof
JP2005177129A (en) * 2003-12-19 2005-07-07 Nippon Telegr & Teleph Corp <Ntt> Pet communication apparatus
JP2011171807A (en) * 2010-02-16 2011-09-01 Canon Inc Image processing apparatus and program
JP2013030183A (en) * 2012-09-28 2013-02-07 Toyota Central R&D Labs Inc Environment recognition device, and program
JP2013047678A (en) * 2007-06-20 2013-03-07 Kansai Paint Co Ltd Method for creating paint color database, retrieval method using database, and system, program and recording medium therefor
JP2015022533A (en) * 2013-07-19 2015-02-02 東日本旅客鉄道株式会社 Tint design evaluation device, and tint design evaluation method
JP2015090678A (en) * 2013-11-07 2015-05-11 日本電気株式会社 Image processing method, image processor, and image processing program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916797A (en) * 1995-06-30 1997-01-17 Fuji Xerox Co Ltd Image analyzing and expression adding device
JP2003157439A (en) * 2001-11-20 2003-05-30 National Institute Of Advanced Industrial & Technology Correlation extracting method of image feature amount by image categorization and correlation extracting device thereof
JP2005177129A (en) * 2003-12-19 2005-07-07 Nippon Telegr & Teleph Corp <Ntt> Pet communication apparatus
JP2013047678A (en) * 2007-06-20 2013-03-07 Kansai Paint Co Ltd Method for creating paint color database, retrieval method using database, and system, program and recording medium therefor
JP2011171807A (en) * 2010-02-16 2011-09-01 Canon Inc Image processing apparatus and program
JP2013030183A (en) * 2012-09-28 2013-02-07 Toyota Central R&D Labs Inc Environment recognition device, and program
JP2015022533A (en) * 2013-07-19 2015-02-02 東日本旅客鉄道株式会社 Tint design evaluation device, and tint design evaluation method
JP2015090678A (en) * 2013-11-07 2015-05-11 日本電気株式会社 Image processing method, image processor, and image processing program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AIWEN JIANG ET AL.: ""A New Biologically Inspired Feature for Scene Image Classification"", 2010 20TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, JPN6020029505, 23 August 2010 (2010-08-23), US, pages 758 - 761, XP031771161, ISSN: 0004323682 *
鵜沼 秀行: ""人間の視覚における感性について"", 日本ロボット学会誌, vol. 17, no. 7, JPN6020029504, 15 October 1999 (1999-10-15), JP, pages 23 - 28, ISSN: 0004323681 *

Also Published As

Publication number Publication date
JP6754282B2 (en) 2020-09-09

Similar Documents

Publication Publication Date Title
Shams et al. Bayesian causal inference: A unifying neuroscience theory
Bruns The ventriloquist illusion as a tool to study multisensory processing: An update
Turner et al. The dynamics of multimodal integration: The averaging diffusion model
Gavazzi et al. Time perception of visual motion is tuned by the motor representation of human actions
Turner et al. Bayesian analysis of simulation-based models
CN108416805B (en) Intrinsic image decomposition method and device based on deep learning
Howe et al. Comparison of bayesian and empirical ranking approaches to visual perception
CN104038756B (en) Based on the stereo-picture comfort level detection method of stereo-picture feature
Ostrofsky et al. Objective versus subjective measures of face-drawing accuracy and their relations with perceptual constancies.
Schmack et al. Learning what to see in a changing world
Benalcazar et al. A 3D iris scanner from a single image using convolutional neural networks
Aguilar et al. Comparing sensitivity estimates from MLDS and forced-choice methods in a slant-from-texture experiment
Jiang et al. Quality assessment for virtual reality technology based on real scene
Orgs et al. Time perception during apparent biological motion reflects subjective speed of movement, not objective rate of visual stimulation
Qureshi et al. A comprehensive performance evaluation of objective quality metrics for contrast enhancement techniques
JP2008051558A (en) Visual inspection method and device
JP2018088132A (en) Sensitivity evaluation system
Wijayanto et al. Comparing the effects of visual realism on size perception in vr versus real world viewing through physical and verbal judgments
JP6428748B2 (en) Driving support system
JP6417232B2 (en) Image evaluation apparatus and program thereof
JP6983831B2 (en) Looseness evaluation method, slackness evaluation device, and slackness evaluation program
Pretto et al. Perception-based motion cueing: A cybernetics approach to motion simulation
Williams et al. The relationship between aesthetic and drawing preferences.
CN109697413B (en) Personality analysis method, system and storage medium based on head gesture
Vishwanath The epistemological status of vision and its implications for design

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200821

R150 Certificate of patent or registration of utility model

Ref document number: 6754282

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250