JP2018088132A - Sensitivity evaluation system - Google Patents
Sensitivity evaluation system Download PDFInfo
- Publication number
- JP2018088132A JP2018088132A JP2016231119A JP2016231119A JP2018088132A JP 2018088132 A JP2018088132 A JP 2018088132A JP 2016231119 A JP2016231119 A JP 2016231119A JP 2016231119 A JP2016231119 A JP 2016231119A JP 2018088132 A JP2018088132 A JP 2018088132A
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- correlation
- feature data
- cross
- autocorrelation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、感性評価システムに関するものである。 The present invention relates to a sensitivity evaluation system.
人間は、視覚について、例えば、質感、美観等に関する感性を有するものである。この視覚上の感性を評価するものとして、特許文献1、特許文献2がある。特許文献1は、感性を表す感性用語を用いて、画像印象の評価結果を表示するものとなっている。特許文献2は、露光度等の撮影者の好みを反映させた画像評価を行うものとなっている。
Human beings have sensibilities related to vision, for example, texture, aesthetics, and the like. There are
従来の視覚上の感性の評価は、感性用語を用いたり、画像撮影者の好みを反映したものとされていて、感性そのものを物理的に評価するものではなく、具体性に欠けるものとならざるを得ないものであった。 Conventional evaluation of visual sensibilities is based on the use of sensibility terms and reflects the preference of the photographer. It does not physically evaluate the sensibility itself, and it does not lack concreteness. It was something that I did not get.
本発明は以上のような事情を勘案してなされたもので、その目的は、人間の視覚上の感性を定量化して評価できるようにした感性評価システムを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a sensitivity evaluation system capable of quantifying and evaluating human visual sensitivity.
前記目的を達成するため、本発明にあっては次のような解決手法を採択してある。すなわち、請求項1に記載のように、
所定の感性について評価の対象となる画像を取得する画像取得手段と、
人間脳内の階層的な視覚情報処理を模擬して構成され、前記画像取得手段で取得された画像について該階層毎に特徴データを算出する画像特徴算出手段と、
前記画像特徴算出手段で算出された特徴データについて、自己相関および相互相関を算出する視覚統計量算出手段と、
前記各階層の特徴データの自己相関および相互相関をパラメータとしてあらかじめ設定され、前記所定の感性についての評価モデルを記憶した評価モデル記憶手段と、
前記視覚統計量算出手段で算出された自己相関と相互相関とを前記評価モデルに照合して、前記評価対象となる画像についての感性を評価する感性評価部と、
を備えているようにしてある。上記解決手法によれば、人間の視覚上の感性を定量化して評価することができる。特に、人間の視覚上の情報処理を模擬化したデータを用いた評価手法なので、実際に人間が感じる感性と適切に合致した評価を行うことができる。
In order to achieve the above object, the following solution is adopted in the present invention. That is, as described in
Image acquisition means for acquiring an image to be evaluated for a predetermined sensitivity;
Image feature calculation means configured to simulate hierarchical visual information processing in the human brain, and to calculate feature data for each hierarchy of the image acquired by the image acquisition means;
A visual statistic calculating means for calculating auto-correlation and cross-correlation for the feature data calculated by the image feature calculating means;
An evaluation model storage means that stores preset evaluation models for the predetermined sensibilities, which are set in advance as parameters of autocorrelation and cross-correlation of the feature data of each of the layers,
A sensitivity evaluation unit that compares the autocorrelation and cross-correlation calculated by the visual statistic calculation means with the evaluation model, and evaluates the sensitivity of the image to be evaluated,
It is supposed to be equipped with. According to the above solution method, human visual sensitivity can be quantified and evaluated. In particular, since the evaluation method uses data simulating human visual information processing, it is possible to perform an evaluation that appropriately matches the sensibility actually felt by humans.
上記解決手法を前提とした好ましい態様は、請求項2以下に記載のとおりである。すなわち、
前記画像特徴算出手段は、第1階層での処理となる周波数処理による複数の第1特徴データと、第2階層での処理となる方位選択処理による複数の第2特徴データと、第3階層での処理となる方位信号強度処理による複数の第3特徴データとを算出する、ようにしてある(請求項2対応)。この場合、人間の網膜から外側膝状体を経て大脳皮質で行われる視覚上の情報処理を適切に再現した評価を得ることができる。
A preferred mode based on the above solution is as described in claim 2 and the following. That is,
The image feature calculation means includes a plurality of first feature data by frequency processing that is processing in the first hierarchy, a plurality of second feature data by orientation selection processing that is processing in the second hierarchy, and a third hierarchy. A plurality of third feature data is calculated by the azimuth signal intensity process which is the process (corresponding to claim 2). In this case, it is possible to obtain an evaluation that appropriately reproduces the visual information processing performed in the cerebral cortex from the human retina through the outer knee.
前記視覚統計量算出手段で算出された自己相関、相互相関とに基づいて、前記評価モデルを学習補正する学習手段をさらに備えている、ようにしてある(請求項3対応)。この場合、評価モデルをより適切に設定する上で好ましいものとなる。 The apparatus further comprises learning means for learning and correcting the evaluation model based on autocorrelation and cross-correlation calculated by the visual statistic calculation means (corresponding to claim 3). In this case, it is preferable to set the evaluation model more appropriately.
評価される感性の種類が複数設定されて、該複数の感性に対応して前記評価モデルが複数設定され、
前記複数の評価モデルの中から、評価される前記所定の感性に応じて1つの評価モデルを選択するモデル選択手段をさらに有し、
前記感性評価手段は、前記視覚統計量算出手段で算出された自己相関と相互相関とを
前記モデル選択手段で選択された評価モデルに対して照合する、
ようにしてある(請求項4対応)。この場合、視覚上の種々の感性に対応した評価を行うことができる。
A plurality of types of sensibilities to be evaluated are set, and a plurality of the evaluation models are set corresponding to the plurality of sensibilities,
Model selection means for selecting one evaluation model from the plurality of evaluation models according to the predetermined sensitivity to be evaluated,
The Kansei evaluation means collates the autocorrelation and cross-correlation calculated by the visual statistic calculation means against the evaluation model selected by the model selection means,
(Corresponding to claim 4). In this case, evaluation corresponding to various visual sensibilities can be performed.
前記評価モデルが、多数の画像について取得された前記自己相関および前記相互相関について主成分分析を行った後、前記所定の感性の評価用のパラメータを選択することにより決定されている、ようにしてある(請求項5対応)。この場合、評価モデルを極力簡単かつ容易に設定する等の上で好ましいものとなる。 The evaluation model is determined by performing a principal component analysis on the autocorrelation and the cross-correlation acquired for a large number of images, and then selecting a parameter for evaluating the predetermined sensitivity. Yes (corresponding to claim 5). In this case, it is preferable for setting the evaluation model as easily and easily as possible.
前記評価モデルが、次式によって設定されている(ただし、Yは感性の主観評価値、a、b、cは係数、Xは前記自己相関または前記相互相関である)、ようにしてある(請求項6対応)。この場合、感性の評価値を数式でもって得ることができる。 The evaluation model is set by the following equation (where Y is a subjective evaluation value of sensitivity, a, b, and c are coefficients, and X is the autocorrelation or the cross-correlation): Item 6). In this case, the sensitivity evaluation value can be obtained by a mathematical expression.
前記所定の感性についての評価が、質感の評価とされている、ようにしてある(請求項7対応)。この場合、広く一般に行われることの多い質感についての評価を行うことができる。 The predetermined sensitivity is evaluated as a texture evaluation (corresponding to claim 7). In this case, it is possible to evaluate the texture that is often performed widely.
前記評価モデルが、前記第3特徴データの自己相関と前記第2特徴データの相互相関とをパラメータとして設定されている、ようにしてある(請求項8対応)。この場合、評価モデルが用いるパラメータを極力簡単化しつつ、2次元マップの形式でもって質感を評価することができる。また、2次元マップ上での位置づけを直感的に理解できることから、質感を高めるあるいは低下させるための方向付けを容易に知ることができる。 The evaluation model is configured to set autocorrelation of the third feature data and cross-correlation of the second feature data as parameters (corresponding to claim 8). In this case, the texture can be evaluated in the form of a two-dimensional map while simplifying the parameters used by the evaluation model as much as possible. In addition, since the position on the two-dimensional map can be intuitively understood, it is possible to easily know the orientation for increasing or decreasing the texture.
本発明によれば、視覚上の感性を定量化して評価することができる。 According to the present invention, visual sensitivity can be quantified and evaluated.
まず、図2を参照しつつ、人間脳内の視覚情報処理を模擬化した処理に基づく各階層での特徴データの算出と、各特徴データについての自己相関および相互相関について説明する。 First, with reference to FIG. 2, calculation of feature data in each layer based on processing simulating visual information processing in the human brain, and autocorrelation and cross-correlation for each feature data will be described.
人間の脳内の視覚情報処理は、網膜から外側膝状体を経て大脳皮質での処理となり、第1階層での処理、第2階層での処理、第3階層での処理というように、3段階で行われる。網膜に入力される視覚情報の入力が図中○1で示される。なお、以下の説明で、図2中の数字を○印で囲ったものを、○1、○2等でもって表示することとする(例えば○1は、数字の1を○印で囲ったもの)。
The visual information processing in the human brain is a process in the cerebral cortex from the retina through the outer knee-like body, such as a process in the first layer, a process in the second layer, and a process in the third layer. Done in stages. The input of visual information input to the retina is indicated by ○ 1 in the figure. In the following explanation, the numbers in FIG. 2 surrounded by circles are displayed with
第1階層での処理は、網膜入力後の外側膝状体の処理を模擬したもので、周波数処理つまり解像度処理とされて、例えば高周波(高解像度)と低周波(低解像度)とに分解される。実施形態では、2段階で周波数が分解される処理を行うものとなっており、この第1階層での処理によって、図2中○2、○3として示される2種類の特徴データが算出される。なお、第1階層での処理を、外側膝状体(LGN)の表示を取って「LGN」として表示してある。 The processing in the first layer is a simulation of the outer knee-like body processing after retinal input, and is frequency processing, that is, resolution processing, for example, decomposed into high frequency (high resolution) and low frequency (low resolution). The In the embodiment, the frequency is decomposed in two stages, and the two types of feature data shown as ○ 2 and ○ 3 in FIG. 2 are calculated by the processing in the first layer. . In addition, the process in the first hierarchy is displayed as “LGN” by taking the display of the outer knee (LGN).
第2階層での処理は、第1次視覚野の単純型細胞の処理を模擬したもので、第1階層で処理された各周波数について、方位と位相との分解処理が行われる。この第2階層の処理によって、○4〜○11の合計8種類の特徴データが算出される。なお、第2階層での処理を、第1次視覚野の単純型細胞の表示を取って「V1 Simple」として表示してある。 The processing in the second layer simulates the processing of simple cells in the primary visual cortex, and the direction and phase decomposition processing is performed for each frequency processed in the first layer. A total of eight types of feature data of ○ 4 to ○ 11 are calculated by the processing of the second hierarchy. Note that the processing in the second hierarchy is displayed as “V1 Simple” by taking the display of simple cells in the primary visual cortex.
第3階層での処理は、第1次視覚野の複雑型細胞の処理を模擬したもので、周波数別に位相差を統一させて、方位強度を示す処理となり、○12〜○15の4種類の特徴データが算出される。なお、第3階層での処理を、第1次視覚野の複雑型細胞の表示を取って「V1 Complex」として表示してある。 The processing in the third layer simulates the processing of complex cells in the primary visual cortex, and is a processing that shows the azimuth strength by unifying the phase difference for each frequency. Four types of ○ 12 to ○ 15 Feature data is calculated. The process in the third hierarchy is displayed as “V1 Complex” by taking a display of complex cells in the primary visual cortex.
各階層での特徴データについて、自己相関、相互相関が算出される。図2中、「Auto」として示すのが自己相関を示し、「Within」として示すのが同一周波数間での相互相関を示し、「Across」として示すのが異なる周波数間での相互相関を示す。 Auto-correlation and cross-correlation are calculated for feature data in each layer. In FIG. 2, “Auto” indicates autocorrelation, “Within” indicates cross-correlation between the same frequencies, and “Across” indicates cross-correlation between different frequencies.
算出される自己相関の種類は次のようになる。まず、第1階層の特徴データ○2、○3についての自己相関が、「LGN Auto」として算出される。 The types of autocorrelation calculated are as follows. First, the autocorrelation for the feature data ○ 2 and ○ 3 of the first layer is calculated as “LGN Auto”.
第2階層での8つの特徴データについて、同一周波数内で同一位相内での相互相関が、「Simple Within」として算出される。また、上記8つの特徴データのうち異なる周波数間での相互相関が「Simple Across」として算出される。なお、実施形態では、「Simple Across」は、フーリエ変換によって、実部と虚部との2種類を算出するようにしてある。 For the eight feature data in the second layer, the cross-correlation within the same frequency and the same phase is calculated as “Simple Within”. Further, the cross-correlation between different frequencies among the eight feature data is calculated as “Simple Across”. In the embodiment, “Simple Access” calculates two types of real part and imaginary part by Fourier transform.
第3階層での4つの特徴データの自己相関が、「Complex Auto」として算出される。また、この4つの特徴データの同一周波数内での相互相関が「Complex Within」として算出される。さらに、この4つの特徴データの異なる周波数間ので相互相関が、「Complex Across」として算出される。 The autocorrelation of the four feature data in the third hierarchy is calculated as “Complex Auto”. Further, the cross-correlation within the same frequency of the four feature data is calculated as “Complex Within”. Further, a cross-correlation between different frequencies of the four feature data is calculated as “Complex Across”.
上記のように算出された自己相関および相互相関の算出に加えて、視覚入力についてのモーメント、第1階層での特徴データについてのモーメント(LGNモーメント)、第3階層での特徴データについてのモーメント(V1 Complexモーメント)が算出される(モーメントは、画像の基本的な統計量であって、平均、分散、歪度、尖度のいずれかで定義される)。 In addition to the calculation of autocorrelation and cross-correlation calculated as described above, moment for visual input, moment for feature data in the first layer (LGN moment), moment for feature data in the third layer ( (V1 Complex moment) is calculated (moment is a basic statistic of an image and is defined by one of average, variance, skewness, and kurtosis).
次に、図3を参照しつつ、評価モデルを設定する例について説明する。なお、以下の説明では、評価する感性が物体(物品)の「質感」とした場合を例にして行うこととする。まず、図3中、G1、G2・・・Gnとして示すのは、質感評価の対象となる異なる多数(例えば500〜1000)の画像を示す。この多数の画像についての視覚上の感性評価値(例えば質感の良否について複数段階での評価値)が紐付けられている。なお、質感評価値は、質感評価を行う複数人の専門家による評価値の生データあるいは平均した値としてある。 Next, an example of setting an evaluation model will be described with reference to FIG. In the following description, it is assumed that the sensitivity to be evaluated is the “texture” of an object (article). First, in FIG. 3, G1, G2,... Gn indicate a large number of different images (for example, 500 to 1000) to be subjected to texture evaluation. The visual sensibility evaluation values (for example, the evaluation values in multiple stages regarding the quality of the texture) are associated with the large number of images. The texture evaluation value is raw data or an average value of evaluation values by a plurality of experts who perform texture evaluation.
各画像について、図2について説明したように、自己相関、相互相関が算出される。1つの画像について、自己相関および相互相関について、数多くの相関レベル(数値としての相関係数)を有するものである。各自己相関および各相互相関について、主成分分析(例えば5次元)が行われて、図3中A列で示すような抽出が行われる。また、図3中B列で示すように、A列の中から、質感評価に大きな影響を及ぼすパラメータが選択される。 For each image, autocorrelation and cross-correlation are calculated as described with reference to FIG. One image has many correlation levels (correlation coefficients as numerical values) for autocorrelation and cross-correlation. For each autocorrelation and each cross-correlation, principal component analysis (for example, five dimensions) is performed, and extraction as shown by the column A in FIG. 3 is performed. Also, as shown by the B column in FIG. 3, parameters that greatly affect the texture evaluation are selected from the A column.
主成分分析によって取得された上記A列に示すパラメータに基づいて、評価モデルを示す(1)式が、数1のように決定される。
Based on the parameters shown in the column A acquired by the principal component analysis, the expression (1) indicating the evaluation model is determined as shown in
(1)式中、Yは、各画像についての質感評価値であり、a0〜am、b1〜bm、c(cについてのサフィックスはここでは省略)は係数(定数)であり、X1〜Xmは、図3で示すA列での相関レベルである。当初は、各係数は不知である。(1)式に対して、各画像G1〜Gnについての主観的な質感評価値Yと相関レベルX1〜Xmをあてはめて、回帰手法によって各係数が決定される。回帰モデルとなる(1)式において、個々の係数は、多数の自己相関および多数の相互相関のうち特定の1つが対応づけられている。 In the formula (1), Y is a texture evaluation value for each image, a0 to am, b1 to bm, c (suffix is omitted here) is a coefficient (constant), and X1 to Xm are , The correlation level in the column A shown in FIG. Initially, each coefficient is unknown. By applying the subjective texture evaluation value Y and the correlation levels X1 to Xm for the images G1 to Gn to the equation (1), each coefficient is determined by a regression method. In equation (1), which is a regression model, each coefficient is associated with a specific one of a number of autocorrelations and a number of cross-correlations.
(1)式は、抽出されたA列で示す自己相関および全ての相互相関を含むように決定されたものとなる。この(1)式から、図3のB列で示すような質感評価に大きな影響を与えるパラメータのみを残して、質感評価に影響がないパラメータを削除して、質感評価用の評価モデル式が下記の(2)式として決定される。したがって、(2)式でのサフィックスnは、(1)式でのサフィックスmよりも小となる。なお、(2)式は、(1)式から不要なパラメータについての係数分を削除した後に、係数のサフィックスが連続するように書き直したものとなっている((1)式と(2)式とでは、同じサフィックスの係数が同じ内容を示すものとは限らない)。 The expression (1) is determined so as to include the autocorrelation and all cross-correlations indicated by the extracted column A. From this equation (1), only parameters that have a large effect on the texture evaluation as shown in column B in FIG. 3 are left, parameters that do not affect the texture evaluation are deleted, and the evaluation model formula for the texture evaluation is as follows: (2). Therefore, the suffix n in the equation (2) is smaller than the suffix m in the equation (1). The expression (2) is rewritten so that the coefficient suffixes are continued after deleting the coefficients for the unnecessary parameters from the expression (1) (expressions (1) and (2)). And the same suffix coefficient does not necessarily indicate the same content).
ここで、上記(1)式では、全ての1次項に対して、2次の項および交互作用の項(初期値a0を除く右辺第3項)を含んでいる。実際には、評価モデルを極力シンプルにするという観点から、主観評価に所定以上の影響を有するある特定の1次の項に対してのみ、2次の項および交互作用の項を有するものとするのが好ましく、このような処理が行われた後の状態が、(2)式である。 Here, the above equation (1) includes a second-order term and an interaction term (the third term on the right side excluding the initial value a0) for all the first-order terms. Actually, from the viewpoint of simplifying the evaluation model as much as possible, only a specific first-order term that has a predetermined influence or more on the subjective evaluation has a second-order term and an interaction term. It is preferable that the state after such processing is performed is Equation (2).
ある物体の質感評価を行う場合、当該ある物体についての画像を取得して、図2に示すように自己相関、相互相関を算出し、この算出結果を上記(2)式に当てはめる(自己相関、相互相関の各相関レベルをX1〜Xnに当てはめる)ことにより、上記ある物体についての質感の評価値が数値でもって算出されることになる(定量化で可視化ともなる)。なお、(2)式での評価モデルの妥当性を、図3で示す画像G1〜Gn以外の複数の画像(から算出される自己相関、相互相関)とそれに対する主観的な質感評価値とを利用して、検証することもできる。 When evaluating the texture of a certain object, an image of the certain object is acquired, autocorrelation and cross-correlation are calculated as shown in FIG. 2, and this calculation result is applied to the above equation (2) (autocorrelation, By applying each correlation level of the cross-correlation to X1 to Xn), the texture evaluation value for the certain object is calculated with a numerical value (it is also visualized by quantification). It should be noted that the validity of the evaluation model in the expression (2) is expressed by a plurality of images (autocorrelation and cross-correlation calculated from) other than the images G1 to Gn shown in FIG. It can also be used and verified.
次に、図1を参照しつつ、感性評価を行うための全体的な制御系統例について説明する。図1において、11は、視覚上の感性の評価対象となるカラーの画像であり、この画像11はカメラによって取得される。この画像11について、前述したように、第1階層から第3階層での特徴データが画像特徴算出部12によって算出されて、この特徴データに基づいて、視覚統計量計算部13によって自己相関および相互相関が算出される。
Next, an example of an overall control system for performing sensitivity evaluation will be described with reference to FIG. In FIG. 1,
一方、視覚上の感性についての評価モデルが、複数設定されている。図1では、評価モデルAは質感評価用であり、評価モデルBは美観評価用であり、このように、評価する感性の相違に応じて、複数の評価モデルが設定されている。評価モデルとしては、顔表情(が示す感性)等の他の評価対象を適宜設定できる。 On the other hand, a plurality of evaluation models for visual sensitivity are set. In FIG. 1, the evaluation model A is for texture evaluation, and the evaluation model B is for aesthetic evaluation. Thus, a plurality of evaluation models are set according to the difference in sensitivity to be evaluated. As the evaluation model, other evaluation objects such as facial expression (sensitivity shown) can be set as appropriate.
各評価モデルは、評価パラメータ選択部Pでの選択によって、評価すべき感性の種類に応じたパラメータが設定されている。例えば、質感評価においては、構造・輝度の一様性と輝度のグラデーションとがパラメータとされる(自己相関、相互相関が、構造・輝度の一様性と輝度のグラデーションを検出するように行われる)。また、美観評価においては、例えば輝度分布の対称性がパラメータとして設定される(自己相関、相互相関が、輝度分布の対称性を検出するように行われる)。このように、感性の評価対象に応じてパラメータの選択が行われて、これに応じて自己相関および相互相関が選択されたパラメータに応じて算出される。 In each evaluation model, parameters according to the type of sensitivity to be evaluated are set by selection by the evaluation parameter selection unit P. For example, in texture evaluation, structure / luminance uniformity and luminance gradation are parameters (autocorrelation and cross-correlation are performed to detect structure / luminance uniformity and luminance gradation. ). In the aesthetic evaluation, for example, the symmetry of the luminance distribution is set as a parameter (autocorrelation and cross-correlation are performed so as to detect the symmetry of the luminance distribution). In this way, parameters are selected according to the sensitivity evaluation target, and autocorrelation and cross-correlation are calculated according to the selected parameters.
図1において、個人情報入力部21において個人情報(例えば性別、年齢、職業等)が入力され、入力された個人情報が、個人情報前処理部22で前処理(例えば年齢を複数段階に分類等)された後、個人情報記録部23に記録(記憶)される。
In FIG. 1, personal information (for example, gender, age, occupation, etc.) is input in the personal
生体センサ入力部24で入力された生体情報と主観評価部25で入力された主観的な感性評価値とが、感性実測値推定部26に入力されて感性実測値が推定され、この推定された感性実測値が感性実測値記録部27に記録(記憶)される。
The biological information input by the biological
シーン情報入力部28で入力されたシーンのうち、評価対象特定部29でもって評価対象が特定される。そして、この評価対象特定部で特定された評価対象(の画像)が、評価対象記録部30に記録(記憶)される。前述した視覚統計量計算部13での計算結果が、視覚統計量記録部31に記録(記憶)される。
Among the scenes input by the scene
上述した各記録部23、27、30、31が、データベース部Dを構成する。このデータベース部Dでのデータに基づいて、評価モデルが設定される。具体的には、データベース部でのデータが、評価パラメータ選択部Pに入力されて、評価すべき感性の種類に応じて、適切なパラメータ(評価軸)が選択されて(図3のB列のパラメータ選択が対応)、選択されたパラメータに応じて評価モデルが設定される((2)式に示す評価モデルが設定される)。
Each of the
前記記録部30での記録内容が、図3に示す多数の画像G1〜Gnとして利用され、記録部27での記録内容が、各画像G1〜Gnに対する主観的な評価値として利用される。
なお、個人情報入力部21は、個人情報(例えば性別や年齢層)に応じて評価値を補正するためであり、無くてもよいものである。また、記録部31は、新たに感性評価したときにこれを評価モデルを学習補正するためであり、学習補正を行わない場合は無くてもよいものである。
The recorded contents in the
The personal
評価パラメータ選択部は、評価する感性の内容(種類)に応じて評価パラメータ(評価軸)を選択する。評価パラメータは、前述したように、評価される感性が例えば質感の場合は、特に構造・輝度の一様性と輝度のグラデーション(の一様性)とされる。また、評価される感性が例えば美観の場合は、輝度分布の対称性等とされる。このように、評価される感性の内容に応じた適切なパラメータが選択されて、前述したように評価モデルが設定され、この他人間の顔表情が示す感性等、視覚上の適宜の感性について評価モデルを設定することができる。 The evaluation parameter selection unit selects an evaluation parameter (evaluation axis) according to the content (kind) of the sensitivity to be evaluated. As described above, when the sensitivity to be evaluated is, for example, a texture, the evaluation parameters are, in particular, the structure / luminance uniformity and the luminance gradation (uniformity). In addition, when the sensibility to be evaluated is, for example, aesthetics, the luminance distribution is symmetric. In this way, appropriate parameters are selected according to the content of the sensibility to be evaluated, the evaluation model is set as described above, and evaluation of appropriate sensibilities on the sight such as sensibilities exhibited by other human facial expressions. A model can be set.
図1の制御系において、評価モデル設定部41によって、いずれか1つの評価モデルが設定(選択)される。例えば質感評価を行う場合は、評価モデル設定部41によって、質感評価用のとなる評価モデルAが設定される。そして、感性評価部42によって、視覚統計量計算部13で計算された自己相関および相互相関の相関レベル(相関係数)を評価モデルAに当てはめて、質感が算出(評価値として出力)される。
In the control system of FIG. 1, any one evaluation model is set (selected) by the evaluation
評価モデルAをより適切化するため、評価対象画像取得部11で取得された画像について、質感評価の専門家による質感評価値と感性評価部42による質感評価値とが相違する場合は、上記取得された画像を図3の画像に含めると共に質感評価の専門家による質感評価値を含めるようにして、評価モデルA(これに対応した(2)式)を学習補正することができる。
In order to make the evaluation model A more appropriate, for the image acquired by the evaluation target
次に、質感評価の場合を例にして、自己相関および相互相関についてさらに詳細に説明する。まず、質感評価の場合に用いる第3階層での自己相関について説明する。この場合、第3階層の特徴データ(例えば図2の○12)についての自己相関は、第3階層での特徴データとなる元画像とそのコピー画像との相関性が取得される。具体的には、元画像に対してコピー画像を横方向に所定分ずらした状態で両画像同士を比較してその相関性が取得される(相関係の取得)。コピー画像を順次横方向にずらして同様のことが繰り返される。 Next, autocorrelation and cross-correlation will be described in more detail with reference to the case of texture evaluation. First, the autocorrelation in the third hierarchy used in the texture evaluation will be described. In this case, as the autocorrelation for the feature data of the third hierarchy (for example, ◯ 12 in FIG. 2), the correlation between the original image serving as the feature data of the third hierarchy and the copy image is acquired. Specifically, both images are compared with each other in a state where the copy image is shifted by a predetermined amount in the horizontal direction with respect to the original image, and the correlation is acquired (acquisition of correlation). The same process is repeated by sequentially shifting the copy images in the horizontal direction.
次いで、元画像に対してコピー画像を縦向に所定分ずらした状態で両画像同士を比較してその相関性が取得される(相関係の取得)。コピー画像を順次縦方向にずらして同様のことが繰り返される。 Next, the two images are compared with each other in a state where the copy image is shifted vertically by a predetermined amount with respect to the original image (acquisition of correlation). The same is repeated by sequentially shifting the copy images in the vertical direction.
以上のようにして得られた相関性を示す相関係数は、例えば図4に示すような自己相関マップとなる。図4に示すマップのうち、相関係数が最大となる部分(図4において○1で示す部分)を含むその周辺領域での相関係数の平均値が、元画像についての相関係数とされる。 The correlation coefficient indicating the correlation obtained as described above is, for example, an autocorrelation map as shown in FIG. In the map shown in FIG. 4, the average value of the correlation coefficients in the peripheral area including the portion where the correlation coefficient is maximum (the portion indicated by ○ 1 in FIG. 4) is the correlation coefficient for the original image. The
同様のことが、図2に示す第3階層での画像○13〜○15について行われて、第3階層での特徴データ全てについて自己相関の相関係数が取得される。各画像○12〜○15について算出された複数の相関係数の平均値を算出して、この平均値が第3階層での特徴データについての自己相関を示す相関係数とされる。 The same is performed for the images ○ 13 to ○ 15 in the third hierarchy shown in FIG. 2, and autocorrelation correlation coefficients are obtained for all feature data in the third hierarchy. An average value of a plurality of correlation coefficients calculated for each of the images ◯ 12 to ◯ 15 is calculated, and this average value is used as a correlation coefficient indicating autocorrelation for feature data in the third hierarchy.
次に、第2階層での相互相関を取得する場合の詳細について説明する。なお、以下の説明では、図2における第2階層での○4の画像と、○4の画像に対して周波数の異なる○8の画像との相互相関を得る場合を例として説明する。この場合、図5に示すように、周波数の異なる2つの画像同士を重畳して、輝度についてのグラデーションを表現する相関画像が取得される(輝度変化の一様性が高いほど相関性が高いとされる)。90度、45度、0度、−45度という方位の異なる画像同士の間においても同様に輝度についてのグラデーションを表現する相関画像が取得される(図5では、第2階層での特徴データについての方位が4種類とした場合を示してある)。この後、全ての方位についての相関画像を総和した画像から、輝度変化の一様性についての相相関係数のもっとも大きい部分を含むその周辺部分での相関係数の平均値が算出される。同様のことが、第2階層の他の特徴データ(画像)についても行われて、取得された全ての相互相関の平均値を算出して、この平均値が第2階層での特徴データについての相互相関を示す相関係数とされる。 Next, details of obtaining the cross-correlation in the second hierarchy will be described. In the following description, an example is described in which cross-correlation between an image of ○ 4 in the second hierarchy in FIG. 2 and an image of ○ 8 having a different frequency with respect to the image of ○ 4 is obtained. In this case, as shown in FIG. 5, two images having different frequencies are overlapped to obtain a correlation image that represents a gradation regarding luminance (the higher the uniformity of luminance change, the higher the correlation is. ) Correlation images that represent gradations of luminance are similarly acquired between images having different orientations of 90 degrees, 45 degrees, 0 degrees, and -45 degrees (in FIG. 5, feature data in the second hierarchy is shown). Is shown in the case of four types). Thereafter, an average value of the correlation coefficients in the peripheral portion including the portion having the largest phase correlation coefficient regarding the uniformity of the luminance change is calculated from the sum of the correlation images for all the directions. The same is performed for other feature data (images) in the second layer, and the average value of all the acquired cross-correlations is calculated, and this average value is calculated for the feature data in the second layer. The correlation coefficient indicates a cross correlation.
前述のようにして得られた第3階層での特徴データについての自己相関(についての相関係数)と第2階層での特徴データについての相互相関(についての相関係数)とをパラメータとして、質感のレベルを示すマップが例えば図6のように設定される(可視化された評価形態)。図6は、マップ式の評価モデルとなるものである。この図6に示すマップにおいて、領域分けとして例えばα1、α2、α3、α4、α5の5つが設定されているが、領域α1がもっとも上質で、領域α2が2番目に上質で、領域α3が中程度であり、領域α4が上質でなく、領域α5がもっとも上質でないことを示す。 Using the autocorrelation (correlation coefficient) for the feature data in the third hierarchy and the cross-correlation (correlation coefficient) for the feature data in the second hierarchy obtained as described above as parameters, A map showing the level of texture is set, for example, as shown in FIG. 6 (visualized evaluation form). FIG. 6 is a map type evaluation model. In the map shown in FIG. 6, for example, five areas α1, α2, α3, α4, and α5 are set as the area division. The area α1 is the highest quality, the area α2 is the second highest quality, and the area α3 is the middle. This indicates that the region α4 is not fine and the region α5 is least fine.
図6中、白丸印と黒丸印とは、実際の車両におけるインストルメントパネルについての質感評価の結果を示す。白丸印の車両は、質感レベルが所定レベル以上の合格レベルと評価される。この一方、黒丸印の車両は、質感が低いと評価される。評価された種々の車両におけるインストルメントパネルのオリジナル画像(図2における画像○1に相当)は、例えば図7に示すようなものである。なお、図7では、輝度が高い加飾部分についてハッチングを付してある。種々の車両についての図7に示すようなオリジナル画像から、第3特徴データの自己相関と第2階層での特徴データの相互相関とを取得して、図6に照合したものが白丸印と黒丸印である。
In FIG. 6, white circles and black circles indicate the results of the texture evaluation for the instrument panel in an actual vehicle. A vehicle with a white circle is evaluated as a passing level having a texture level of a predetermined level or higher. On the other hand, a vehicle with a black circle is evaluated as having a low texture. The original image (corresponding to the
図6に示すようなマップを用いて質感評価することにより、他車両との関係での質感の相違を一目で知ることができる。また、図6を利用して、どのようにすれば質感を高める(あるいは低下させる)ことができるかが、一目瞭然となる。すなわち、2つの黒丸印のうち、下方側の丸印で示す車両においては、構造輝度の一様性はほぼそのままで、輝度のグラデーションを高めることにより、質感を高めることができる、ということが理解される。また、上側の黒丸印の車両においては、輝度のグラデーションはほぼそのままで、構造・輝度の一様性を高めることにより、質感を高めることができる、ということが理解される。特に、図6のマップを利用して質感評価することは、質感を高める(あるいは低下させる)ために、構造・輝度の一様性と輝度のグラデーションとのいずれか一方を変更すればよいのか、あるいは両方を変更する必要があるのかの判断を行うことが可能となる。 By performing a texture evaluation using a map as shown in FIG. 6, it is possible to know at a glance the difference in texture in relation to other vehicles. In addition, using FIG. 6, it is obvious how the texture can be increased (or decreased). That is, it is understood that in the vehicle indicated by the lower circle of the two black circles, the uniformity of the structural luminance is almost the same, and the texture can be enhanced by increasing the luminance gradation. Is done. Further, it is understood that in the vehicle with the black circle on the upper side, the gradation of luminance is almost the same, and the texture can be enhanced by improving the uniformity of the structure and luminance. In particular, the texture evaluation using the map of FIG. 6 may be performed by changing either the structure / luminance uniformity or the luminance gradation in order to increase (or decrease) the texture. Or it becomes possible to judge whether it is necessary to change both.
以上実施形態について説明したが、本発明は、実施形態に限定されるものではなく、特許請求の範囲の記載された範囲において適宜の変更が可能である。例えば質感を評価する場合に、評価モデルを、評価対象の物体の種類毎に個々に設定することもできる。例えば、車両においては、インストルメントパネル部分の評価用とシートの評価用とドア内装の評価用とを互いに別の評価モデルとして設定することもできる。また、同一種類の物体の例えば質感評価するモデルについて、年齢、性別等で分けた複数の評価モデルを設定することもできる(例えば若年女性層、男性高齢者層等に応じた評価モデルを個々に設定する)車両に限らず、家具類を含むインテリアの評価等、種々の分野における評価を行うことができる。図2に示した各種モーメント(モーメントの2乗等、モーメントに基づく値を含む)を加味して評価モデルを設定することもできる。勿論、本発明の目的は、明記されたものに限らず、実質的に好ましいあるいは利点として表現されたものを提供することをも暗黙的に含むものである。 Although the embodiments have been described above, the present invention is not limited to the embodiments, and appropriate modifications can be made within the scope of the claims. For example, when evaluating a texture, an evaluation model can be set for each type of object to be evaluated. For example, in a vehicle, the evaluation for the instrument panel portion, the evaluation for the seat, and the evaluation for the door interior can be set as separate evaluation models. It is also possible to set a plurality of evaluation models divided by age, gender, etc. for models that evaluate the texture of the same type of object (for example, evaluation models corresponding to young females, male seniors, etc. individually). It is possible to perform evaluations in various fields such as evaluation of interiors including furniture as well as vehicles. The evaluation model can be set in consideration of various moments shown in FIG. 2 (including values based on the moment, such as the square of the moment). Of course, the object of the present invention is not limited to what is explicitly stated, but also implicitly includes providing what is substantially preferred or expressed as an advantage.
本発明は、視覚上の感性を定量化して評価することができる。 In the present invention, visual sensitivity can be quantified and evaluated.
11:評価対象画像取得部
12:画像特徴算出部
13:視覚統計量計算部
25:主観評価入力部
28:シーン情報入力部(評価対象画像の入力部)
41:評価モデル設定部
42:感性評価部
11: Evaluation target image acquisition unit 12: Image feature calculation unit 13: Visual statistics calculation unit 25: Subjective evaluation input unit 28: Scene information input unit (input unit of evaluation target image)
41: Evaluation model setting unit 42: Kansei evaluation unit
Claims (8)
人間脳内の階層的な視覚情報処理を模擬して構成され、前記画像取得手段で取得された画像について該階層毎に特徴データを算出する画像特徴算出手段と、
前記画像特徴算出手段で算出された特徴データについて、自己相関および相互相関を算出する視覚統計量算出手段と、
前記各階層の特徴データの自己相関および相互相関をパラメータとしてあらかじめ設定され、前記所定の感性についての評価モデルを記憶した評価モデル記憶手段と、
前記視覚統計量算出手段で算出された自己相関と相互相関とを前記評価モデルに照合して、前記評価対象となる画像についての感性を評価する感性評価部と、
を備えていることを特徴とする感性評価システム。 Image acquisition means for acquiring an image to be evaluated for a predetermined sensitivity;
Image feature calculation means configured to simulate hierarchical visual information processing in the human brain, and to calculate feature data for each hierarchy of the image acquired by the image acquisition means;
A visual statistic calculating means for calculating auto-correlation and cross-correlation for the feature data calculated by the image feature calculating means;
An evaluation model storage means that stores preset evaluation models for the predetermined sensibilities, which are set in advance as parameters of autocorrelation and cross-correlation of the feature data of each of the layers,
A sensitivity evaluation unit that compares the autocorrelation and cross-correlation calculated by the visual statistic calculation means with the evaluation model, and evaluates the sensitivity of the image to be evaluated,
Kansei evaluation system characterized by having
前記画像特徴算出手段は、第1階層での処理となる周波数処理による複数の第1特徴データと、第2階層での処理となる方位選択処理による複数の第2特徴データと、第3階層での処理となる方位信号強度処理による複数の第3特徴データとを算出する、ことを特徴とする感性評価システム。 In claim 1,
The image feature calculation means includes a plurality of first feature data by frequency processing that is processing in the first hierarchy, a plurality of second feature data by orientation selection processing that is processing in the second hierarchy, and a third hierarchy. A sensibility evaluation system characterized by calculating a plurality of third feature data by azimuth signal intensity processing which is the processing of.
前記視覚統計量算出手段で算出された自己相関、相互相関とに基づいて、前記評価モデルを学習補正する学習手段をさらに備えている、感性評価システム。 In claim 1 or claim 2,
A sensitivity evaluation system further comprising learning means for learning and correcting the evaluation model based on autocorrelation and cross-correlation calculated by the visual statistic calculation means.
評価される感性の種類が複数設定されて、該複数の感性に対応して前記評価モデルが複数設定され、
前記複数の評価モデルの中から、評価される前記所定の感性に応じて1つの評価モデルを選択するモデル選択手段をさらに有し、
前記感性評価手段は、前記視覚統計量算出手段で算出された自己相関と相互相関とを
前記モデル選択手段で選択された評価モデルに対して照合する、
ことを特徴とする感性評価システム。 In any one of Claim 1 thru | or Claim 3,
A plurality of types of sensibilities to be evaluated are set, and a plurality of the evaluation models are set corresponding to the plurality of sensibilities,
Model selection means for selecting one evaluation model from the plurality of evaluation models according to the predetermined sensitivity to be evaluated,
The Kansei evaluation means collates the autocorrelation and cross-correlation calculated by the visual statistic calculation means against the evaluation model selected by the model selection means,
Kansei evaluation system characterized by that.
前記評価モデルが、多数の画像について取得された前記自己相関および前記相互相関について主成分分析を行った後、前記所定の感性の評価用のパラメータを選択することにより決定されている、ことを特徴とする感性評価システム。 In any one of Claims 1 thru | or 4,
The evaluation model is determined by performing a principal component analysis on the autocorrelation and the cross-correlation acquired for a large number of images, and then selecting a parameter for evaluating the predetermined sensitivity. Kansei evaluation system.
前記評価モデルが、次式によって設定されている(ただし、Yは感性の主観評価値、a、b、cは係数、Xは前記自己相関または前記相互相関である)、ことを特徴とする感性評価システム。
The evaluation model is set by the following equation (where Y is a subjective evaluation value of sensitivity, a, b, and c are coefficients, and X is the autocorrelation or the cross-correlation). Evaluation system.
前記所定の感性についての評価が、質感の評価とされている、ことを特徴とする感性評価システム。 In claim 2,
A sensitivity evaluation system, wherein the evaluation of the predetermined sensitivity is a texture evaluation.
前記評価モデルが、前記第3特徴データの自己相関と前記第2特徴データの相互相関とをパラメータとして設定されている、ことを特徴とする感性評価システム。 In claim 7,
The sensitivity evaluation system, wherein the evaluation model is set with parameters of autocorrelation of the third feature data and cross-correlation of the second feature data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016231119A JP6754282B2 (en) | 2016-11-29 | 2016-11-29 | Sensitivity evaluation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016231119A JP6754282B2 (en) | 2016-11-29 | 2016-11-29 | Sensitivity evaluation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018088132A true JP2018088132A (en) | 2018-06-07 |
JP6754282B2 JP6754282B2 (en) | 2020-09-09 |
Family
ID=62494542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016231119A Active JP6754282B2 (en) | 2016-11-29 | 2016-11-29 | Sensitivity evaluation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6754282B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0916797A (en) * | 1995-06-30 | 1997-01-17 | Fuji Xerox Co Ltd | Image analyzing and expression adding device |
JP2003157439A (en) * | 2001-11-20 | 2003-05-30 | National Institute Of Advanced Industrial & Technology | Correlation extracting method of image feature amount by image categorization and correlation extracting device thereof |
JP2005177129A (en) * | 2003-12-19 | 2005-07-07 | Nippon Telegr & Teleph Corp <Ntt> | Pet communication apparatus |
JP2011171807A (en) * | 2010-02-16 | 2011-09-01 | Canon Inc | Image processing apparatus and program |
JP2013030183A (en) * | 2012-09-28 | 2013-02-07 | Toyota Central R&D Labs Inc | Environment recognition device, and program |
JP2013047678A (en) * | 2007-06-20 | 2013-03-07 | Kansai Paint Co Ltd | Method for creating paint color database, retrieval method using database, and system, program and recording medium therefor |
JP2015022533A (en) * | 2013-07-19 | 2015-02-02 | 東日本旅客鉄道株式会社 | Tint design evaluation device, and tint design evaluation method |
JP2015090678A (en) * | 2013-11-07 | 2015-05-11 | 日本電気株式会社 | Image processing method, image processor, and image processing program |
-
2016
- 2016-11-29 JP JP2016231119A patent/JP6754282B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0916797A (en) * | 1995-06-30 | 1997-01-17 | Fuji Xerox Co Ltd | Image analyzing and expression adding device |
JP2003157439A (en) * | 2001-11-20 | 2003-05-30 | National Institute Of Advanced Industrial & Technology | Correlation extracting method of image feature amount by image categorization and correlation extracting device thereof |
JP2005177129A (en) * | 2003-12-19 | 2005-07-07 | Nippon Telegr & Teleph Corp <Ntt> | Pet communication apparatus |
JP2013047678A (en) * | 2007-06-20 | 2013-03-07 | Kansai Paint Co Ltd | Method for creating paint color database, retrieval method using database, and system, program and recording medium therefor |
JP2011171807A (en) * | 2010-02-16 | 2011-09-01 | Canon Inc | Image processing apparatus and program |
JP2013030183A (en) * | 2012-09-28 | 2013-02-07 | Toyota Central R&D Labs Inc | Environment recognition device, and program |
JP2015022533A (en) * | 2013-07-19 | 2015-02-02 | 東日本旅客鉄道株式会社 | Tint design evaluation device, and tint design evaluation method |
JP2015090678A (en) * | 2013-11-07 | 2015-05-11 | 日本電気株式会社 | Image processing method, image processor, and image processing program |
Non-Patent Citations (2)
Title |
---|
AIWEN JIANG ET AL.: ""A New Biologically Inspired Feature for Scene Image Classification"", 2010 20TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, JPN6020029505, 23 August 2010 (2010-08-23), US, pages 758 - 761, XP031771161, ISSN: 0004323682 * |
鵜沼 秀行: ""人間の視覚における感性について"", 日本ロボット学会誌, vol. 17, no. 7, JPN6020029504, 15 October 1999 (1999-10-15), JP, pages 23 - 28, ISSN: 0004323681 * |
Also Published As
Publication number | Publication date |
---|---|
JP6754282B2 (en) | 2020-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shams et al. | Bayesian causal inference: A unifying neuroscience theory | |
Bruns | The ventriloquist illusion as a tool to study multisensory processing: An update | |
Turner et al. | The dynamics of multimodal integration: The averaging diffusion model | |
Gavazzi et al. | Time perception of visual motion is tuned by the motor representation of human actions | |
Turner et al. | Bayesian analysis of simulation-based models | |
CN108416805B (en) | Intrinsic image decomposition method and device based on deep learning | |
Howe et al. | Comparison of bayesian and empirical ranking approaches to visual perception | |
CN104038756B (en) | Based on the stereo-picture comfort level detection method of stereo-picture feature | |
Ostrofsky et al. | Objective versus subjective measures of face-drawing accuracy and their relations with perceptual constancies. | |
Schmack et al. | Learning what to see in a changing world | |
Benalcazar et al. | A 3D iris scanner from a single image using convolutional neural networks | |
Aguilar et al. | Comparing sensitivity estimates from MLDS and forced-choice methods in a slant-from-texture experiment | |
Jiang et al. | Quality assessment for virtual reality technology based on real scene | |
Orgs et al. | Time perception during apparent biological motion reflects subjective speed of movement, not objective rate of visual stimulation | |
Qureshi et al. | A comprehensive performance evaluation of objective quality metrics for contrast enhancement techniques | |
JP2008051558A (en) | Visual inspection method and device | |
JP2018088132A (en) | Sensitivity evaluation system | |
Wijayanto et al. | Comparing the effects of visual realism on size perception in vr versus real world viewing through physical and verbal judgments | |
JP6428748B2 (en) | Driving support system | |
JP6417232B2 (en) | Image evaluation apparatus and program thereof | |
JP6983831B2 (en) | Looseness evaluation method, slackness evaluation device, and slackness evaluation program | |
Pretto et al. | Perception-based motion cueing: A cybernetics approach to motion simulation | |
Williams et al. | The relationship between aesthetic and drawing preferences. | |
CN109697413B (en) | Personality analysis method, system and storage medium based on head gesture | |
Vishwanath | The epistemological status of vision and its implications for design |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170314 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190604 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200814 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200821 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6754282 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |