JP6964296B2 - 領域抽出装置、方法、及びプログラム - Google Patents

領域抽出装置、方法、及びプログラム Download PDF

Info

Publication number
JP6964296B2
JP6964296B2 JP2018141670A JP2018141670A JP6964296B2 JP 6964296 B2 JP6964296 B2 JP 6964296B2 JP 2018141670 A JP2018141670 A JP 2018141670A JP 2018141670 A JP2018141670 A JP 2018141670A JP 6964296 B2 JP6964296 B2 JP 6964296B2
Authority
JP
Japan
Prior art keywords
feature amount
classification
region
image
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018141670A
Other languages
English (en)
Other versions
JP2020017223A (ja
Inventor
和彦 村崎
哲也 杵渕
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Science
Nippon Telegraph and Telephone Corp
Original Assignee
Tokyo University of Science
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Science, Nippon Telegraph and Telephone Corp filed Critical Tokyo University of Science
Priority to JP2018141670A priority Critical patent/JP6964296B2/ja
Publication of JP2020017223A publication Critical patent/JP2020017223A/ja
Application granted granted Critical
Publication of JP6964296B2 publication Critical patent/JP6964296B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、領域抽出装置、方法、及びプログラムに係り、特に、画像に含まれる物体の領域を抽出するための領域抽出装置、方法、及びプログラムに関する。
従来より、画像から物体の位置を検出するための画像認識器を学習するためには一般に多数の教師データが必要となる。画像から物体の位置を検出するためには入力となる画像と画像に含まれる物体の位置情報のセットが必要となる。
画像認識器を学習するための教師データを用意することは手間がかかるため、この手間を省くために、位置情報を付加することなく画像データのみから学習をするという取り組みがある。この問題設定はCo−localizationと呼ばれ、同じ物体を含む多数の画像を用意し、その画像集合から教師情報を用いずに物体位置を求める手法として研究されている。
非特許文献1では、画像同士の類似したパーツを見つけ、それらのパーツの組み合わせによって共通して存在している物体を検出し、上記の手間の問題を解決している。しかし、検出対象の物体において類似したパーツが複数画像に存在していることを前提としているため、パーツの類似性が崩れている場合などに、検出精度が落ちる問題がある。一方で、非特許文献2では、事前に多数の物体情報を識別するような問題を学習した畳み込みニューラルネットワーク(CNN)を用意し、そのCNNの中間層の出力値を画像特徴として用いることで同一物体の見た目の変化に対して頑健に検出できる手法が示されている。しかしこの手法では、1つの画像集合に対して1つの物体が含まれることを仮定しており、複数の物体が含まれるデータに対して物体の位置を見つけ出すことはできないものである。
本発明は、上記事情を鑑みて成されたものであり、所定の領域毎に得られた対象特徴量を、ベクトルの方向成分のみに基づき、分類を行い、所定の領域毎に得られた分類に基づき、所望の対象物に対応する領域を抽出することにより、画像に含まれる物体の領域を精度良く抽出することができる領域抽出装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る領域抽出装置は、第一の画像から所望の対象物に対応する領域を抽出する領域抽出装置であって、前記第一の画像に含まれる所定の領域毎の特徴量であってベクトルで表現される対象特徴量を取得する特徴量取得部と、前記所定の領域毎に得られた前記対象特徴量を、前記ベクトルの方向成分のみに基づき、少なくとも3以上からなる分類のいずれかに分類を行う分類部と、前記所定の領域毎に得られた前記分類に基づき、前記所望の対象物に対応する領域を抽出する抽出部と、を含んで構成されている。
また、第1の発明に係る領域抽出装置において、前記分類部による分類結果と前記対象特徴量のベクトルに基づいて得られる前記分類の信頼度を用いて前記所望の対象物に対応する前記分類を選択する分類選択部を更に含み、前記抽出部は、前記選択された前記分類に基づき、前記所望の対象物に対応する領域を抽出するようにしてもよい。
また、第1の発明に係る領域抽出装置において、前記特徴量取得部の前記対象特徴量の取得は、含まれる対象物の種類が予め求められた第二の画像の各々から得られる特徴量から前記第二の画像に含まれる対象物の種類を識別できるように学習された特徴量抽出処理に基づいているようにしてもよい。
また、第1の発明に係る領域抽出装置において、前記学習は前記第二の画像に含まれる対象物の種類を識別するための畳み込みニューラルネットワークの学習であり、前記所定の領域毎の前記特徴量は、前記畳み込みニューラルネットワークの中間層の出力として得られる前記所定の領域毎のベクトルであるようにしてもよい。
また、第1の発明に係る領域抽出装置において、前記分類部の少なくとも3以上からなる前記分類は、前記対象特徴量の各々を、前記対象特徴量のベクトルの方向成分に基づいてクラスタリングした結果のクラスタであるようにしてもよい。
第2の発明に係る領域抽出方法は、第一の画像から所望の対象物に対応する領域を抽出する領域抽出装置における領域抽出方法であって、特徴量取得部が、前記第一の画像に含まれる所定の領域毎の特徴量であってベクトルで表現される対象特徴量を取得するステップと、分類部が、前記所定の領域毎に得られた前記対象特徴量を、前記ベクトルの方向成分のみに基づき、少なくとも3以上からなる分類のいずれかに分類を行うステップと、抽出部が、前記所定の領域毎に得られた前記分類に基づき、前記所望の対象物に対応する領域を抽出するステップと、を含んで実行することを特徴とする。
第3の発明に係るプログラムは、コンピュータを、第1の発明に記載の領域抽出装置の各部として機能させるためのプログラムである。
本発明の領域抽出装置、方法、及びプログラムによれば、入力画像に含まれる領域毎の特徴量であってベクトルで表現される対象特徴量を取得し、所定の領域毎に得られた対象特徴量を、ベクトルの方向成分のみに基づき、分類を行い、所定の領域毎に得られた分類に基づき、所望の対象物に対応する領域を抽出することにより、画像に含まれる物体の領域を精度良く抽出することができる、という効果が得られる。
本発明の実施の形態に係る領域抽出装置の構成を示すブロック図である。 入力画像を元にクラスタに分類するまでの流れの一例を示す図である。 入力画像から物体を抽出する場合の一例を示す図である。 本発明の実施の形態に係る領域抽出装置における領域抽出処理ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る概要>
まず、本発明の実施の形態における概要を説明する。
上記の課題を解決し、精度のよい物体位置推定を実現するために、本実施の形態では、あらかじめ学習された畳み込みニューラルネットワーク(CNN)の中間層の出力値を画像特徴として用いる。この画像特徴はDeep Featureと呼ばれ、物体(以下、対象物とも記載する)の見えの変化に対して頑健に各物体らしさが抽出された特徴となっている。本実施の形態では、Deep Featureを、所定の領域(例えば、画素)毎の特徴量であってベクトルで表現される対象特徴量と定義する。ここで対象特徴量が表現する物体ラベルのクラスの違いは、ベクトルの方向によって表現され、その信頼度がベクトルの大きさとして表現されていると想定し、本実施の形態では、球面クラスタリングによって同一物体を示す対象特徴量を抽出する。似た方向を向いたベクトルを同一クラスタとしてまとめる球面クラスタリングによって似た物体の領域を抽出し、画像集合内で最も高い信頼度が得られているクラスタを主物体として定めることで各画像から主として含まれている物体の位置を推定することができる。以上の観点で本発明の実施の形態の領域抽出装置は、画像から所望の対象物に対応する領域を抽出する。
<本発明の実施の形態に係る領域抽出装置の構成>
次に、本発明の実施の形態に係る領域抽出装置の構成について説明する。図1に示すように、本発明の実施の形態に係る領域抽出装置100は、CPUと、RAMと、後述する領域抽出処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。
領域抽出装置100は、画像集合10と、学習済みCNN22と、特徴量取得部30と、分類部32と、分類選択部34と、抽出部36と、主物体位置情報38とを含んで構成されている。
画像集合10は、単一、又は複数の物体を含む画像の画像集合のデータセットを格納したものを用いる。画像集合10の画像には、例えば、飛行機、馬、車などの物体が含まれる。画像集合10に含まれる画像が第一の画像の一例である。
学習済みCNN22は、例えばVGG19モデルをILSVRCの1000クラスの画像を用いて学習したモデルを学習済みモデルとして採用し、その最後の畳み込み層での出力を特徴ベクトルとして用いることができるCNNである。学習済みCNN22は、対象物の種類が予め求められた画像の各々を用いて、画像に含まれる対象物の種類を識別するように予め学習しておくものとする。学習に用いる画像が第二の画像の一例である。学習済みCNN22を用いることで、画像に含まれる対象物の種類を識別できる特徴量抽出処理を行うことができる。なお、画像の位置情報を残すために、CNNであることが望ましいが、必ずしもVGG19を用いる必要はない。また、VGG19のようなPoolingによって処理の途中で解像度を低減させるモデルでは中間出力の解像度が非常に粗くなってしまうため、Convolution層をAtrous Convolutionに置き換え、Pooling層をなくすことで、高い解像度で中間出力値が得らえるモデルに改変してもよい。このようにして、入力画像の特定の位置に対応する対象特徴量を多数得ることができる。また、学習に用いる画像の対象物の種類と、後述する分類部32で分類するクラスタの種類は同一なものとならなくてもよい。例えば、学習に用いる画像の対象物の種類が犬、猫であったとして、分類部32のクラスタリングで得られるクラスタが、馬のクラスタを含んでいてもよいということである。
特徴量取得部30は、画像集合10の画像を入力画像として、入力画像に含まれる所定の領域毎の特徴量であってベクトルで表現される対象特徴量を取得する。入力画像を学習済みCNN22に入力とし、学習済みCNN22が出力する中間層の出力値を、所定の領域毎の対象特徴量として取得する。なお、本実施の形態では、所定の領域を画素とする場合を例に説明する。
分類部32は、特徴量取得部30で取得された所定の領域毎の対象特徴量を、ベクトルの方向成分のみに基づき、少なくとも3以上からなる分類のいずれかに分類する。分類部32の分類では、対象特徴量のベクトルを、Spherical k−Means(球面クラスタリング)と呼ばれる手法を用いたクラスタリングによって得られたクラスタのいずれかに分類する。特徴量取得部30では、まず、入力画像について得られた所定の領域毎の対象特徴量についてその全ての対象特徴量の平均ベクトルが原点となるように、各対象特徴量から平均ベクトルを引く処理を行う。さらにSpherical k−Meansを実施する。このとき、全対象特徴量についてベクトルの大きさが1になるよう正規化し、またクラスタ中心についても大きさ1になるよう正規化しながら、ユークリッド距離に基づく一般的なk−Meansクラスタリングを行い、各対象特徴量にクラスタ番号を付与する。以上の処理によってベクトル方向によって分離されるクラスタリング結果のクラスタを、分類として得る。各対象特徴量において、クラスタリング結果により表されるクラスタにより、物体ラベルのクラスと物体以外のクラスとが分離されて表現されることとなる。入力画像を元にクラスタに分類するまでの流れを図2に示す。なお、ここで用いる手法は、ベクトルの方向を類似度指標とするクラスタリング手法であれば他の手法を用いても良く、コサイン類似度に基づくk−Meansクラスタリングやvon−Mises Fisher分布の混合分布をフィッティングさせるなどしてもよい。
分類選択部34は、所定の領域毎の対象特徴量の各々についての分類結果と対象特徴量のベクトルとに基づいて得られる各分類の信頼度を用いて所望の対象物に対応する分類を選択する。分類部32の出力として、各対象特徴量に対するクラスタ番号と各クラスタのクラスタ中心が得られている。分類選択部34においては、これらを用いて入力画像内(もしくは画像集合内)において抽出すべき物体が持つクラスタ番号を適切に選択する。対象特徴量の持つ性質として、物体ラベルのクラスの違いがベクトルの向きに現れ、そのクラスへの信頼度がベクトルの内積の大きさに現れると考えると、選択すべきクラスタは、対象特徴量が持つ分類への信頼度が大きいクラスタであると考えられる。具体的には、各対象特徴量をx、各クラスタ中心をcとすると、xのもつクラスタkへの信頼度は対象特徴量xとクラスタ中心cとの内積で算出される。以下(1)式のように、信頼度を、クラスタkに所属する全ての対象特徴量について算出し、その平均値をクラスタの強度pとして用いる。
Figure 0006964296

・・・(1)
ただし、Nはクラスタkに属する対象特徴量の数を示す。画像集合10のデータセットが複数の物体を含んでおり、入力画像毎に1つの物体を見つける場合には、1つの入力画像に対して各クラスタの強度を算出し、最も大きいクラスタを選択する。画像集合10のデータセット全体で1つの物体を見つける場合には、データセット全体でこの強度を算出し、最も大きいクラスタを選択する。
抽出部36は、分類選択部34で選択された分類と、所定の領域毎の対象特徴量についての分類結果とに基づき、所望の対象物に対応する領域を抽出し、抽出した対象物の位置を主物体位置情報38に格納する。抽出部36の領域の抽出は、選択された主物体のクラスタ番号と各対象特徴量に付与されたクラスタ番号を用いて、入力画像内の物体位置を計算することにより行う。入力画像から得られる対象特徴量は元画像に比べてサイズが小さくなってしまうが、これらを元の入力画像のサイズに合わせてアップサンプリングする。アップサンプリングによって各対象特徴量は元画像のある座標に対応した特徴とみなすことができる。対象特徴量に付与されたクラスタ番号のうち、分類選択部34で選択されたクラスタ番号を、主物体のクラスタ番号とみなすことができ、元の入力画像から、選択されたクラスタ番号の対象特徴量と対応する箇所の画素のみを抜き出すことで、主物体の領域に含まれる画素が得られる。物体検出としての位置精度を高めるために、画素毎に得られた主物体領域から上下左右に連続した最大面積の領域を選び出し、この領域を囲む外接矩形を検出枠として出力する。
抽出部36の処理結果の例を図3に示す。この例では、飛行機と馬と車の3つを含む画像集合から教師データを用いることなく各物体の位置検出を実現している。
以上のように、Deep Featureを用いた物体領域の抽出において、ベクトルの方向に着目した球面クラスタリングと、クラスタの中心ベクトルとの内積の大きさに着目したクラスタ選択とを行っている点が新規であり、それによって高精度での教師無し物体検出を実現している。また、複数物体を含む画像集合に対してもクラスタリングベースの提案手法は適用可能であり、複数物体の領域を教師無しに捉えることができる。
<本発明の実施の形態に係る領域抽出装置の作用>
次に、本発明の実施の形態に係る領域抽出装置100の作用について説明する。領域抽出装置100は、図4に示す領域抽出処理ルーチンを実行する。
まず、ステップS100では、画像集合10の画像を入力画像として、入力画像に含まれる所定の領域毎の特徴量であってベクトルで表現される対象特徴量を取得する。
次に、ステップS102では、ステップS100で取得された所定の領域毎の対象特徴量を、ベクトルの方向成分のみに基づき、少なくとも3以上からなる分類のいずれかに分類する。
ステップS104では、所定の領域毎の対象特徴量の各々についての分類結果と対象特徴量のベクトルとに基づいて得られる各分類の信頼度を用いて所望の対象物に対応する分類を選択する。
ステップS106では、ステップS104で選択された分類と、所定の領域毎の対象特徴量についての分類結果とに基づき、所望の対象物に対応する領域を抽出し、抽出した対象物の位置を主物体位置情報38に格納する。
以上説明したように、本発明の実施の形態に係る領域抽出装置によれば、入力画像に含まれる領域毎の特徴量であってベクトルで表現される対象特徴量を取得し、所定の領域毎に得られた対象特徴量を、ベクトルの方向成分のみに基づき、分類を行い、所定の領域毎に得られた分類に基づき、所望の対象物に対応する領域を抽出することにより、画像に含まれる物体の領域を精度良く抽出することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した実施の形態では、画素を、所定の領域とし、画素毎に対象特徴量を抽出する場合を例に説明したが、これに限定されるものではなく、画像全体の大きさよりも小さい一定範囲の領域を所定の領域として、一定範囲の領域毎に、対象特徴量を抽出するようにしてもよい。
また、領域抽出装置100が分類選択部34を含み、分類選択部34で分類結果とベクトルとに基づく信頼度を用いて分類を選択する場合を例に説明したがこれに限定されるものではない。例えば、領域抽出装置100が分類選択部34を含まない構成とし、分類部32による分類により領域毎に得られた分類結果に基づいて、抽出部36で、入力画像に含まれる対象物に対応する領域を抽出するようにしてもよい。この場合には、例えば分類のクラスタにより表される領域のうち一定範囲を占める領域を対象物に対応する領域として抽出する等すればよい。
また、入力画像から抽出された対象特徴量についてのクラスタリング結果から得られるクラスタに分類する場合を例に説明したが、これに限定されるものではなく、例えば、予め、入力画像とは異なる画像について対象特徴量のクラスタリング結果からクラスタを得ておき、入力画像の対象特徴量を、予め得られたクラスタに分類するようにしてもよい。
10 画像集合
22 学習済みCNN
30 特徴量取得部
32 分類部
34 分類選択部
36 抽出部
38 主物体位置情報
100 領域抽出装置

Claims (7)

  1. 第一の画像から所望の対象物に対応する領域を抽出する領域抽出装置であって、
    前記第一の画像に含まれる所定の領域毎の特徴量であってベクトルで表現される対象特徴量を取得する特徴量取得部と、
    前記所定の領域毎に得られた前記対象特徴量を、前記ベクトルの方向成分のみに基づき、少なくとも3以上からなる分類のいずれかに分類を行う分類部と、
    前記所定の領域毎に得られた前記分類に基づき、前記所望の対象物に対応する領域を抽出する抽出部と、
    を有する領域抽出装置。
  2. 前記分類部による分類結果と前記対象特徴量のベクトルに基づいて得られる前記分類の信頼度を用いて前記所望の対象物に対応する前記分類を選択する分類選択部を更に含み、
    前記抽出部は、前記選択された前記分類に基づき、前記所望の対象物に対応する領域を抽出する
    請求項1記載の領域抽出装置。
  3. 前記特徴量取得部の前記対象特徴量の取得は、含まれる対象物の種類が予め求められた第二の画像の各々から得られる特徴量から前記第二の画像に含まれる対象物の種類を識別できるように学習された特徴量抽出処理に基づいている
    請求項1又は2記載の領域抽出装置。
  4. 前記学習は前記第二の画像に含まれる対象物の種類を識別するための畳み込みニューラルネットワークの学習であり、前記所定の領域毎の前記特徴量は、前記畳み込みニューラルネットワークの中間層の出力として得られる前記所定の領域毎のベクトルである請求項3記載の領域抽出装置。
  5. 前記分類部の少なくとも3以上からなる前記分類は、前記対象特徴量の各々を、前記対象特徴量のベクトルの方向成分に基づいてクラスタリングした結果のクラスタである請求項1〜請求項4の何れか1項記載の領域抽出装置。
  6. 第一の画像から所望の対象物に対応する領域を抽出する領域抽出装置における領域抽出方法であって、
    特徴量取得部が、前記第一の画像に含まれる所定の領域毎の特徴量であってベクトルで表現される対象特徴量を取得するステップと、
    分類部が、前記所定の領域毎に得られた前記対象特徴量を、前記ベクトルの方向成分のみに基づき、少なくとも3以上からなる分類のいずれかに分類を行うステップと、
    抽出部が、前記所定の領域毎に得られた前記分類に基づき、前記所望の対象物に対応する領域を抽出するステップと、
    を含む領域抽出方法。
  7. コンピュータを、請求項1〜請求項5のいずれか1項に記載の領域抽出装置の各部として機能させるためのプログラム。
JP2018141670A 2018-07-27 2018-07-27 領域抽出装置、方法、及びプログラム Active JP6964296B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018141670A JP6964296B2 (ja) 2018-07-27 2018-07-27 領域抽出装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018141670A JP6964296B2 (ja) 2018-07-27 2018-07-27 領域抽出装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020017223A JP2020017223A (ja) 2020-01-30
JP6964296B2 true JP6964296B2 (ja) 2021-11-10

Family

ID=69580507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018141670A Active JP6964296B2 (ja) 2018-07-27 2018-07-27 領域抽出装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6964296B2 (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE448125B (sv) * 1985-05-23 1987-01-19 Context Vision Ab Anordning for bestemning av graden av konstans hos en egenskap for ett omrade i en i diskreta bildelement uppdelad bild

Also Published As

Publication number Publication date
JP2020017223A (ja) 2020-01-30

Similar Documents

Publication Publication Date Title
US11416710B2 (en) Feature representation device, feature representation method, and program
US10410353B2 (en) Multi-label semantic boundary detection system
US9824294B2 (en) Saliency information acquisition device and saliency information acquisition method
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
JP5916886B2 (ja) 画像特徴の類似性に基づく画像索引作成
JP6050223B2 (ja) 画像認識装置、画像認識方法、及び集積回路
Pan et al. A robust system to detect and localize texts in natural scene images
WO2015096565A1 (zh) 图像中的目标物的识别方法及装置
TW201926140A (zh) 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體
CN106960181B (zh) 一种基于rgbd数据的行人属性识别方法
CN110909618B (zh) 一种宠物身份的识别方法及装置
CN103366181A (zh) 多特征视觉码本融合的场景识别方法和装置
CN108573471B (zh) 图像处理装置、图像处理方法以及记录介质
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
US10007678B2 (en) Image processing apparatus, image processing method, and recording medium
JP4946878B2 (ja) 画像識別装置及びプログラム
JP7183753B2 (ja) リスト生成装置、被写体識別装置、リスト生成方法、及びプログラム
JP2016081355A (ja) 異常検知方法、異常検知装置、及びプログラム
CN112668374A (zh) 图像处理方法、装置、重识别网络的训练方法及电子设备
JP2017102622A (ja) 画像処理装置、画像処理方法及びプログラム
CN108921006B (zh) 手写签名图像真伪鉴别模型建立方法及真伪鉴别方法
JP6384167B2 (ja) 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム
WO2015068417A1 (ja) 画像照合システム、画像照合方法およびプログラム
JP6964296B2 (ja) 領域抽出装置、方法、及びプログラム
JP2017084006A (ja) 画像処理装置およびその方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211008

R150 Certificate of patent or registration of utility model

Ref document number: 6964296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150