JP7013489B2 - 学習装置、実写画像分類装置の生成システム、実写画像分類装置の生成装置、学習方法及びプログラム - Google Patents

学習装置、実写画像分類装置の生成システム、実写画像分類装置の生成装置、学習方法及びプログラム Download PDF

Info

Publication number
JP7013489B2
JP7013489B2 JP2019567481A JP2019567481A JP7013489B2 JP 7013489 B2 JP7013489 B2 JP 7013489B2 JP 2019567481 A JP2019567481 A JP 2019567481A JP 2019567481 A JP2019567481 A JP 2019567481A JP 7013489 B2 JP7013489 B2 JP 7013489B2
Authority
JP
Japan
Prior art keywords
learning
image
feature amount
domain
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019567481A
Other languages
English (en)
Other versions
JPWO2019146057A1 (ja
Inventor
大地 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2019146057A1 publication Critical patent/JPWO2019146057A1/ja
Application granted granted Critical
Publication of JP7013489B2 publication Critical patent/JP7013489B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、学習装置、実写画像分類装置の生成システム、実写画像分類装置の生成装置、学習方法及びプログラムに関する。
ソースドメインに属する学習画像を学習した機械学習モデルを用いて、ターゲットドメインに属する画像についての、複数のクラスへの分類処理を実行するドメインアダプテーションの技術が知られている。ここで複数のクラスへの分類処理の一例として、例えば入力された画像に含まれる画素単位で、その画素が表す物体などといった、その画素の意味を特定するセマンティックセグメンテーションが挙げられる。また複数のクラスへの分類処理の別の例としては、入力された画像が何の画像であるかを特定する画像分類や、入力された画像内のどこに何が配置されているのかを特定する画像検出などが挙げられる。
ドメインアダプテーションでは、まず、ソースドメインに属する学習画像の教師あり学習が実行される。ここでは例えば、未学習である分類装置に含まれる特徴量抽出部が、学習画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する。このようにして特徴量抽出部により出力される特徴量データは、当該分類装置に含まれる分類部に入力される。当該分類部は、当該特徴量データの入力に応じて、複数のクラスについての当該学習画像の分類処理の結果を出力する。そして当該出力と、当該学習画像に対応付けられる複数のクラスについての教師データと、の比較結果に基づいて、特徴量抽出部及び分類部の学習が実行される。
その後、ソースドメインに属する学習画像とターゲットドメインに属する学習画像とを用いた教師なし学習が実行される。この教師なし学習では、学習画像がソースドメインに属するかターゲットドメインに属するかを示すデータは必要であるが、上述の複数のクラスについての教師データは不要である。
当該教師なし学習では例えば、分類装置に含まれる特徴量抽出部が、学習画像の入力に応じて上述の特徴量データを出力する。当該特徴量データは、ソースドメインに属する画像とターゲットドメインに属する画像とを識別するドメイン識別部に入力される。そして当該特徴量データが当該ドメイン識別部に入力された際の出力と、当該学習画像がソースドメインに属するかターゲットドメインに属するかを示すデータとの比較結果に基づいて、特徴量抽出部及びドメイン識別部の学習が実行される。
従来のドメインアダプテーションでは、上述の教師なし学習において所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データの全体がドメイン識別部に入力されていた。
そのため上述の教師なし学習において特徴量抽出部及びドメイン識別部についての学習精度が充分でなく、その結果ターゲットドメインに属する画像の分類精度が充分に得られないことがあった。
また従来のドメインアダプテーションの技術において、CG画像によって学習済である1つの機械学習モデルを用いて、複数のユーザのそれぞれの環境に適応した、実写画像の分類処理を実行することは提案されていない。
本発明は上記課題に鑑みてなされたものであって、その目的の1つは、ターゲットドメインに属する画像の分類精度を向上できる学習装置、学習方法及びプログラムを提供することにある。
また本発明の別の目的の1つは、CG画像によって学習済である1つの機械学習モデルを用いて、複数のユーザのそれぞれの環境に適応した、実写画像についての複数のクラスへの分類処理を実行する実写画像分類装置を生成できる実写画像分類装置の生成システム及び実写画像分類装置の生成装置を提供することにある。
上記課題を解決するために、本発明に係る学習装置は、画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する特徴量抽出部と、当該特徴量データの入力に応じて前記複数のクラスについての当該画像の分類処理の結果を出力する分類部と、を含む分類装置の学習を実行する学習装置であって、ソースドメインに属する分類学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを前記分類部に入力した際の出力と、当該分類学習画像に対応付けられる前記複数のクラスについての教師データと、の比較結果に基づいて、前記特徴量抽出部及び前記分類部の学習を実行する分類学習部と、それぞれ前記ソースドメイン又はターゲットドメインのいずれかに属するドメイン学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを、それぞれ1又は複数の前記クラスの前記特徴マップを含む当該ドメイン学習画像に対応する複数の部分特徴量データに分割する分割部と、前記ソースドメインに属する画像と前記ターゲットドメインに属する画像とを識別するドメイン識別部に当該ドメイン学習画像に対応する前記部分特徴量データを入力した際の出力と、当該ドメイン学習画像が前記ソースドメインに属するか前記ターゲットドメインに属するかを示すデータと、の比較結果に基づいて、前記特徴量抽出部の学習を実行するドメイン識別学習部と、を含む。
本発明の一態様では、前記ドメイン識別学習部は、複数の前記部分特徴量データのそれぞれについての、当該部分特徴量データを前記ドメイン識別部に入力した際の出力に応じた目的関数の値の重み付き和に基づいて、前記特徴量抽出部の学習を実行する。
あるいは、前記ドメイン識別部は、前記分割部により分割される複数の前記部分特徴量データにそれぞれ対応する複数のサブドメイン識別部、を含み、前記ドメイン識別学習部は、前記部分特徴量データを当該部分特徴量データに対応する前記サブドメイン識別部に入力した際の出力に基づいて、前記特徴量抽出部の学習を実行する。
また、本発明に係る実写画像分類装置の生成システムは、サーバと、複数の装置と、を含み、前記サーバは、CG画像によって学習済である、CG画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力するCG特徴量抽出部と、当該特徴量データの入力に応じて前記特徴量抽出部に入力された画像についての前記複数のクラスへの分類処理の結果を出力する分類部と、を含む機械学習モデルを、前記複数の装置のそれぞれに送信する送信部、を含み、前記複数の装置のそれぞれは、前記サーバが送信する前記機械学習モデルを受信する受信部と、当該装置を利用するユーザの環境における実写画像と、学習済の前記機械学習モデルと、に基づいて、当該ユーザの環境における実写画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する実写特徴量抽出部の学習を実行する学習部と、学習済の前記実写特徴量抽出部と、前記機械学習モデルに含まれる学習済の前記分類部と、に基づいて、前記ユーザの環境における実写画像についての前記複数のクラスへの分類処理を実行する実写画像分類装置を生成する生成部と、を含む。
また、本発明に係る実写画像分類装置の生成装置は、CG画像によって学習済である、CG画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力するCG特徴量抽出部と、当該特徴量データの入力に応じて前記特徴量抽出部に入力された画像についての前記複数のクラスへの分類処理の結果を出力する分類部と、を含む機械学習モデルをサーバから受信する受信部と、ユーザの環境における実写画像と、学習済である前記機械学習モデルと、に基づいて、当該ユーザの環境における実写画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する実写特徴量抽出部の学習を実行する学習部と、学習済の前記実写特徴量抽出部と、前記機械学習モデルに含まれる学習済の前記分類部と、に基づいて、前記ユーザの環境における実写画像についての前記複数のクラスへの分類処理を実行する実写画像分類装置を生成する生成部と、を含む。
また、本発明に係る学習方法は、画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する特徴量抽出部と、当該特徴量データの入力に応じて前記複数のクラスについての当該画像の分類処理の結果を出力する分類部と、を含む分類装置の学習を実行する学習方法であって、ソースドメインに属する分類学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを前記分類部に入力した際の出力と、当該分類学習画像に対応付けられる前記複数のクラスについての教師データと、の比較結果に基づいて、前記特徴量抽出部及び前記分類部の学習を実行するステップと、それぞれ前記ソースドメイン又はターゲットドメインのいずれかに属するドメイン学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを、それぞれ1又は複数の前記クラスの前記特徴マップを含む当該ドメイン学習画像に対応する複数の部分特徴量データに分割するステップと、前記ソースドメインに属する画像と前記ターゲットドメインに属する画像とを識別するドメイン識別部に当該ドメイン学習画像に対応する前記部分特徴量データを入力した際の出力と、当該ドメイン学習画像が前記ソースドメインに属するか前記ターゲットドメインに属するかを示すデータと、の比較結果に基づいて、前記特徴量抽出部の学習を実行するステップと、を含む。
また、本発明に係るプログラムは、画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する特徴量抽出部と、当該特徴量データの入力に応じて前記複数のクラスについての当該画像の分類処理の結果を出力する分類部と、を含む分類装置の学習をコンピュータに実行させるプログラムであって、ソースドメインに属する分類学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを前記分類部に入力した際の出力と、当該分類学習画像に対応付けられる前記複数のクラスについての教師データと、の比較結果に基づいて、前記特徴量抽出部及び前記分類部の学習を実行する手順、それぞれ前記ソースドメイン又はターゲットドメインのいずれかに属するドメイン学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを、それぞれ1又は複数の前記クラスの前記特徴マップを含む当該ドメイン学習画像に対応する複数の部分特徴量データに分割する手順、前記ソースドメインに属する画像と前記ターゲットドメインに属する画像とを識別するドメイン識別部に当該ドメイン学習画像に対応する前記部分特徴量データを入力した際の出力と、当該ドメイン学習画像が前記ソースドメインに属するか前記ターゲットドメインに属するかを示すデータと、の比較結果に基づいて、前記特徴量抽出部の学習を実行する手順、を前記コンピュータに実行させる。
本発明の一実施形態に係る画像処理装置の構成図である。 本発明の一実施形態に係る画像処理装置における分類学習の一例を示す図である。 本発明の一実施形態に係る画像処理装置におけるドメイン識別学習の一例を示す図である。 本発明の一実施形態に係る画像処理装置における分類処理の一例を示す図である。 本発明の一実施形態に係る画像処理装置で実装される機能の一例を示す機能ブロック図である。 本発明の一実施形態に係る画像処理装置で行われる分類学習の処理の流れの一例を示すフロー図である。 本発明の一実施形態に係る画像処理装置で行われるドメイン識別学習の処理の流れの一例を示すフロー図である。 本発明の一実施形態に係る実写画像分類装置の生成システムの構成図である。
以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る画像処理装置10の構成図である。本実施形態に係る画像処理装置10は、例えば、ゲームコンソールやパーソナルコンピュータなどのコンピュータである。図1に示すように、本実施形態に係る画像処理装置10は、例えば、プロセッサ12、記憶部14、操作部16、表示部18、通信部20を含んでいる。
プロセッサ12は、例えば画像処理装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。
記憶部14は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部14には、プロセッサ12によって実行されるプログラムなどが記憶される。
操作部16は、キーボード、マウス、ゲームコンソールのコントローラ等のユーザインタフェースであって、ユーザの操作入力を受け付けて、その内容を示す信号をプロセッサ12に出力する。
表示部18は、液晶ディスプレイ等の表示デバイスであって、プロセッサ12の指示に従って各種の画像を表示する。
通信部20は、ネットワークボードや無線LANモジュールなどの通信インタフェースなどである。
なお、画像処理装置10は、DVD-ROMやBlu-ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。
本実施形態に係る画像処理装置10では、ドメインアダプテーションの技術により、ソースドメインに属する学習画像を学習した機械学習モデルを用いた、ターゲットドメインに属する画像についての複数のクラスへの分類処理が実行される。具体的には例えば、コンピュータグラフィック(CG)画像を学習した機械学習モデルを用いた、実写画像についてのセマンティックセグメンテーションが実行される。なお本実施形態に係る画像処理装置10の適用範囲はセマンティックセグメンテーションに限定されず、例えば入力された画像が何の画像であるかを特定する画像分類や、入力された画像内のどこに何が配置されているのかを特定する画像検出にも適用可能である。
以下、本実施形態に係る画像処理装置10における機械学習モデルの学習の一実装例について説明する。
本実施形態ではまず、図2に示すように、ソースドメインに属する画像を用いた、ソースドメイン特徴量抽出部30及び分類部32の教師あり学習が実行される。ソースドメイン特徴量抽出部30は、例えば畳み込みニューラルネットワーク(CNN)における畳み込み層やプーリング層を含んで実装される。またソースドメイン特徴量抽出部30に、CNNにおける逆畳み込み層が含まれていてもよい。分類部32は、例えば、CNNにおける畳み込み層、プーリング層、全結合層を含んで実装される。
以下、当該教師あり学習を分類学習と呼ぶこととする。また、分類学習に用いられるソースドメインに属する画像を、ソース分類学習画像と呼ぶこととする。上述のように、ソース分類学習画像の一例としては、CG画像が挙げられる。
分類学習では、ソース分類学習画像が入力34としてソースドメイン特徴量抽出部30に入力される。そしてソースドメイン特徴量抽出部30が、ソース分類学習画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データ36を出力する。ここで当該複数のクラスのそれぞれは、例えばセマンティックセグメンテーションの対象となる画像に含まれる各画素について推定される、当該画素が表す物体などといった当該画素の意味に対応付けられる。
本実施形態では例えば、特徴量データ36のサイズは、W×H×nであることとする。ここで例えば、値Wは、ソース分類学習画像の横の画素数を示す値であり、値Hは、ソース分類学習画像の縦の画素数を示す値であり、値nは、上述の所与の複数のクラスにおけるクラス数を示す値である。すなわち、ソース分類学習画像とサイズが同じである特徴マップをクラス数だけ含む特徴量データ36が出力されることとなる。
そしてソースドメイン特徴量抽出部30が出力する特徴量データ36が分類部32に入力される。分類部32は、特徴量データ36の入力に応じて、ソース分類学習画像のそれぞれの画素についての、当該画素がそれぞれのクラスに属する可能性の高さを示すデータを出力38として出力する。1個の画素に対応付けられる出力38は、例えば、n個の要素u1(k1)(k1=1~n)を含むベクトルとして表現される。ここで値nはクラス数であり、値k1はクラスに対応付けられる番号(クラス識別子)である。
そして本実施形態では、出力38とソース分類学習画像に対応付けられた教師データとが比較される。ここで教師データは、各画素に対応付けられるone-of-nベクトルによって表現される。例えばクラス識別子がj1であるクラスに属する画素の教師データは、j1番目の要素が1であり他の要素が0である、要素数がnのベクトルd1として表現される。
ここで例えば、当該出力38とソース分類学習画像に対応付けられた教師データとの比較結果が、目的関数の値L1として表現されてもよい。例えば以下の式(1)における値L1が当該目的関数の値L1とされてもよい。なお式(1)における、値xはソース分類学習画像のx座標値、値yはソース分類学習画像のy座標値である。値d1(j1)(x,y)はソース分類学習画像における座標値(x,y)の画素に対応する教師データのj1番目の要素の値である。値p1(j1)(x,y)は、ソース分類学習画像における座標値(x,y)の画素に対応するソフトマックスクロスエントロピーのj1番目の要素の値である。
Figure 0007013489000001
式(1)に示すようにここでは例えば、各クラスについて、ソース分類学習画像における座標値(x,y)の画素に対応する教師データの要素の値d1(j1)(x,y)とソフトマックスクロスエントロピーの値p1(j1)(x,y)の対数との積が算出される。そして各クラスについて算出される当該積の総和が算出される。そしてソース分類学習画像に含まれる各画素について算出される当該総和の合計をWとHの積で割ることによって平均化した値の符号を反転させた値が目的関数の値L1として算出される。
ここで例えば、ソフトマックスクロスエントロピーの値p1(j1)は、以下の式(2)で計算される値である。
Figure 0007013489000002
式(2)に示すように例えば、出力38のj1番目の要素u1(j1)の値を引数とする指数関数の値を、出力38の要素u1の値を引数とする指数関数の値を各要素について合計した値で割った値が、ソフトマックスクロスエントロピーの値p1(j1)となる。
本実施形態では、ソース分類学習画像の入力に応じて算出される目的関数の値L1が極小化されるよう、ソースドメイン特徴量抽出部30及び分類部32を構成する要素の重み係数等のパラメータの値が変更される。そして本実施形態では例えば、複数のソース分類学習画像の入力に応じてソースドメイン特徴量抽出部30及び分類部32を構成する要素のパラメータの値の変更が実行されることにより、ソースドメイン特徴量抽出部30及び分類部32の学習が実行される。
上述の分類学習が実行されると、次に、図3に示すように、ソースドメインに属する画像とターゲットドメインに属する画像とを用いた教師なし学習が実行される。以下、当該教師なし学習をドメイン識別学習と呼ぶこととする。またドメイン識別学習に用いられる、ソースドメインに属する画像をソースドメイン学習画像と呼び、ドメイン識別学習に用いられる、ターゲットドメインに属する画像をターゲットドメイン学習画像と呼ぶこととする。上述のように、ソースドメイン学習画像の一例としては、CG画像が挙げられ、ターゲットドメイン学習画像の一例としては実写画像が挙げられる。なお分類学習に用いられたソース分類学習画像をソースドメイン学習画像として流用してもよい。
なお以下ではドメイン識別学習の一例として、ADDA(Adversarial Discriminative Domain Adaptation)の技術を用いたものについて説明する。なお以下で説明するドメイン識別学習の実装例はあくまでもドメイン識別学習の一実装例にすぎず、他の技術によりドメイン識別学習が実装されてもよい。
ドメイン識別学習における初期状態では、ソースドメイン特徴量抽出部30のコピーがターゲットドメイン特徴量抽出部40として設定される。すなわち初期状態では、ターゲットドメイン特徴量抽出部40を構成する各要素のパラメータの値は、ソースドメイン特徴量抽出部30を構成する各要素のパラメータの値と同じになる。
ドメイン識別学習では、ソースドメイン学習画像については、入力42としてソースドメイン特徴量抽出部30に入力される。そしてソースドメイン特徴量抽出部30が、ソースドメイン学習画像の入力に応じて上述の所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データ44を出力する。またターゲットドメイン学習画像については、入力46としてターゲットドメイン特徴量抽出部40に入力される。そしてターゲットドメイン特徴量抽出部40が、ターゲットドメイン学習画像の入力に応じて上述の所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データ48を出力する。
ここで本実施形態では、ソースドメイン学習画像やターゲットドメイン学習画像の画素数は、ソース分類学習画像と同じW×Hであることとする。そして特徴量データ44や特徴量データ48のサイズは、W×H×nであることとする。ここで例えば、値Wは、ソースドメイン学習画像及びターゲットドメイン学習画像の横の画素数であり、値Hは、ソースドメイン学習画像及びターゲットドメイン学習画像の縦の画素数であり、値nは、上述のクラス数である。
そして分割部50が、ソースドメイン特徴量抽出部30が出力する特徴量データ44を、それぞれ1又は複数のクラスの特徴マップを含む複数の部分特徴量データ52に分割する。また分割部50は、ターゲットドメイン特徴量抽出部40が出力する特徴量データ48を、それぞれ1又は複数のクラスの特徴マップを含む複数の部分特徴量データ54に分割する。ここで例えば、特徴量データ44は、クラス数であるn個に分割され、それぞれサイズがW×Hである1クラスの特徴マップを含むn個の部分特徴量データ52が生成されることとする。また特徴量データ48についても同様に、クラス数であるn個に分割され、それぞれサイズがW×Hである1クラスの特徴マップを含むn個の部分特徴量データ54が生成されることとする。
そして本実施形態では例えば、ソースドメインに属する画像とターゲットドメインに属する画像とを識別するドメイン識別部56に部分特徴量データ52又は部分特徴量データ54が入力される。ドメイン識別部56は、部分特徴量データ52又は部分特徴量データ54の入力に応じて、部分特徴量データ52が入力された可能性の高さ及び部分特徴量データ54が入力された可能性の高さを示すデータを出力58として出力する。すなわちドメイン識別部56は、入力された部分特徴量データがソースドメイン学習画像に基づくものである可能性の高さ及びターゲットドメイン学習画像に基づくものである可能性の高さを示すデータを出力58として出力する。
本実施形態では例えば、1個のソースドメイン学習画像に基づいて生成されるn個の部分特徴量データ52又は1個のターゲットドメイン学習画像に基づいて生成されるn個の部分特徴量データ54がドメイン識別部56に入力される。そしてn個の部分特徴量データのそれぞれに対応する出力58が特定される。例えばソースドメイン学習画像又はターゲットドメイン学習画像のそれぞれの画素についての、当該画素がソースドメイン学習画像の画素である可能性の高さ及びターゲットドメイン学習画像の画素である可能性の高さを示すデータが出力58として出力される。画素に対応付けられる出力58は、例えば、2個の要素u2(k2)(k2=1又は2)を含むベクトルとして表現される。ここで、値k2はソースドメイン又はターゲットドメインに対応付けられる番号(ドメイン識別子)である。ここでは例えば、u2(1)は当該画素がソースドメイン学習画像の画素である可能性の高さを示し、u2(2)は当該画素がターゲットドメイン学習画像の画素である可能性の高さを示すこととする。
そして部分特徴量データ52又は部分特徴量データ54がドメイン識別部56に入力された際の出力58と、入力された画像がソースドメイン学習画像であるかターゲットドメイン学習画像であるかを示すデータとが比較される。
以下、ドメイン識別学習における、入力された画像がソースドメイン学習画像であるかターゲットドメイン学習画像であるかを示すデータをドメイン識別データと呼ぶこととする。ここで例えばドメイン識別データの値として、ソースドメイン又はターゲットドメインに対応付けられる値が設定されてもよい。ここで例えば、ソースドメイン学習画像に対応付けられるドメイン識別データの値が二次元ベクトル(1,0)で表現され、ターゲットドメイン学習画像に対応付けられるドメイン識別データの値が二次元ベクトル(0,1)で表現されてもよい。
そして本実施形態では、出力58とドメイン識別データとが比較される。ここで例えば、i番目のクラスに対応付けられる部分特徴量データ52又は部分特徴量データ54がドメイン識別部56に入力された際の出力58とドメイン識別データとの比較結果が、目的関数の値L2(i)として表現されてもよい。例えば以下の式(3)における値L2(i)が当該目的関数の値L2(i)とされてもよい。なお式(3)における、値xはソースドメイン学習画像又はターゲットドメイン学習画像のx座標値、値yはソースドメイン学習画像又はターゲットドメイン学習画像のy座標値である。また、値d2(j2)は出力58と比較されるドメイン識別データのj2番目の要素の値である。例えばドメイン識別データの値が(1,0)である場合は、値d2(1)は1となり値d2(2)は0となる。また例えば、ドメイン識別データの値が(0,1)である場合は、値d2(1)は0となり値d2(2)は1となる。また、値p2(j2)(x,y)は、ソースドメイン学習画像又はターゲットドメイン学習画像における座標値(x,y)の画素に対応するソフトマックスクロスエントロピーのj2番目の要素である。
Figure 0007013489000003
式(3)に示すようにここでは例えば、各ドメインについて、ドメイン識別データの要素の値d2(j2)とソフトマックスクロスエントロピーの値p2(j2)(x,y)の対数との積が算出される。そして各ドメインについて算出される当該積の和が算出される。そしてソース分類学習画像に含まれる各画素について算出される当該和の合計をWとHの積で割ることによって平均化した値の符号を反転させた値が目的関数の値L2(i)として算出される。
ここで例えば、ソフトマックスクロスエントロピーの値p2(j2)は、例えば、以下の式(4)で計算される値である。
Figure 0007013489000004
式(4)に示すように例えば、出力58のj2番目の要素u2(j2)の値を引数とする指数関数の値を、出力58の要素u2の値を引数とする指数関数の値を各要素について合計した値で割った値が、ソフトマックスクロスエントロピーの値p2(j2)となる。
そして本実施形態では、1個のソースドメイン学習画像に対応付けられるn個の部分特徴量データ52又は1個のターゲットドメイン学習画像に対応付けられるn個の部分特徴量データ54について、目的関数の値L2(i)(i=1~n)が算出される。
そしてこのようにして算出されるn個の目的関数の値L2(i)に基づいて、1個のソースドメイン学習画像又は1個のターゲットドメイン学習画像に対応付けられる目的関数の値L3が算出される。例えば以下の式(5)における値L3が当該目的関数の値L3に相当する。ここで値a(i)は、例えばユーザによって任意に設定される、i番目のクラスに対する重みを表す値である。
Figure 0007013489000005
式(5)に示すように例えば、重みa(i)による、目的関数の値L2(i)の重み付き和が、目的関数の値L3となる。
本実施形態では、算出される目的関数の値L3を最適化するよう、ターゲットドメイン特徴量抽出部40又はドメイン識別部56を構成する要素の重み係数などといったパラメータの値が変更される。
ここで例えば、ドメイン識別部56のパラメータの値の変更と、ターゲットドメイン特徴量抽出部40のパラメータの値の変更とが交互に実行されてもよい。ここでドメイン識別部56のパラメータの値の変更の際には、ターゲットドメイン特徴量抽出部40のパラメータの値は固定されるようにしてもよい。またターゲットドメイン特徴量抽出部40のパラメータの値の変更の際には、ドメイン識別部56のパラメータの値は固定されるようにしてもよい。
例えば所定数の画像を用いたドメイン識別部56のパラメータの値の変更と所定数の画像を用いたターゲットドメイン特徴量抽出部40のパラメータの値の変更とが、交互に繰り返し実行されるようにしてもよい。ここでドメイン識別部56については、算出される目的関数の値L3を極小化するようパラメータの値が変更されてもよい。ターゲットドメイン特徴量抽出部40については、算出される目的関数の値L3の正負を反転させた値を極小化するよう(目的関数の値L3を極大化するよう)パラメータの値が変更されてもよい。
以上で説明したように本実施形態に係るドメイン識別学習では、ドメイン識別データは必要であるが、上述のベクトルd1のような、複数のクラスについての教師データは不要である。
そして本実施形態では例えば、図4に示すように、以上のようにして分類学習及びドメイン識別学習が実行された機械学習モデルを分類装置として用いて、ターゲットドメインに属する画像についての複数のクラスへの分類処理が実行される。
図4に示すように、本実施形態に係る分類装置として、ドメイン識別学習による学習が実行されたターゲットドメイン特徴量抽出部40と、分類学習による学習が実行された分類部32と、が用いられる。
本実施形態に係る分類処理では例えば、分類処理の対象となるターゲットドメインに属する画像がターゲットドメイン特徴量抽出部40に入力60として入力される。そしてターゲットドメイン特徴量抽出部40は、当該画像に対応する特徴量データ62を出力する。当該特徴量データ62は、分類部32に入力される。そして分類部32に当該特徴量データ62が入力された際の出力64に基づいて、ターゲットドメイン特徴量抽出部40に入力された画像に対する分類処理を実行する。ここで例えば当該画像に対するセマンティックセグメンテーションの実行結果を示す画像が生成されるようにしてもよい。
セマンティックセグメンテーションの実行結果を示す画像は、例えば、上述の所与の複数のクラスのそれぞれに対応付けられる複数の領域に画素単位で分割された画像であってよい。ここで各領域が、当該領域に対応付けられるクラスに応じた色で表現されてもよい。こうすれば、ユーザはセマンティックセグメンテーションの実行結果を示す画像を表示部18に表示させることなどによって、それぞれの領域について、当該領域に対応するクラスを確認できる。また当該画像が、自動車の自動運転制御などといった各種の制御における入力として用いられてもよい。
例えばドメイン識別学習において、分割部50による分割が行われずに特徴量データ44又は特徴量データ48がドメイン識別部56に入力されるとする。またこの場合に、ドメイン識別部56の出力は、例えば、1個のソースドメイン学習画像又は1個のターゲットドメイン学習画像に対応する、2個の要素u3(k3)(k3=1又は2)を含むベクトルとして表現されることとする。
この場合における目的関数の値L4は、例えば、下記の式(6)により算出される。値d3(j3)はドメイン識別部56の出力と比較されるドメイン識別データのj3番目の要素の値である。例えばドメイン識別データの値が(1,0)である場合は、値d3(1)は1となり値d3(2)は0となる。また例えば、ドメイン識別データの値が(0,1)である場合は、値d3(1)は0となり値d3(2)は1となる。また、値p3(j3)は、ソースドメイン学習画像又はターゲットドメイン学習画像に対応するソフトマックスクロスエントロピーのj3番目の要素である。
Figure 0007013489000006
式(6)に示すようにここでは例えば、各ドメインについて、ドメイン識別データの要素の値d3(j3)とソフトマックスクロスエントロピーの値p3(j3)の対数との積が算出される。そして各ドメインについて算出される当該積の和が算出される。当該和の合計の符号を反転させた値が目的関数の値L4として算出される。
ここで例えば、ソフトマックスクロスエントロピーの値p3(j3)は、例えば、以下の式(7)で計算される値である。
Figure 0007013489000007
式(7)に示すように例えば、出力のj3番目の要素u3(j3)の値を引数とする指数関数の値を、出力の要素u3の値を引数とする指数関数の値を各要素について合計した値で割った値が、ソフトマックスクロスエントロピーの値p3(j3)となる。
上述の目的関数の値L3は、1個の画像に対応付けられる、個々のクラスに対応する部分特徴量データのドメイン識別部56への入力に基づいて算出される目的関数の値L2(i)に応じたものである。一方で、目的関数の値L4は、1個の画像に対応付けられる特徴量データの全体のドメイン識別部56への入力に基づいて算出される。ここで特徴量データの全体よりも部分特徴量データの方が、その特徴には一定の傾向があるものと考えられる。そのためソースドメインに属する画像が入力されたかターゲットドメインに属する画像が入力されたかというドメイン識別部56が解くべき課題は、部分特徴量データが入力される場合の方が特徴量データの全体が入力される場合よりも単純化されているといえる。
そのため本実施形態に係る画像処理装置10では、特徴量データを分割した部分特徴量データによるドメイン識別学習を実行することにより、特徴量データ全体によるドメイン識別学習を実行するよりも高い学習精度を得ることができることとなる。その結果、本実施形態に係る画像処理装置10では、ターゲットドメインに属する画像の分類精度を向上できることとなる。
なお目的関数の値L2(i)として、式(3)に示したソフトマックスクロスエントロピーに基づくものの代わりに、以下の式(8)で計算される、二乗誤差に基づくものを用いてもよい。ここで例えば、式(8)における値u2(j2)(x,y)は、ソースドメイン学習画像又はターゲットドメイン学習画像における座標値(x,y)の画素に対応する出力58のj2番目の要素の値である。
Figure 0007013489000008
またドメイン識別部56が、それぞれクラスに対応付けられるn個のサブドメイン識別部を含んでいてもよい。そして、i番目のクラスに対応付けられる部分特徴量データ52又は部分特徴量データ54は、i番目のサブドメイン識別部に入力されるようにしてもよい。そして、目的関数の値L2(i)に基づいて、i番目のサブドメイン識別部の学習が実行されるようにしてもよい。このようにすれば、クラスに応じたサブドメイン識別部の学習が実行されるため、ドメイン識別学習において高い学習精度を得ることができることとなる。
また例えば上述のADDAの技術の代わりに、"Ganin, Y. and V. Lempitsky, Unsupervised domain adaptation by backpropagation. arXiv preprint arXiv:1409.7495, 2014."に記載されている技術を用いたドメイン識別学習が実行されるようにしてもよい。またこの場合に、ADDAの技術を用いたドメイン識別学習と同様に、ドメイン識別部56には、部分特徴量データが入力されるようにしてもよい。この技術では、ソースドメイン特徴量抽出部30を構成する要素のパラメータの値と、ターゲットドメイン特徴量抽出部40を構成する要素のパラメータの値と、は共通化されるようドメイン識別学習が行われる。当該ドメイン識別学習では、ソースドメインの画像とターゲットドメインの画像とを区別する特徴量を打ち消すような学習が実行される。その結果、分類処理において、ターゲットドメイン特徴量抽出部40は、ドメインに依存しない特徴量データ62を出力するようになる。
またこの技術によるドメイン識別学習では、1個の画像に対応するドメイン識別部56の出力と当該画像に対応するドメイン識別データとの比較結果に基づいて、特徴量抽出部72及びドメイン識別部56の両方の学習が実行される。
またソースドメインに属する画像とターゲットドメインに属する画像は、それぞれ、CG画像と実写画像である必要はない。例えば、ソースドメインに属する画像が特定の季節に撮影された画像(例えば秋に撮影された画像)であり、ターゲットドメインに属する画像が別の季節に撮影された画像(例えば冬に撮影された画像)であってもよい。また例えば、ソースドメインに属する画像が特定の国で撮影された画像(例えば日本で撮影された画像)であり、ターゲットドメインに属する画像が別の国で撮影された画像(例えばアメリカで撮影された画像)であってもよい。
以下、分類学習及びドメイン識別学習に注目して、画像処理装置10の機能及び画像処理装置10で実行される処理についてさらに説明する。
図5は、本実施形態に係る画像処理装置10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る画像処理装置10で、図5に示す機能のすべてが実装される必要はなく、また、図5に示す機能以外の機能が実装されていても構わない。例えば本実施形態に係る画像処理装置10には、図4を参照して説明したような分類装置の機能が実装されていてもよい。
図5に示すように、画像処理装置10は、機能的には例えば、学習画像取得部70、特徴量抽出部72、分類部32、分類学習部74、分割部50、ドメイン識別部56、ドメイン識別学習部76を含んでいる。また特徴量抽出部72には、例えば、ソースドメイン特徴量抽出部30と、ターゲットドメイン特徴量抽出部40と、が含まれる。以上の要素はプロセッサ12、及び、記憶部14を主として実装される。
以上の機能は、コンピュータである画像処理装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して画像処理装置10に供給されてもよい。
学習画像取得部70は、本実施形態では例えば、画像処理装置10に実装されている機械学習モデルの学習に用いられる学習画像を取得する。例えば学習画像取得部70が、上述のソース分類学習画像や、ソースドメイン学習画像や、ターゲットドメイン学習画像を取得してもよい。
特徴量抽出部72は、本実施形態では例えば、画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む、当該画像に対応する特徴量データを出力する。ここで例えば特徴量抽出部72に含まれるソースドメイン特徴量抽出部30には、ソース分類学習画像やソースドメイン学習画像が入力されるようにしてもよい。そしてソースドメイン特徴量抽出部30は、入力されるソースドメイン学習画像に対応する特徴量データを出力してもよい。また例えば、特徴量抽出部72に含まれるターゲットドメイン特徴量抽出部40には、ターゲットドメイン学習画像が入力されるようにしてもよい。そしてターゲットドメイン特徴量抽出部40は、入力されるターゲットドメイン学習画像に対応する特徴量データを出力してもよい。
分類部32は、本実施形態では例えば、画像に対応する特徴量データの入力に応じて複数のクラスについての当該画像の分類処理の結果を出力する。例えば分類部32は、ソース分類学習画像の入力に応じてソースドメイン特徴量抽出部30が出力する特徴量データ36の入力を受け付ける。そして分類部32は、当該特徴量データ36の入力に応じて上述の所与の複数のクラスについてのソース分類学習画像の分類処理の結果を出力する。
分類学習部74は、本実施形態では例えば、上述の分類学習を実行する。分類学習部74は例えば、ソース分類学習画像に対応する特徴量データ36を分類部32に入力した際の出力と、当該ソース分類学習画像に対応付けられる複数のクラスについての教師データと、の比較結果を特定する。そして分類学習部74は、特定される比較結果に基づいて、特徴量抽出部72及び分類部32の学習を実行する。
分類学習部74は、ソース分類学習画像をソースドメイン特徴量抽出部30に入力してもよい。この場合、ソースドメイン特徴量抽出部30は、当該ソース分類学習画像の入力に応じて当該ソース分類学習画像に対応する特徴量データ36を出力して、当該特徴量データ36を分類部32に入力してもよい。そして分類部32が上述のように当該ソース分類学習画像の分類処理の結果を出力してもよい。そして分類学習部74が、ソースドメイン特徴量抽出部30が出力する特徴量データ36を分類部32に入力した際の出力である当該結果に基づいて、ソースドメイン特徴量抽出部30及び分類部32の学習を実行してもよい。
分割部50は、本実施形態では例えば、ソースドメイン学習画像又はターゲットドメイン学習画像の入力に応じて特徴量抽出部72が出力する特徴量データを特定する。そして分割部50は、本実施形態では例えば、特定される特徴量データを、それぞれ1又は複数のクラスの特徴マップを含む、当該ソースドメイン学習画像又は当該ターゲットドメイン学習画像に対応する複数の部分特徴量データに分割する。ここで上述のように特徴量データがn個に分割され、それぞれ1個のクラスの特徴マップを含むn個の部分特徴量データが生成されてもよい。
また例えば、特徴量抽出部72が出力する特徴量データが、それぞれがn/m個のクラスの特徴マップを含むm個の部分特徴量データに分割されてもよい。例えば自然物である物体に対応付けられるクラスと、人工物である物体に対応付けられるクラスとが、それぞれn/2個あるとする。この場合、特徴量データが、自然物である物体に対応付けられるn/2個のクラスの特徴マップを含む部分特徴量データと、人工物である物体に対応付けられるn/2個のクラスの特徴マップを含む部分特徴量データと、に分割されてもよい。
ドメイン識別部56は、本実施形態では例えば、ソースドメインに属する画像とターゲットドメインに属する画像とを識別する。ドメイン識別部56は、例えば、ソースドメイン学習画像又はターゲットドメイン学習画像に対応する1又は複数の部分特徴量データの入力を受け付ける。そしてドメイン識別部56は、当該入力に応じて、入力された部分特徴量データがソースドメイン学習画像に基づくものである可能性の高さ及びターゲットドメイン学習画像に基づくものである可能性の高さを示すデータを出力する。
ドメイン識別学習部76は、本実施形態では例えば、複数の画像を用いた特徴量抽出部72及びドメイン識別部56の学習を実行する。
ドメイン識別学習部76は、例えばソースドメイン学習画像についてはソースドメイン特徴量抽出部30に入力してもよい。この場合、分割部50が、ソースドメイン特徴量抽出部30が出力する当該ソースドメイン学習画像に対応する特徴量データ44を複数の部分特徴量データ52に分割してもよい。またドメイン識別学習部76は、例えばターゲットドメイン学習画像についてはターゲットドメイン特徴量抽出部40に入力してもよい。この場合、分割部50が、ターゲットドメイン特徴量抽出部40が出力する当該ターゲットドメイン学習画像に対応する特徴量データ48を複数の部分特徴量データ54に分割してもよい。
そしてドメイン識別学習部76が、分割部50によって生成された複数の部分特徴量データのそれぞれについて、ドメイン識別部56に入力してもよい。そしてドメイン識別学習部76が、特徴量抽出部72及びドメイン識別部56の学習を実行してもよい。ここで特徴量抽出部72及びドメイン識別部56の学習が、1個の画像に対応する複数の部分特徴量データにそれぞれに対応するドメイン識別部56からの出力と当該画像に対応するドメイン識別データとの比較結果に基づいて実行されてもよい。ここで上述のように、ドメイン識別学習部76が、ドメイン識別部56からの出力とドメイン識別データとの比較結果に基づいて、ドメイン識別部56の学習、又は、ターゲットドメイン特徴量抽出部40の学習のいずれかを実行してもよい。
なお、ドメイン識別学習部76は、分割部50によって生成された部分特徴量データのすべてをドメイン識別部56に入力する必要はない。例えば他のいずれのクラスにも分類されない「その他」のクラスに対応付けられる部分特徴量データはドメイン識別部56に入力されなくてもよい。
また式(5)に示すように、ドメイン識別学習部76が、複数の部分特徴量データのそれぞれについての、当該部分特徴量データをドメイン識別部56に入力した際の出力に応じた目的関数の値の重み付き和に基づいて、特徴量抽出部72の学習を実行してもよい。ここで例えば、CG画像と実写画像とで特徴が大きく異なるクラスの重みa(i)が他のクラスの重みa(i)よりも重くなるよう、重みa(i)が設定されてもよい。
また上述のように、ドメイン識別部56が、分割部50により分割される複数の部分特徴量データにそれぞれ対応する複数のサブドメイン識別部を含んでいてもよい。そしてドメイン識別学習部76が、部分特徴量データを当該部分特徴量データに対応するサブドメイン識別部に入力した際の出力に基づいて、特徴量抽出部72の学習を実行してもよい。
ここで、本実施形態に係る画像処理装置10で行われる分類学習の処理の流れの一例を、図6に例示するフロー図を参照しながら説明する。ここでは例えば、q1個のソース分類学習画像によって実行される分類学習の処理の流れの一例について説明することとする。
まず、分類学習部74が、変数q2の値として1を設定する(S101)。
そして分類学習部74が、q2番目のソース分類学習画像をソースドメイン特徴量抽出部30に入力する(S102)。
するとソースドメイン特徴量抽出部30は、S102に示す処理で入力されたソース分類学習画像に応じた特徴量データ36を出力する(S103)。
すると分類部32が、S103に示す処理でソースドメイン特徴量抽出部30から出力された特徴量データ36を受け付ける(S104)。
そして分類部32が、S104に示す処理で入力された特徴量データに応じて、上述の所与の複数のクラスについての、S102に示す処理で入力されたソース分類学習画像の分類処理の結果を出力する(S105)。
そして分類学習部74が、S105に示す処理における分類部32の出力とS102に示す処理で入力されたソース分類学習画像に対応付けられる教師データとを比較する(S106)。ここでは例えば、上述の目的関数の値L1が算出されてもよい。
そして分類学習部74が、S106に示す処理での比較の結果に基づいて、ソースドメイン特徴量抽出部30及び分類部32の学習を実行する(S107)。ここでは例えば、ソースドメイン特徴量抽出部30及び分類部32を構成する要素のパラメータの値が更新される。
そして分類学習部74は、変数q2の値がq1未満であるか否かを確認する(S108)。変数q2の値がq1未満である場合は(S108:Y)、分類学習部74は、変数q2の値を1増やして(S109)、S102に示す処理に戻る。変数q2の値がq1未満でない場合は(S108:N)、本処理例に示す処理は終了される。
次に、本実施形態に係る画像処理装置10で行われるドメイン識別学習の処理の流れの一例を、図7に例示するフロー図を参照しながら説明する。ここでは例えば、それぞれq3個の画像によって構成されるr1個の画像群によって実行されるドメイン識別学習の処理の流れの一例について説明することとする。ここで画像群に含まれる画像には、ソースドメイン学習画像とターゲットドメイン学習画像とが含まれることとする。また値r1は偶数であることとする。
まず、ドメイン識別学習部76が、変数q4の値として1を設定し、変数r2の値として1を設定する(S201)。
そしてドメイン識別学習部76が、r2番目の画像群に含まれる、q4番目の画像を特徴量抽出部72に入力する(S202)。ここで当該画像がソースドメイン学習画像である場合はソースドメイン特徴量抽出部30に入力され、当該画像がターゲットドメイン学習画像である場合はターゲットドメイン特徴量抽出部40に入力されるようにしてもよい。
そして特徴量抽出部72は、S202に示す処理で入力された画像に応じた特徴量データを出力する(S203)。
そして分割部50が、S203に示す処理で特徴量抽出部72が出力した特徴量データを、複数の部分特徴量データに分割する(S204)。
そしてドメイン識別学習部76は、S204に示す処理で生成された複数の部分特徴量データのそれぞれについて、ドメイン識別部56に入力された際の出力を特定する(S205)。ここで例えば上述のように、S204に示す処理で生成された複数の部分特徴量データのすべてが共通のドメイン識別部56に入力されてもよいし、クラスに対応付けられるサブドメイン識別部に当該クラスに対応する部分特徴量データが入力されてもよい。
そしてドメイン識別学習部76は、S205に示す処理で特定される出力と当該出力に対応するドメイン識別データとを比較する(S206)。ここでは例えば、上述の目的関数の値L2(i)、及び、値L2(i)に応じた値L3が算出されてもよい。
そしてドメイン識別学習部76が、変数r2の値が奇数であるか偶数であるかを確認する(S207)。
変数r2の値が奇数である場合は、ドメイン識別学習部76が、S206に示す処理での比較の結果に基づいて、ターゲットドメイン特徴量抽出部40の学習を実行する(S208)。ここでは例えば、ターゲットドメイン特徴量抽出部40を構成する要素のパラメータの値が更新される。この場合は、S208に示す処理においてソースドメイン特徴量抽出部30及びドメイン識別部56を構成する要素のパラメータの値は固定される。
変数r2の値が偶数である場合は、ドメイン識別学習部76が、S206に示す処理での比較の結果に基づいて、ドメイン識別部56の学習を実行する(S209)。ここでは例えば、ドメイン識別部56を構成する要素のパラメータの値が更新される。この場合は、S209に示す処理においてソースドメイン特徴量抽出部30及びターゲットドメイン特徴量抽出部40を構成する要素のパラメータの値は固定される。
そしてドメイン識別学習部76は、変数q4の値がq3未満であるか否かを確認する(S210)。変数q4の値がq3未満である場合は(S210:Y)、ドメイン識別学習部76は、変数q4の値を1増やして(S211)、S202に示す処理に戻る。
変数q4の値がq3未満でない場合は(S210:N)、ドメイン識別学習部76は、変数r2の値がr1未満であるか否かを確認する(S212)。変数r2の値がr1未満である場合は(S212:Y)、ドメイン識別学習部76は、変数q4の値を1に設定し、変数r2の値を1増やして(S213)、S202に示す処理に戻る。
変数r2の値がr1未満でない場合は(S212:N)、本処理例に示す処理は終了される。
以上のようにして、図7に示す処理例では、例えば、q3個の画像によるターゲットドメイン特徴量抽出部40の学習と、q3個の画像によるドメイン識別部56の学習と、が交互に実行されることとなる。
以下、ドメインアダプテーションの一活用例について説明する。
図8は、ドメインアダプテーションに一活用例に係る実写画像分類装置の生成システムの構成図である。図8に示すように本活用例に係る実写画像分類装置の生成システムには、インターネット等のコンピュータネットワーク80を介して互いに通信可能である、サーバ82と、複数の画像処理装置10と、が含まれる。
図8に例示する画像処理装置10には、上述のように、例えば、プロセッサ12、記憶部14、操作部16、表示部18、通信部20が含まれる。
またサーバ82には、プロセッサ82a、記憶部82b、通信部82c、が含まれる。プロセッサ82aは、例えばサーバ82にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部82bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部82bには、プロセッサ82aによって実行されるプログラムなどが記憶される。通信部82cは、ネットワークボードや無線LANモジュールなどの通信インタフェースなどである。
本活用例では例えば、サーバ82が、CG画像によって学習済である機械学習モデルを複数の画像処理装置10のそれぞれに送信する。ここでは例えば1つの機械学習モデル(共通の機械学習モデル)が複数の画像処理装置10のそれぞれに送信される。そして複数の画像処理装置10のそれぞれは、サーバ82が送信する機械学習モデルを取得する。当該機械学習モデルは、例えばCG画像による分類学習が実行済である、ソースドメイン特徴量抽出部30及び分類部32に相当する。本活用例では例えば、ソースドメイン特徴量抽出部30は、CG画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する。そして分類部32は、当該特徴量データの入力に応じてソースドメイン特徴量抽出部30に入力されたCG画像についての複数のクラスへの分類処理の結果を出力する。ここで画像処理装置10が、通信部20を介して通信可能なサーバから当該学習済の機械学習モデルを受信してもよい。
そして複数の画像処理装置10のそれぞれにおいて、CG画像と、当該画像処理装置10を利用するユーザの環境における実写画像と、受信した学習済である機械学習モデルと、に基づいて、ドメイン識別学習部76が、ドメイン識別学習を実行してもよい。ここでドメイン識別学習に用いられるCG画像は、サーバ82から受信した機械学習モデルの学習に用いられたCG画像であってもよい。また例えば、ドメイン識別学習において、ユーザが撮影した実写画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力するターゲットドメイン特徴量抽出部40の学習が実行されてもよい。
そして画像処理装置10が、当該画像処理装置10を利用するユーザの環境における実写画像についての複数のクラスへの分類処理を実行する実写画像分類装置を生成してもよい。この場合、例えば、学習済のターゲットドメイン特徴量抽出部40と、取得した機械学習モデルに含まれる学習済の分類部32と、に基づいて、実写画像分類装置が生成されてもよい。そしてこのようにして生成された実写画像分類装置を用いて、ユーザの環境における実写画像についての複数のクラスへの分類処理が実行されてもよい。
なお以上で説明した実写画像分類装置の生成におけるドメイン識別学習の実装は、図2~図7を参照して説明した一実装例における実装には限定されない。図2~図7を参照して説明した実装とは異なる実装により、実写画像分類装置の生成におけるドメイン識別学習が実行されてもよい。
以上のようにすれば、CG画像によって学習済である1つの機械学習モデルを用いて、複数のユーザのそれぞれの環境に適応した、実写画像についての複数のクラスへの分類処理を実行する実写画像分類装置を生成できる。
なお、以上の活用例における実写画像分類装置の生成に係る機能は、コンピュータであるサーバ82や画像処理装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してサーバ82や画像処理装置10に供給されてもよい。
なお、本発明は上述の実施形態に限定されるものではない。
また、上記の具体的な文字列や数値及び図面中の具体的な文字列や数値は例示であり、これらの文字列や数値には限定されない。

Claims (7)

  1. 画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する特徴量抽出部と、当該特徴量データの入力に応じて前記複数のクラスについての当該画像の分類処理の結果を出力する分類部と、を含む分類装置の学習を実行する学習装置であって、
    ソースドメインに属する分類学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを前記分類部に入力した際の出力と、当該分類学習画像に対応付けられる前記複数のクラスについての教師データと、の比較結果に基づいて、前記特徴量抽出部及び前記分類部の学習を実行する分類学習部と、
    それぞれ前記ソースドメイン又はターゲットドメインのいずれかに属するドメイン学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを、それぞれ1又は複数の前記クラスの前記特徴マップを含む当該ドメイン学習画像に対応する複数の部分特徴量データに分割する分割部と、
    前記ソースドメインに属する画像と前記ターゲットドメインに属する画像とを識別するドメイン識別部に当該ドメイン学習画像に対応する前記部分特徴量データを入力した際の出力と、当該ドメイン学習画像が前記ソースドメインに属するか前記ターゲットドメインに属するかを示すデータと、の比較結果に基づいて、前記特徴量抽出部の学習を実行するドメイン識別学習部と、
    を含むことを特徴とする学習装置。
  2. 前記ドメイン識別学習部は、複数の前記部分特徴量データのそれぞれについての、当該部分特徴量データを前記ドメイン識別部に入力した際の出力に応じた目的関数の値の重み付き和に基づいて、前記特徴量抽出部の学習を実行する、
    ことを特徴とする請求項1に記載の学習装置。
  3. 前記ドメイン識別部は、前記分割部により分割される複数の前記部分特徴量データにそれぞれ対応する複数のサブドメイン識別部、を含み、
    前記ドメイン識別学習部は、前記部分特徴量データを当該部分特徴量データに対応する前記サブドメイン識別部に入力した際の出力に基づいて、前記特徴量抽出部の学習を実行する、
    ことを特徴とする請求項1に記載の学習装置。
  4. サーバと、複数の装置と、を含み、
    前記サーバは、
    CG画像によって学習済である、CG画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する特徴量抽出部と、当該特徴量データの入力に応じて前記特徴量抽出部に入力された画像についての前記複数のクラスへの分類処理の結果を出力する分類部と、を含む機械学習モデルを、前記複数の装置のそれぞれに送信する送信部、を含み、
    前記複数の装置のそれぞれは、
    前記サーバが送信する前記機械学習モデルを受信する受信部と、
    それぞれCG画像又は当該装置を利用するユーザの環境における実写画像のいずれかであるドメイン学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを、それぞれ1又は複数の前記クラスの前記特徴マップを含む当該ドメイン学習画像に対応する複数の部分特徴量データに分割する分割部と、
    前記CG画像と前記実写画像とを識別するドメイン識別部に当該ドメイン学習画像に対応する前記部分特徴量データを入力した際の出力と、当該ドメイン学習画像がCG画像であるか実写画像であるかを示すデータと、の比較結果に基づいて、前記特徴量抽出部の学習を実行するドメイン識別学習部と、
    前記ドメイン識別学習部による学習が実行済の前記特徴量抽出部と、前記機械学習モデルに含まれる学習済の前記分類部と、に基づいて、前記ユーザの環境における実写画像についての前記複数のクラスへの分類処理を実行する実写画像分類装置を生成する生成部と、
    を含むことを特徴とする実写画像分類装置の生成システム。
  5. CG画像によって学習済である、CG画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する特徴量抽出部と、当該特徴量データの入力に応じて前記特徴量抽出部に入力された画像についての前記複数のクラスへの分類処理の結果を出力する分類部と、を含む機械学習モデルをサーバから受信する受信部と、
    それぞれCG画像又は実写画像のいずれかであるドメイン学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを、それぞれ1又は複数の前記クラスの前記特徴マップを含む当該ドメイン学習画像に対応する複数の部分特徴量データに分割する分割部と、
    前記CG画像と前記実写画像とを識別するドメイン識別部に当該ドメイン学習画像に対応する前記部分特徴量データを入力した際の出力と、当該ドメイン学習画像がCG画像であるか実写画像であるかを示すデータと、の比較結果に基づいて、前記特徴量抽出部の学習を実行するドメイン識別学習部と、
    前記ドメイン識別学習部による学習が実行済の前記特徴量抽出部と、前記機械学習モデルに含まれる学習済の前記分類部と、に基づいて、実写画像についての前記複数のクラスへの分類処理を実行する実写画像分類装置を生成する生成部と、
    を含むことを特徴とする実写画像分類装置の生成装置。
  6. 画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する特徴量抽出部と、当該特徴量データの入力に応じて前記複数のクラスについての当該画像の分類処理の結果を出力する分類部と、を含む分類装置の学習を実行する学習方法であって、
    ソースドメインに属する分類学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを前記分類部に入力した際の出力と、当該分類学習画像に対応付けられる前記複数のクラスについての教師データと、の比較結果に基づいて、前記特徴量抽出部及び前記分類部の学習を実行するステップと、
    それぞれ前記ソースドメイン又はターゲットドメインのいずれかに属するドメイン学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを、それぞれ1又は複数の前記クラスの前記特徴マップを含む当該ドメイン学習画像に対応する複数の部分特徴量データに分割するステップと、
    前記ソースドメインに属する画像と前記ターゲットドメインに属する画像とを識別するドメイン識別部に当該ドメイン学習画像に対応する前記部分特徴量データを入力した際の出力と、当該ドメイン学習画像が前記ソースドメインに属するか前記ターゲットドメインに属するかを示すデータと、の比較結果に基づいて、前記特徴量抽出部の学習を実行するステップと、
    を含むことを特徴とする学習方法。
  7. 画像の入力に応じて所与の複数のクラスのそれぞれに対応する特徴マップを含む特徴量データを出力する特徴量抽出部と、当該特徴量データの入力に応じて前記複数のクラスについての当該画像の分類処理の結果を出力する分類部と、を含む分類装置の学習をコンピュータに実行させるプログラムであって、
    ソースドメインに属する分類学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを前記分類部に入力した際の出力と、当該分類学習画像に対応付けられる前記複数のクラスについての教師データと、の比較結果に基づいて、前記特徴量抽出部及び前記分類部の学習を実行する手順、
    それぞれ前記ソースドメイン又はターゲットドメインのいずれかに属するドメイン学習画像の入力に応じて前記特徴量抽出部が出力する前記特徴量データを、それぞれ1又は複数の前記クラスの前記特徴マップを含む当該ドメイン学習画像に対応する複数の部分特徴量データに分割する手順、
    前記ソースドメインに属する画像と前記ターゲットドメインに属する画像とを識別するドメイン識別部に当該ドメイン学習画像に対応する前記部分特徴量データを入力した際の出力と、当該ドメイン学習画像が前記ソースドメインに属するか前記ターゲットドメインに属するかを示すデータと、の比較結果に基づいて、前記特徴量抽出部の学習を実行する手順、
    を前記コンピュータに実行させることを特徴とするプログラム。
JP2019567481A 2018-01-26 2018-01-26 学習装置、実写画像分類装置の生成システム、実写画像分類装置の生成装置、学習方法及びプログラム Active JP7013489B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/002409 WO2019146057A1 (ja) 2018-01-26 2018-01-26 学習装置、実写画像分類装置の生成システム、実写画像分類装置の生成装置、学習方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019146057A1 JPWO2019146057A1 (ja) 2020-10-01
JP7013489B2 true JP7013489B2 (ja) 2022-02-15

Family

ID=67395866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019567481A Active JP7013489B2 (ja) 2018-01-26 2018-01-26 学習装置、実写画像分類装置の生成システム、実写画像分類装置の生成装置、学習方法及びプログラム

Country Status (3)

Country Link
US (1) US11308367B2 (ja)
JP (1) JP7013489B2 (ja)
WO (1) WO2019146057A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7166738B2 (ja) * 2019-10-15 2022-11-08 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
CN111444859A (zh) * 2020-03-30 2020-07-24 哈尔滨工程大学 一种无监督跨域人脸表情识别方法
US20230215152A1 (en) 2020-06-03 2023-07-06 Nec Corporation Learning device, trained model generation method, and recording medium
WO2022003974A1 (ja) * 2020-07-03 2022-01-06 株式会社ソニー・インタラクティブエンタテインメント 追加撮影要否通知装置、追加撮影要否通知方法及びプログラム
US11733957B2 (en) * 2021-09-27 2023-08-22 International Business Machines Corporation Real time sharing of relevant information in virtual meetings
CN114882452B (zh) * 2022-05-17 2022-12-30 张弛 轨道线路安全监测方法、列车运行控制方法及控制系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137756A (ja) 2013-01-17 2014-07-28 Canon Inc 画像処理装置および画像処理方法
JP2016139176A (ja) 2015-01-26 2016-08-04 シャープ株式会社 画像処理装置、画像処理システム、画像処理方法、およびその画像処理プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6044556B2 (ja) * 2014-01-16 2016-12-14 株式会社デンソー 学習システム、車載装置、及び、サーバ
JP6771645B2 (ja) * 2016-07-28 2020-10-21 グーグル エルエルシー ドメイン分離ニューラルネットワーク
US10832166B2 (en) * 2016-12-20 2020-11-10 Conduent Business Services, Llc Method and system for text classification based on learning of transferable feature representations from a source domain
US20180330205A1 (en) * 2017-05-15 2018-11-15 Siemens Aktiengesellschaft Domain adaptation and fusion using weakly supervised target-irrelevant data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137756A (ja) 2013-01-17 2014-07-28 Canon Inc 画像処理装置および画像処理方法
JP2016139176A (ja) 2015-01-26 2016-08-04 シャープ株式会社 画像処理装置、画像処理システム、画像処理方法、およびその画像処理プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ysasaki6023,Chainerでfine-tuningを行う,[オンライン],2016年12月31日,https://qiita.com/ysasaki6023/items/3040fe3896fe1ed844c3,[検索日 2018.04.18], インターネット:<URL:https://qiita.com/ysasaki6023/items/3040fe3896fe1e
中山 英樹,深層畳み込みニューラルネットによる画像特徴抽出と転移学習,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2015年07月09日,第115巻 第146号,pp.55-59

Also Published As

Publication number Publication date
WO2019146057A1 (ja) 2019-08-01
JPWO2019146057A1 (ja) 2020-10-01
US11308367B2 (en) 2022-04-19
US20210064912A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
JP7013489B2 (ja) 学習装置、実写画像分類装置の生成システム、実写画像分類装置の生成装置、学習方法及びプログラム
Xiang et al. Learning rgb-d feature embeddings for unseen object instance segmentation
US9111375B2 (en) Evaluation of three-dimensional scenes using two-dimensional representations
CN111144242B (zh) 一种三维目标检测方法、装置及终端
TWI786330B (zh) 一種圖像處理方法、電子設備及存儲介質
CN111507993A (zh) 一种基于生成对抗网络的图像分割方法、装置及存储介质
CN109583509B (zh) 数据生成方法、装置及电子设备
JP2018535491A (ja) 画像のセマンティックセグメンテーションのためのシステム及びコンピューター実施方法、並びに非一時的コンピューター可読媒体
JP2020537204A (ja) ディープニューラルネットワークの正規化方法および装置、機器、ならびに記憶媒体
Liu et al. Adversarial shape perturbations on 3d point clouds
Zhao et al. Joint face alignment and segmentation via deep multi-task learning
US11403560B2 (en) Training apparatus, image recognition apparatus, training method, and program
CN111047509A (zh) 一种图像特效处理方法、装置及终端
CN111223128A (zh) 目标跟踪方法、装置、设备及存储介质
Cui et al. A gender classification method for Chinese mitten crab using deep convolutional neural network
CN110852351A (zh) 基于图像的垃圾分类方法、装置、终端设备和存储介质
CN116802683A (zh) 图像的处理方法和系统
CN112132145A (zh) 一种基于模型扩展卷积神经网络的图像分类方法及系统
CN111104911A (zh) 一种基于大数据训练的行人重识别方法及装置
Lin et al. Robot grasping based on object shape approximation and LightGBM
CN111401122A (zh) 一种基于知识分类的复杂目标渐近识别方法及装置
CN116710974A (zh) 在合成数据系统和应用程序中使用域对抗学习的域适应
CN113553884B (zh) 手势识别方法、终端设备及计算机可读存储介质
Paharia et al. Optimization of convolutional neural network hyperparameters using improved competitive gray wolf optimizer for recognition of static signs of Indian Sign Language
CN115984583B (zh) 数据处理方法、装置、计算机设备、存储介质和程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220119

R150 Certificate of patent or registration of utility model

Ref document number: 7013489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150