JP7239050B2 - 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
JP7239050B2
JP7239050B2 JP2022500183A JP2022500183A JP7239050B2 JP 7239050 B2 JP7239050 B2 JP 7239050B2 JP 2022500183 A JP2022500183 A JP 2022500183A JP 2022500183 A JP2022500183 A JP 2022500183A JP 7239050 B2 JP7239050 B2 JP 7239050B2
Authority
JP
Japan
Prior art keywords
metadata
image
attribute information
input
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022500183A
Other languages
English (en)
Other versions
JPWO2021161513A1 (ja
Inventor
寛之 鵜澤
周平 吉田
高庸 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021161513A1 publication Critical patent/JPWO2021161513A1/ja
Application granted granted Critical
Publication of JP7239050B2 publication Critical patent/JP7239050B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Description

本発明は、画像処理装置、画像処理システム、画像処理方法、および画像処理プログラムに関し、特に物体検出に用いる画像処理技術に関する。
近年、深層学習を用いて高速に物体を検出する技術が提案されている。一つのネットワークで領域抽出とカテゴリ識別を同時に高速に処理するSingle-stage法を用いた代表的なモデルとして、YOLO(You Only Look Once)や、SSD(Single Shot multibox Detector)が知られている(非特許文献1、非特許文献2参照)。このような物体検出技術は、監視カメラやエッジコンピューティングにおけるAI画像処理などへの利用が検討されている。
例えば、非特許文献1に記載されているYOLOv3による物体検出では、元画像のサイズを320(幅)×320(高さ)画素、416×416画素、または、608×608画素のいずれかにリサイズした入力画像が用いられる。
例えば、元画像がフルHDや4Kなどの高精細画像である場合には、上記のような画像サイズの制約の下では、画像を縮小することが必要となる。高精細画像を縮小することで、画像に含まれる物体の特徴的な部位も縮小されるため、入力画像に対して比較的小さい物体の検出が困難となる場合がある。
そこで、例えば、非特許文献3は、入力画像を複数の画像に分割して、分割された画像ごとに物体検出を行う技術を開示している。しかし、分割された画像を跨ぐような比較的大きい物体は、物体の特徴的な部位も分割されてしまうため、今度は大きい物体の検出が困難となる場合がある。
Joseph Redmon et.al, "YOLOv3: An Incremental Improvement", https://arxiv.org/abs/1804.02767 (https://arxiv.org/pdf/1804.02767.pdf) Wei Liu et.al, "SSD: Single Shot MultiBox Detector", https://arxiv.org/abs/1512.02325 (https://arxiv.org/pdf/1512.02325.pdf) Vit Ruzicka et.al, "Fast and accurate object detection in high resolution 4K and 8K video using GPUs", 2018 IEEE High Performance extreme Computing Conference (HPEC)
従来の技術では、高精細画像を入力画像として用いた場合、深層学習に基づく物体検出モデルにより、入力画像に含まれる比較的大きな物体および比較的小さな物体の両方を検出することが困難であった。
本発明は、上述した課題を解決するためになされたものであり、高精細画像を入力画像として用いた場合であっても、入力画像に含まれる比較的大きな物体および比較的小さな物体の両方を、深層学習に基づく物体検出モデルにより検出できる画像処理技術の実現を目的とする。
上述した課題を解決するために、本発明に係る画像処理装置は、入力画像を分割して複数の第1画像を出力する分割部と、前記複数の第1画像の各々を、予め用意された物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記複数の第1画像の各々に含まれる物体の属性値と、前記物体を囲う第1領域とを含む属性情報の集合を、第1画像の第1メタデータとして取得する第1処理部と、前記入力画像を縮小した第2画像を出力するスケーリング部と、前記第2画像を、前記物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記第2画像に含まれる物体の属性値と、前記物体を囲う第2領域とを含む属性情報の集合を、前記第2画像の第2メタデータとして取得する第2処理部と、前記第2メタデータの属性情報の集合と、前記第2メタデータと前記第1メタデータとで共通しない属性情報の集合とを合わせて、前記入力画像の第3メタデータを生成する合成処理部とを備え、前記第1領域は、前記入力画像における座標情報を有し、前記第2領域は、前記入力画像における座標情報を有することを特徴とする。
上述した課題を解決するために、本発明に係る画像処理システムは、上記の画像処理装置と、分割部と、分割装置と、スケーリング装置と、第2処理装置と、合成処理装置とを備える画像処理システムであって、前記分割装置は、入力画像を分割して複数の第3画像を出力し、前記画像処理装置は複数設けられ、前記画像処理装置の各々は、前記複数の第3画像のうちのいずれか1つの第3画像を入力として用いて、前記第3画像の属性情報の集合を示す第4メタデータを生成し、前記画像処理装置の各々は、前記第3画像を分割して複数の第1画像を出力する前記分割部と、前記複数の第1画像の各々を、予め用意された物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記複数の第1画像の各々に含まれる物体の属性値と、前記物体を囲う第1領域とを含む属性情報の集合を、第1画像の第1メタデータとして取得する前記第1処理部と、前記第3画像を縮小した第2画像を出力する前記スケーリング部と、前記第2画像を、前記物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記第2画像に含まれる物体の属性値と、前記物体を囲う第2領域とを含む属性情報の集合を、前記第2画像の第2メタデータとして取得する前記第2処理部と、前記第2メタデータの属性情報の集合と、前記第2メタデータと前記第1メタデータとで共通しない属性情報の集合とを合わせて、前記第3画像の前記第4メタデータを生成する前記合成処理部とを備え、前記第1領域は、前記入力画像における座標情報を有し、前記第2領域は、前記入力画像における座標情報を有し、前記スケーリング装置は、前記入力画像を縮小した第5画像を出力し、前記第2処理装置は、前記第5画像を、予め用意された物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記第5画像に含まれる物体の属性値と、前記物体を囲う第3領域とを含む属性情報の集合を、前記第5画像の第5メタデータとして取得し、前記合成処理装置は、前記第5メタデータの属性情報の集合と、前記第5メタデータと前記第4メタデータとで共通しない属性情報の集合とを合わせて、前記入力画像の第6メタデータを生成し、前記第3領域は、前記入力画像における座標情報を有することを特徴とする。
上述した課題を解決するために、本発明に係る画像処理方法は、入力画像を分割して複数の第1画像を出力する分割ステップと、前記複数の第1画像の各々を、予め用意された物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記複数の第1画像の各々に含まれる物体の属性値と、前記物体を囲う第1領域とを含む属性情報の集合を、第1画像の第1メタデータとして取得する第1処理ステップと、前記入力画像を縮小した第2画像を出力するスケーリングステップと、前記第2画像を、前記物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記第2画像に含まれる物体の属性値と、前記物体を囲う第2領域とを含む属性情報の集合を、前記第2画像の第2メタデータとして取得する第2処理ステップと、前記第2メタデータの属性情報の集合と、前記第2メタデータと前記第1メタデータとで共通しない属性情報の集合とを合わせて、前記入力画像の第3メタデータを生成する合成処理ステップとを備え、前記第1領域は、前記入力画像における座標情報を有し、前記第2領域は、前記入力画像における座標情報を有することを特徴とする。
上述した課題を解決するために、本発明に係る画像処理プログラムは、コンピュータに、
入力画像を分割して複数の第1画像を出力する分割ステップと、前記複数の第1画像の各々を、予め用意された物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記複数の第1画像の各々に含まれる物体の属性値と、前記物体を囲う第1領域とを含む属性情報の集合を、第1画像の第1メタデータとして取得する第1処理ステップと、前記入力画像を縮小した第2画像を出力するスケーリングステップと、前記第2画像を、前記物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記第2画像に含まれる物体の属性値と、前記物体を囲う第2領域とを含む属性情報の集合を、前記第2画像の第2メタデータとして取得する第2処理ステップと、前記第2メタデータの属性情報の集合と、前記第2メタデータと前記第1メタデータとで共通しない属性情報の集合とを合わせて、前記入力画像の第3メタデータを生成する合成処理ステップとを実行させ、前記第1領域は、前記入力画像における座標情報を有し、前記第2領域は、前記入力画像における座標情報を有することを特徴とする。
本発明によれば、入力画像を縮小した第2画像の第2メタデータの属性情報の集合と、入力画像を分割した複数の第1画像の第1メタデータとで共通しない属性情報の集合と第2メタデータの属性情報の集合とを合わせて、入力画像の第3メタデータを生成する。そのため、高精細画像の入力画像に含まれる比較的大きな物体および小さな物体の両方を、深層学習に基づく物体検出モデルにより検出することができる。
図1は、本発明の第1の実施の形態に係る画像処理装置の機能構成を示すブロック図である。 図2は、第1の実施の形態に係る画像処理装置の概要を示す説明図である。 図3は、第1の実施の形態に係る画像処理装置を実現するコンピュータ構成の一例を示すブロック図である。 図4は、第1の実施の形態に係る画像処理装置によって処理される分割画像を説明するための図である。 図5は、第1の実施の形態に係る画像処理装置の動作を説明するためのフローチャートである。 図6は、第1の実施の形態に係る画像処理装置による分割処理を説明するためのフローチャートである。 図7は、第1の実施の形態に係る画像処理装置による全体処理を説明するためのフローチャートである。 図8は、第1の実施の形態に係る画像処理装置による合成処理を説明するためのフローチャートである。 図9は、第1の実施の形態に係る画像処理装置によるメタデータの選別処理を説明するためのフローチャートである。 図10は、第2の実施の形態に係る画像処理装置によるメタデータの選別処理を説明するためのフローチャートである。 図11は、第3の実施の形態に係る画像処理装置によるメタデータの選別処理を説明するためのフローチャートである。 図12は、第4の実施の形態に係る画像処理システムの構成を示すブロック図である。
以下、本発明の好適な実施の形態について、図1から図12を参照して詳細に説明する。
[発明の概要]
はじめに、本発明の実施の形態に係る画像処理装置1の概要について図2を参照して説明する。本実施の形態に係る画像処理装置1では、入力画像Iinを複数の画像に分割した、分割画像ごとに物体検出を行う分割処理と、入力画像Iinを縮小した全体画像の物体検出を行う全体処理とが実行される。
分割処理では、図2に示すように、分割画像ごとに予め用意された物体検出モデルを用いて物体検出が行われ、物体検出の結果として、分割画像の属性情報の集合を含むメタデータMD1(第1メタデータ)が取得される。一方において、全体処理では、全体画像に対して予め用意された物体検出モデルを用いて物体検出が行われ、物体検出の結果として、全体画像の属性情報の集合を含むメタデータMD2(第2メタデータ)が取得される。
画像処理装置1が、分割処理により生成する分割画像のメタデータMD1の属性情報には、分割画像に含まれる物体の属性値(例えば、図2に示す「dog」)と、その物体を囲う四角枠(第1領域)とが含まれる。メタデータMD1に含まれる物体を囲う四角枠には、入力画像Iinにおける座標情報が含まれる。
同様に、全体画像のメタデータMD2の属性情報には、全体画像に含まれる物体の属性値と、その物体を囲う四角枠(第2領域)とが含まれる。メタデータMD2に含まれる物体を囲う四角枠には、物体の入力画像Iinにおける座標情報が含まれる。
また、本実施の形態に係る画像処理装置1は、全体画像のメタデータMD2の属性情報の集合と、分割画像のメタデータMD1とで共通しない属性情報の集合とを合わせて、入力画像IinのメタデータMD(第3メタデータ)として生成する合成処理(第3処理)を実行する。画像データである入力画像Iinに付加されるメタデータMDは、分割画像と全体画像との間でメタデータの重複が排除された付加情報、つまり、全体画像のメタデータMD2を分割画像のメタデータMD1で補間した付加情報である。メタデータMDは、入力画像Iinの物体検出の最終的な結果である。
このように、本実施の形態に係る画像処理装置1は、全体画像で検出できなかった物体が存在する全体画像のメタデータMD2を、分割画像でのみ検出された物体を含むメタデータMD1で補間する。本実施の形態に係る画像処理装置1は、入力画像Iinとして高精細画像が用いられた場合であっても、入力画像Iinに含まれる大小両方のサイズの物体を検出することができる。
[第1の実施の形態]
まず、本発明の第1の実施の形態に係る画像処理装置1の機能構成について図1のブロック図を参照して説明する。図1に示すように、画像処理装置1は、入力画像Iinを入力とし、分割処理(第1処理)、全体処理(第2処理)、および合成処理(第3処理)を行い、入力画像IinのメタデータMDを生成し出力する。
[画像処理装置の機能ブロック]
画像処理装置1は、第1処理部110、第2処理部120、および第3処理部130を備える。
第1処理部110は、分割部111、スケーリング部112、物体検出部113、およびメタデータ調整部114を備える。第1処理部110は、図2で説明した分割処理を実行する機能ブロックである。
分割部111は、入力画像Iinとして入力される高精細画像の元画像を複数の分割画像(第1画像)に分割して出力する。例えば、入力画像IinのサイズをWin(幅)×Hin(高さ)とする。入力画像Iinの幅は、図2に示すように、紙面の左右方向に沿った長さをいい、入力画像Iinの高さは、紙面の上下方向の長さをいう。
分割部111は、入力画像Iinの幅方向の分割数N、高さ方向の分割数Nとして、入力画像Iinを複数の分割画像に分割する。図2の「分割処理」、および図4に示す例では、入力画像IinがN=2、N=2の、合計4つの分割画像に分割されている。
スケーリング部112は、複数の分割画像の各々を、深層学習に基づく物体検出モデルに入力することができる指定の画像サイズに縮小するスケーリング処理を行う。スケーリング部112は、後述の物体検出部113が用いる物体検出モデルの入力画像のサイズに対応するように、各分割画像の幅と高さとの比などのパラメータ値を維持したまま画像サイズを縮小する。
物体検出部113は、スケーリング部112で縮小された分割画像を入力として、所定の深層学習に基づく学習済みの物体検出モデルの演算を行い、分割画像に含まれる物体の属性値と、入力画像Iinにおける物体の座標情報を有するその物体を囲う四角い枠(第1領域)とを含む属性情報の集合を、分割画像のメタデータMD1として取得する。このように、メタデータMD1は、物体の属性値と四角枠BB1とからなる属性情報の集合である。
物体検出部113によって取得されるメタデータMD1に含まれる、分割画像で検出された物体を囲う四角い枠は、バウンディングボックスとも呼ばれ、例えば、検出された物体に外接して、その物体を囲うことが可能な最小の矩形の範囲を有する。以下において、メタデータMD1に含まれる物体を囲う四角い枠を「四角枠BB1」と呼ぶ。
ここで、図2に示す入力画像Iinには、犬と自転車と車とが含まれ、最も手前に犬が座っており、犬の背後には、自転車が壁に立てかけてあり、さらに道を挟んだ向こう側には、車が止まっている。例えば、物体の固有の姿、形、性質を表す物体検出の属性値として、「犬(dog)」、「自転車(bicycle)」、および「車(car)」を用いるものとする。
図2の「分割処理」に示すように、入力画像Iinは、4つの分割画像に分割されている。また、各分割画像は、物体検出部113によって学習済みの物体検出モデルに入力されて、各分割画像に含まれる物体が検出され、検出された物体ごとに四角枠BB1が作成されている。例えば、図2の「分割処理」において、最も上段の分割画像には、自転車の上部と、犬の頭が含まれているが、物体検出部113は、物体の一部分に基づいてこれらの物体(図2に示す属性値「bicycle」、「dog」)を検出し、四角枠BB1を指定している。
また、図2の「分割処理」に示す、上から3番目の分割画像では、車(図2の属性値「car」)が検出されて、四角枠BB1が指定されている。このように、図2の「分割処理」で、各分割画像で検出された物体(図2の属性値「dog」、「bicycle」、および「car」)それぞれの物体の一部あるいは全体の画像の境界を四角枠BB1で指定している。
ここで、四角枠BB1には、少なくとも中心座標(X,Y)、枠の高さ「H」、枠の幅「W」が含まれる。これらは、スケーリング部112によって縮小された入力画像Iinに対応する位置関係を示した、入力画像Iinにおける物体の位置情報である。
物体検出部113は、例えば、事前に外部のサーバなどの演算装置で学習された畳み込みニューラルネットワーク(CNN)を用いたYOLOなどの物体検出モデルを用いて、スケーリング部112で縮小された分割画像を入力として、分割画像に含まれる物体を検出し、分割画像のメタデータMD1を求める。
メタデータ調整部114は、物体検出部113によって検出された物体の四角枠BB1を分割前の元画像、つまり、入力画像IinにマッピングするためのメタデータMD1の調整処理を行う。
ここで、入力画像Iinのサイズは前述したように、Win(幅)×Hin(高さ)であり、予め用意された物体検出モデルに入力することができる指定の画像サイズを、Wdet(幅)×Hdet(高さ)とする。この場合、入力画像Iinの幅方向の分割数N、高さ方向の分割数Nは、以下の式(1)および(2)で与えられる。
=min(Nw_max,ceiling(Win/Wdet))・・・(1)
=min(Nh_max,ceiling(Hin/Hdet))・・・(2)
上式(1)および(2)において、Nw_maxは入力画像Iinの幅方向の分割数の上限値、Nh_maxは、入力画像Iinの高さ方向の分割数の上限値を示している。
図4は、Nが2、Nが2の場合の分割画像の例を示している。図4の各分割画像の座標(x’,y’)は、いずれも0≦x’≦floor(Win/N)、0≦y’≦floor(Hin/N)である。
メタデータ調整部114は、分割画像で検出された物体を囲う四角枠BB1の座標を、元画像である入力画像Iinにマッピングする。より具体的には、分割画像[i][j](0≦i≦N-1,0≦j≦N-1)で検出された物体の四角枠BB1の中心座標(xbb_div,ybb_div)、幅wbb_div、高さhbb_divとし、元画像の座標への調整後の四角枠BB1の中心座標を(xbb,ybb)、幅をwbb、高さをhbbとする。メタデータ調整部114は、以下の各式に基づいて四角枠BB1を入力画像Iinへマッピングする。
bb=xbb_div×floor(Win/N)+floor(Win/N)×i ・・・(3)
bb=ybb_div×floor(Hin/N)+floor(Hin/N)×j ・・・(4)
bb=wbb_div×floor(Win/N) ・・・(5)
bb=hbb_div×floor(Hin/N) ・・・(6)
次に、第2処理部120について説明する。第2処理部120は、図2で説明した全体処理を実行する機能ブロックである。第2処理部120は、図1に示すように、スケーリング部121、物体検出部122、およびメタデータスケーリング部123を備える。
スケーリング部121は、高精細画像の入力画像Iinを、所定の深層学習に基づく物体検出モデルに入力することができる指定の画像サイズに縮小し、縮小した全体画像(第2画像)を出力する。スケーリング部121は、例えば、入力画像Iinの幅および高さの比を維持したまま、画像サイズを縮小することができる。
物体検出部122は、全体画像を予め用意された物体検出モデルに入力として与え、物体検出モデルの演算を行い、全体画像に含まれる物体の属性値と、物体を囲う第2領域(以下、「四角枠BB2」という。)とを含む属性情報の集合を、全体画像のメタデータMD2として生成する。四角枠BB2には、対応する物体の入力画像Iinにおける座標情報が含まれる。このように、メタデータMD2は、物体の属性値と四角枠BB2とからなる属性情報の集合である。
例えば、図2に示す「全体処理」において、全体画像で検出された物体の属性値「dog」、「bicycle」、および「car」のそれぞれの物体の画像の境界が四角枠BB2で指定されている。
また、物体検出部122は、例えば、事前に外部のサーバなどの演算装置で学習された畳み込みニューラルネットワーク(CNN)を用いたYOLOなどの物体検出モデルを用いる。物体検出部122は、スケーリング部121で縮小された全体画像を入力として、全体画像に含まれる物体を検出する。物体検出部122が用いる物体検出モデルは、第1処理部110で用いられる物体検出モデルと同様に、入力画像のサイズが予め指定されている。
メタデータスケーリング部123は、物体検出部122によって生成された全体画像のメタデータMD2に含まれる物体の四角枠BB2の領域を拡大するスケーリング処理を行う。メタデータスケーリング部123は、例えば、双線形補間法を用いて全体画像のメタデータMD2に含まれる四角枠BB2のスケーリングを行う。
例えば、元画像である入力画像Iinの幅がWin、高さがHinであり、スケーリング部121で縮小された全体画像の幅がWdet、高さがHdetであるとする。この場合、メタデータスケーリング部123は、四角枠BB2の中心座標(Xbb,Ybb)を(Xbb×Win/Wdet,Ybb×Hin/Hdet)、四角枠BB2の幅Wbbおよび高さHbbを、Wbb×Win/Wdet,Hbb×Hin/Hdetにスケーリングすることで元画像の入力画像Iinに四角枠BB2をマッピングする。
次に、第3処理部130の構成について説明する。第3処理部130は、図2に示した全体画像のメタデータMD2と分割画像のメタデータMD1とで共通しない属性情報の集合を合わせて、入力画像IinのメタデータMD(第3メタデータ)として生成する。第3処理部130は、図1に示すように、選別部131、および合成部132を備える。また、選別部131は、算出部310と判定部311とを備える
算出部310は、第2処理部120で生成された全体画像のメタデータMD2に含まれる物体の属性値と、第1処理部110で生成された分割画像のメタデータMD1に含まれる物体の属性値とが一致する場合に、メタデータMD2の四角枠BB2とメタデータMD1の四角枠BB1とで重複した面積を、メタデータMD1の四角枠BB1の面積で除算して得られる重複度(第1の値)を求める。重複度は、メタデータの属性情報間の重複度合いを表す指標である。
判定部311は、算出部310で求められた重複度が、予め設定された第1しきい値を上回るか否かを判定する。
選別部131は、判定部311において、重複度が第1しきい値を上回ると判定された場合に、分割画像のメタデータMD1の属性情報は全体画像のメタデータMD2の属性情報と共通していると判断し、共通した属性情報をメタデータMD1から除去する。
合成部132は、選別部131によって共通するメタデータの属性情報が除去された分割画像のメタデータMD1と全体画像のメタデータMD2とを合わせて、入力画像IinのメタデータMDを生成する。つまり、合成部132は、重複する属性情報が排除された分割画像のメタデータMD1で全体画像のメタデータMD2を補間して、入力画像IinのメタデータMDを生成する。
[画像処理装置のハートウェア構成]
次に、上述した機能を有する画像処理装置1を実現するコンピュータ構成の一例について、図3を参照して説明する。
図3に示すように、画像処理装置1は、例えば、バス101を介して接続されるプロセッサ102、主記憶装置103、通信I/F104、補助記憶装置105、入出力I/O106を備えるコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。画像処理装置1は、例えば、外部に設けられた入力装置107と、表示装置108とがそれぞれバス101を介して接続されている。
主記憶装置103には、プロセッサ102が各種制御や演算を行うためのプログラムが予め格納されている。主記憶装置103は、半導体メモリなどで構成される。プロセッサ102と主記憶装置103とによって、図1に示した第1処理部110、第2処理部120、第3処理部130を含む画像処理装置1の各機能が実現される。
プロセッサ102は、GPU、CPU、FPGAなど任意の論理回路を構成するものにより実現することができる。
通信I/F104は、通信ネットワークNWを介して各種外部電子機器との通信を行うためのインターフェース回路である。例えば、通信I/F104から、図示されない外部のサーバなどで事前に学習された物体検出モデルを受信して、後述の補助記憶装置105に格納することができる。また、通信I/F104は、入力画像Iinや出力データであるメタデータMDを、予め設定された外部のサーバなどへ送出してもよい。
通信I/F104としては、例えば、3G、4G、5G、無線LAN、Bluetooth(登録商標)などの無線データ通信規格に対応した通信制御回路およびアンテナが用いられる。
補助記憶装置105は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータなどの各種情報を読み書きするための駆動装置とで構成されている。補助記憶装置105には、記憶媒体としてハードディスクやフラッシュメモリなどの半導体メモリを使用することができる。
補助記憶装置105は、画像処理装置1が分割処理、全体処理、合成処理を含む画像処理を行うための各種パラメータやプログラムを格納するプログラム格納領域を有する。また、補助記憶装置105には、画像処理装置1が物体検出処理に用いる深層学習に基づく学習済みの物体検出モデルが格納されている。上述した補助記憶装置105は、例えば、上述したデータやプログラムなどをバックアップするためのバックアップ領域などを有していてもよい。
入出力I/O106は、外部機器からの信号を入力したり、外部機器へ信号を出力したりするI/O端子により構成される。
入力装置107は、キーボードやタッチパネルなどで構成され、外部からの操作入力を受け付け、操作入力に応じた信号を生成する。
表示装置108は、液晶ディスプレイなどによって実現される。表示装置108は、入力画像Iinや出力データであるメタデータMDなどを表示することができる。
[画像処理装置の動作の概要]
次に、上述した構成を有する画像処理装置1の動作について、図5から図9のフローチャートを参照して説明する。なお、以下において、補助記憶装置105には、学習済みの物体検出モデルが格納されているものとする。
図5は、画像処理装置1の動作の概要を説明するためのフローチャートである。図5に示すように、まず、入力画像Iinが入力される(ステップS1)。例えば、図示されない外部のカメラなどで撮影された画像が通信I/F104で受信され、入力画像Iinとして画像処理装置1に入力される。また、入力画像Iinとしては、高精細画像などが用いられる。
次に、第1処理部110は、入力画像Iinが分割された複数の分割画像の各々に対して分割処理を実行する(ステップS2)。次に、第2処理部120は、入力画像Iinが縮小された全体画像に対する全体処理を実行する(ステップS3)。
その後、第3処理部130は、ステップS2での分割処理の結果とステップS3での全体処理の結果とに基づいて、メタデータの合成処理を行う(ステップS4)。その後、第3処理部130は、入力画像IinのメタデータMDを出力する(ステップS5)。なお、ステップS2での分割処理とステップS3での全体処理とは、並列に実行されてもよく、また、ステップS2とステップS3とが実行される順番は逆であってもよい。
[分割処理]
次に、分割処理(図5のステップS2)について図6のフローチャートを用いてより詳細に説明する。
まず、分割部111は、入力画像Iinを分割して複数の分割画像を出力する(ステップS20)。例えば、分割部111は、画像サイズがWin(幅)×Hin(高さ)の入力画像Iinを、図4に示すように、4つに分割し、4つの分割画像を生成することができる。
次に、スケーリング部112は、各分割画像を予め設定された画像サイズにスケーリングする(ステップS21)。より詳細には、スケーリング部112は、分割画像のサイズを、物体検出部113が用いる物体検出モデルの指定の入力画像のサイズに対応するように、各分割画像を縮小する。なお、入力画像Iinのサイズが、物体検出部113による物体検出処理で用いる画像サイズで割り切れる場合には、ステップS21のスケーリング処理は省略される。
次に、物体検出部113は、指定された画像サイズにスケーリングされた分割画像を入力として、補助記憶装置105に格納されている深層学習に基づく学習済みの物体検出モデルを読み出して、物体検出モデルの演算を行い、分割画像に含まれる物体を検出する(ステップS22)。より詳細には、物体検出部113は、分割画像に含まれる物体の属性値と、その物体を囲う四角枠BB1とを含む属性情報の集合を、分割画像のメタデータMD1として取得する。
次に、メタデータ調整部114は、分割画像のメタデータMD1に含まれる物体の四角枠BB1の座標を、上述した式(3)から(6)を用いて、元画像である入力画像Iinにマッピングする(ステップS23)。
その後、メタデータ調整部114は、分割画像のメタデータMD1を出力する(ステップS24)。各分割画像のメタデータMD1は、第3処理部130に入力される。
[全体処理]
次に、第2処理部120によって実行される入力画像Iinに対する全体処理(図5のステップS3)について図7のフローチャートを参照してより詳細に説明する。
図7に示すように、まず、スケーリング部121は、入力画像Iinを、指定の画像サイズに縮小する(ステップS30)。より詳細には、スケーリング部121は、入力画像Iinを、物体検出部122によって用いられる物体検出モデルに入力することができる、指定の画像サイズに縮小し、縮小された全体画像を出力する。
次に、物体検出部122は、補助記憶装置105に格納されている学習済みの物体検出モデルを読み出し、ステップS30でスケーリングされた全体画像を入力として、物体検出モデルの演算を行い、全体画像に含まれる物体の属性とその物体の四角枠BB2とを含む属性情報の集合を、全体画像のメタデータMD2として取得する(ステップS31)。
次に、メタデータスケーリング部123は、ステップS31で生成された全体画像のメタデータMD2に含まれる物体の四角枠BB2を拡張するスケーリングを行う(ステップS32)。メタデータスケーリング部123は、例えば、双線形補間法を用いて四角枠BB2のスケーリングを行い、四角枠BB2を入力画像Iinにマッピングする。
その後、メタデータスケーリング部123は、各四角枠BB2がスケーリングされ入力画像IinにマッピングされたメタデータMD2を出力する(ステップS33)。メタデータMD2は、第3処理部130へ入力される。
[合成処理]
次に、第3処理部130によって実行される合成処理(図5のステップS4)について、図8および図9のフローチャートを用いて説明する。
図8に示すように、選別部131は、分割画像のメタデータMD1と、全体画像のメタデータMD2とに基づいて、分割画像ごとにメタデータの選別処理を実行する(ステップS40)。
ここで、ステップS40の選別処理について、図9のフローチャートを参照してより詳細に説明する。なお、メタデータMD1、MD2は、画像から検出された物体の属性値と、その物体を囲う四角枠BB1、BB2とを含む属性情報の集合である。例えば、メタデータMD1、MD2に含まれる複数の属性情報の各々には、例えば、物体検出により画像から検出された各物体の属性値(例えば、「dog」)および検出された物体に対して作成された四角枠BB1、BB2の情報(座標およびサイズ)が含まれる。図9では、各分割画像の1つの属性情報ごとに選別処理が実行される場合を例に挙げて説明する。
図9に示すように、まず、選別部131に、第2処理部120で生成された全体画像のメタデータMD2が入力される(ステップS400)。次に、選別部131には、第1処理部110で生成された複数の分割画像のうちの1枚の分割画像のメタデータMD1が入力される(ステップS401)。
次に、選別部131は、全体画像のメタデータMD2の属性値が分割画像のメタデータMD1の属性値と一致するか否かを判断する(ステップS402)。全体画像のメタデータMD2の属性値が分割画像のメタデータMD1の属性値と一致する場合には(ステップS402:YES)、算出部310が重複度を計算する(ステップS403)。より詳細には、算出部310は、全体画像のメタデータMD2に含まれる四角枠BB2と、分割画像のメタデータMD1に含まれる四角枠BB1とで重複した面積を、四角枠BB1の面積で除算して得られる重複度を算出する。
なお、ステップS402において、全体画像のメタデータMD2に含まれる属性値が分割画像のメタデータMD1に含まれる属性値と一致しない場合には(ステップS402:NO)、処理はステップS401に移行し、同じ分割画像のメタデータMD1に含まれる別の属性情報が入力される(ステップS401)。
例えば、分割画像のメタデータMD1に含まれる属性値と、全体画像のメタデータMD2に含まれる属性値とが、例えば、「dog」、「bicycle」のように、互いに異なる場合が挙げられる。
次に、判定部311は、ステップS403で算出された重複度が、予め設定された第1しきい値を上回る場合には(ステップS404:YES)、分割画像のメタデータMD1の属性情報と、全体画像のメタデータMD2の属性情報とは同一の属性情報であると判断し、同じ属性情報をメタデータMD1から除去する(ステップS405)。つまり、分割画像と全体画像とで検出された物体の属性値が同じであり、かつ、その物体が入力画像Iinにおいて対応する位置関係にあるメタデータの属性情報が分割画像のメタデータMD1から排除される。
一方において、重複度が第1しきい値以下の場合には(ステップS404:NO)、処理は終了する。その後、全体画像のメタデータMD2の属性情報について選別処理が行われ、分割画像と全体画像とで共通しているメタデータの属性情報が排除される(ステップS400からステップS405)。また、選別部131は、複数の分割画像の各々について、メタデータの選別処理を実行する。
その後、処理は、図8の合成処理のフローに戻され、合成部132により、複数の分割画像のメタデータMD1と全体画像のメタデータMD2とが合成され、入力画像IinのメタデータMDが生成される(ステップS41)。分割画像のメタデータMD1には、全体画像のメタデータMD2に含まれていないような小さいサイズの物体に関する属性情報が含まれる。また、全体画像のメタデータMD2には、分割画像のメタデータMD1には含まれていない比較的大きいサイズの物体に関する属性情報が含まれている場合がある。
その後、合成されて得られた入力画像IinのメタデータMDは、入力画像Iinに付加されて画像ファイルとして表示装置108の表示画面に表示されることができる。
以上説明したように、第1の実施の形態によれば、入力画像Iinを縮小した全体画像を用いて、深層学習に基づく物体検出を行い、かつ、入力画像Iinを分割した複数の分割画像の各々についても深層学習に基づく物体検出を行う。また、全体画像を用いた物体検出の結果と、複数の分割画像各々の物体検出の結果とに基づいて、全体画像と分割画像とで共通するメタデータの属性情報を除去した上で、全体画像のメタデータMD2と複数の分割画像のメタデータMD1とを合成し、入力画像IinのメタデータMDを生成する。
そのため、高精細画像に含まれる比較的大きな物体および小さな物体の両方を、深層学習に基づく物体検出により検出することができる。
[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。なお、以下の説明では、上述した第1の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
第1の実施の形態では、分割画像および全体画像のそれぞれでの物体検出の結果から、メタデータの重複度を計算し、重複度が第1しきい値を上回る場合に、分割画像のメタデータMD1の属性情報と全体画像のメタデータMD2の属性情報とは共通すると判断して、共通する属性情報を分割画像のメタデータMD1から除去した。これに対して、第2の実施の形態では、2段階のしきい値判定に基づいてメタデータの重複を排除する。
第2の実施の形態に係る画像処理装置1の構成は、第1の実施の形態(図1)と同様である。また、本実施の形態に係る画像処理装置1の動作については、メタデータの選別処理以外については第1の実施の形態と同様である(図2から図8)。以下、本実施の形態に係る画像処理装置1によって実行されるメタデータの選別処理について、図10のフローチャートを参照して説明する。
図10に示すように、選別部131は、分割画像のメタデータMD1と、全体画像のメタデータMD2とに基づいて、分割画像ごとにメタデータの選別処理を実行する。
なお、メタデータMD1、MD2は、物体の属性値と、その物体を囲う四角枠BB1、BB2とを含む属性情報の集合である。例えば、メタデータMD1、MD2の1つの属性情報には、物体検出により画像から検出された各物体の属性値(例えば、「dog」)および検出された物体に対して作成された四角枠BB1、BB2の情報(座標およびサイズ)が含まれる。図10では、各分割画像の1つの属性情報ごとに選別処理が実行される場合を例に挙げて説明する。
図10に示すように、まず、選別部131に、第2処理部120で処理された全体画像のメタデータMD2が入力される(ステップS400)。次に、選別部131には、第1処理部110で処理された複数の分割画像のうちの1枚の分割画像のメタデータMD1が入力される(ステップS401)。
次に、選別部131は、全体画像のメタデータMD2の属性値が分割画像のメタデータMD1の属性値と一致するか否かを判断する(ステップS402)。全体画像のメタデータMD2の属性値が分割画像のメタデータMD1の属性値と一致する場合には(ステップS402:YES)、算出部310が重複度を計算する(ステップS403)。より詳細には、算出部310は、全体画像のメタデータMD2に含まれる四角枠BB2と、分割画像のメタデータMD1に含まれる四角枠BB1とで重複した面積を、四角枠BB1の面積で除算して得られる重複度を算出する。
なお、ステップS402において、全体画像のメタデータMD2の属性値が分割画像のメタデータMD1の属性値と一致しない場合には(ステップS402:NO)、処理はステップS401に移行し、同じ分割画像のメタデータMD1に含まれる別の属性情報が入力される(ステップS401)。
次に、ステップS403で算出された重複度が、予め設定された第1しきい値を上回り(ステップS404:YES)、かつ、判定部311(第2判定部)において、分割画像のメタデータMD1に含まれる四角枠BB1の面積と全体画像の四角枠BB2の面積比が、予め設定された第2しきい値を上回る(ステップS404A:YES)と判定された場合、選別部131は、判定対象となっている属性情報をメタデータMD1から除去する(ステップS405)。
より詳細には、全体画像のメタデータMD2に含まれる四角枠BB2の面積に対する分割画像のメタデータMD1の四角枠BB1の面積が、予め設定された第2しきい値を上回る場合に、判定対象となっている属性情報を、合成部132による分割画像のメタデータMD1と全体画像のメタデータMD2との合成処理における補間対象から除去する。
本実施の形態では、物体検出部113、122で検出される物体の入力画像Iinにおける位置情報は、四角枠BB1、BB2で表現されている。これに伴い、全体画像において検出された物体の大きさが、画像全体の面積に対して比較的大きい場合、物体の四角枠BB2の面積が大きくなり、分割画像において検出された物体の四角枠BB1を覆ってしまう場合がある。このような場合に、分割画像のメタデータMD1の属性情報を誤って除去してしまうことを防止する。
このように本実施の形態では、重複度と物体間の面積比とに基づいて、分割画像のメタデータMD1と全体画像のメタデータMD2との重複を排除する。
一方において、重複度が第1しきい値以下となる場合には(ステップS404:NO)、処理は終了する。また、重複度が第1しきい値を上回る場合であっても(ステップS404:YES)、四角枠BB1、BB2間の面積比が第2しきい値以下の場合には(ステップS404A:NO)、同様に処理は終了する。
その後、全体画像のメタデータMD2に含まれるすべての属性情報について選別処理が行われ、分割画像のメタデータMD1と全体画像のメタデータMD2とで重複している属性情報が排除される(ステップS400からステップS405)。また、選別部131は、複数の分割画像の各々について、メタデータの選別処理を実行する。
その後、処理は、図8の合成処理のフローに戻され、合成部132により、複数の分割画像のメタデータMD1と全体画像のメタデータMD2とが合成され、入力画像IinのメタデータMDが生成される(図8のステップS41)。
以上説明したように、第2の実施の形態によれば、メタデータの選別処理において、選別部131は、重複度に加えて、物体間の面積比についても考慮し、2段階のしきい値処理により、分割画像のメタデータMD1と全体画像のメタデータMD2とで共通する属性情報を補間対象から排除する。
その結果として、画像処理装置1は、高精細画像に含まれる比較的大きな物体および小さな物体の両方を、深層学習に基づく物体検出によって、より精度よく検出することができる。
[第3の実施の形態]
次に、本発明の第3の実施の形態について説明する。なお、以下の説明では、上述した第1および第2の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
第2の実施の形態では、メタデータの選別処理において、2段階のしきい値処理を行い、重複度が第1しきい値以上であっても、分割画像のメタデータMD1に含まれる四角枠BB1の面積と全体画像のメタデータMD2に含まれる物体の四角枠BB2の面積との比が、第2しきい値以下となる場合には、分割画像のメタデータMD1の属性情報と全体画像のメタデータMD2の属性情報とは共通しないと判断し、合成部132による補間処理の対象とした。
これに対して、第3の実施の形態では、メタデータの選別処理において、さらに、全体画像のメタデータMD2に含まれる属性値のうちの、いずれの属性値とも一致しない属性値を有する属性情報が、分割画像のメタデータMD1に含まれるか否かを判断する。一致しない属性値を有する属性情報がメタデータMD1に含まれる場合、分割画像のメタデータMD1に含まれる物体の四角枠BB1の面積と、その四角枠BB1に対応する入力画像Iinの領域の面積とが比較される。
第3の実施の形態に係る画像処理装置1の構成は、第1の実施の形態(図1)と同様である。また、本実施の形態に係る画像処理装置1の動作については、メタデータの選別処理以外については第1の実施の形態と同様である(図2から図8)。また、メタデータの選別処理についても、第2の実施の形態に係るメタデータの選別処理(図10)のステップS400からステップS405までの処理は同様である。以下、本実施の形態に係る画像処理装置1によって実行されるメタデータの選別処理について、図11のフローチャートを参照して説明する。
図11に示すように、選別部131は、分割画像のメタデータMD1と、全体画像のメタデータMD2とに基づいて、分割画像ごとにメタデータの選別処理を実行する。
なお、メタデータMD1、MD2は、物体の属性値と、その物体を囲う四角枠BB1、BB2とを含む属性情報の集合である。例えば、メタデータMD1、MD2の属性情報には、各物体の属性値(例えば、「dog」)および検出された物体に対して作成された四角枠BB1、BB2の情報(座標およびサイズ)が含まれる。図10では、各分割画像のメタデータMD1に含まれる属性情報ごとに選別処理が実行される場合を例に挙げて説明する。
図11に示すように、まず、選別部131に、第2処理部120で生成された全体画像のメタデータMD2が入力される(ステップS400)。次に、選別部131には、第1処理部110で生成された複数の分割画像のうちの1枚の分割画像のメタデータMD1が入力される(ステップS401)。
次に、選別部131は、全体画像のメタデータMD2の属性値が分割画像のメタデータMD1の属性値と一致するか否かを判断する(ステップS402)。全体画像のメタデータMD2の属性値が分割画像のメタデータMD1の属性値と一致する場合には(ステップS402:YES)、算出部310が重複度を計算する(ステップS403)。より詳細には、算出部310は、全体画像のメタデータMD2に含まれる四角枠BB2と、分割画像のメタデータMD1に含まれる四角枠BB1とで重複した面積を、四角枠BB1の面積で除算して得られる重複度を算出する。
なお、ステップS402において、全体画像のメタデータMD2の属性値が分割画像のメタデータMD1の属性値と一致しない場合には(ステップS402:NO)、処理はステップS401に移行し、同じ分割画像のメタデータMD1に含まれる別の属性情報が入力される(ステップS401)。
次に、判定部311は、ステップS403で算出された重複度が、予め設定された第1しきい値以上であり(ステップS404:YES)、かつ、分割画像のメタデータMD1の四角枠BB1の面積と全体画像のメタデータMD2に係る四角枠BB2の面積比が第2しきい値を上回ると判定した場合(ステップS404A:YES)、選別部131は、判定対象の属性情報をメタデータMD1から除去する(ステップS405)。
より詳細には、選別部131は、全体画像のメタデータMD2に含まれる四角枠BB2の面積に対する分割画像のメタデータMD1に含まれる四角枠BB1の面積が、予め設定された第2しきい値を上回る場合に、判定対象の属性情報を、合成部132による合成処理における補間対象から除去する。
このように本実施の形態では、重複度と物体間の面積比とに基づいて、分割画像と全体画像とに含まれるメタデータの重複を排除する。
一方において、重複度が第1しきい値以下となる場合には(ステップS404:NO)、ステップS406に移行する。また、重複度が第1しきい値を上回る場合であっても(ステップS404:YES)、面積比が第2しきい値以下となる場合には(ステップS404A:NO)、同様に処理はステップS406に移行する。
次に、選別部131は、全体画像のメタデータMD2に含まれるすべての属性情報について、ステップS402からステップS404Aまでの処理が完了するまで(ステップS406:NO)、ステップS404からステップS405までの処理を繰り返す。その後、全体画像のメタデータMD2のすべての属性情報について、ステップS402からステップS404Aまでの処理を完了すると(ステップS406:YES)、選別部131は、全体画像のメタデータMD2の属性値と、分割画像のメタデータMD1の属性値とを比較する(ステップS407)。
より詳細には、選別部131は、全体画像のメタデータMD2のすべての属性情報に含まれる属性値のいずれとも一致しない属性値を有する属性情報が、分割画像のメタデータMD1に含まれる場合(ステップS407:YES)、その重複しない属性値に係る分割画像のメタデータMD1の四角枠BB1の面積と、この四角枠BB1に対応する入力画像Iinの領域の面積とを比較する(ステップS408)。
より具体的には、判定部311は、分割画像のメタデータMD1に含まれる四角枠BB1の面積を、元画像である入力画像Iinの対応する領域の面積で除算して得られる値(第3の値)が、予め設定された第3しきい値を上回るか否かを判定する。四角枠BB1の面積を入力画像Iinの対応する領域の面積で除算した値が予め設定された第3しきい値を上回る場合には(ステップS408:YES)、比較対象となっている属性情報を分割画像のメタデータMD1から除去する(ステップS409)。
このように、全体画像で検出された物体群のいずれとも一致しない属性値を有する物体が、分割画像において検出された場合において、その一致しない属性値に対応する四角枠BB1の面積の元画像のサイズにおける割合が、第3しきい値を上回るか否かが判定される。第3しきい値を上回った場合、判定対象の属性情報は、第1処理部110による画像の分割処理の影響により、入力画像Iinに含まれる物体の特徴量が分割されたために誤検出された物体の属性情報であると判断される。
選別部131は、第3しきい値に基づいて誤検出された物体に係る属性情報を分割画像のメタデータMD1から除去し、分割画像のメタデータMD1と全体画像のメタデータMD2との合成処理における補間対象から事前に排除する。
一方において、四角枠BB1の面積を入力画像Iinの対応する領域の面積で除算した値が第3しきい値以下である場合には(ステップS408:NO)、処理は終了する。また、全体画像のメタデータMD2に含まれる属性値のいずれとも重複しない属性値を有する属性情報が、分割画像のメタデータMD1に含まれていない場合にも(ステップS407:NO)、同様に処理は終了する。
このように、ステップS408において、第3しきい値以下となる場合には、選別部131は、全体画像で検出された物体群の属性値のいずれとも一致しない属性値に係る分割画像のメタデータMD1の属性情報は、第2処理部120における全体処理で検出できなかった比較的小さいサイズの物体に係る属性情報であると判断する。
その後、選別部131は、複数の分割画像の各々について、メタデータの選別処理を実行する(ステップS400からステップS409)。
その後、処理は、図8の合成処理のフローに戻され、合成部132により、複数の分割画像のメタデータMD1と全体画像のメタデータMD2とが合成され、入力画像IinのメタデータMDが生成されて出力される(図8のステップS41)。
以上説明したように、第3の実施の形態によれば、メタデータの選別処理において、全体画像のメタデータMD2に含まれる物体群の属性値のいずれとも一致しない属性値を有する物体に係る分割画像のメタデータMD1の属性情報がある場合には、さらにしきい値処理を行い、共通する属性情報をメタデータMD1から排除する。
そのため、第1処理部110によって入力画像Iinが分割されたことに伴う物体の誤検出に係るメタデータMD1を排除することができる。また、第2処理部120が、入力画像Iinを縮小した全体画像で検出することができなかった、比較的小さいサイズの物体を、分割画像のメタデータMD1に基づいて補間することができる。
その結果として、画像処理装置1は、高精細画像に含まれる比較的大きな物体および小さな物体の両方を、深層学習に基づく物体検出によって、より精度よく検出することができる。
[第4の実施の形態]
次に、本発明の第4の実施の形態について説明する。なお、以下の説明では、上述した第1から第3の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
第1から第3の実施の形態では、画像処理装置1は、第1処理部110、第2処理部120、および第3処理部130をそれぞれ1つずつ備える場合について説明した。これに対し、第4の実施の形態では、画像処理システム1Bが複数の画像処理装置1Aを備え、複数の画像処理装置1Aにより、入力画像Iinに含まれる物体が検出される。
図12は、第4の実施の形態に係る画像処理システム1Bの構成を示すブロック図である。図12に示すように、画像処理システム1Bは、複数の画像処理装置1A、第2処理部(第2処理装置)120B、第3処理部(合成処理装置)130B、および分割部(分割装置)140を備える。
本実施の形態では、画像処理システム1Bは、M個(M>1)の画像処理装置1Aを備える。それぞれの画像処理装置1Aは、第1から第3の実施の形態と同様に、第1処理部110、第2処理部120、および第3処理部130を備える(図1、図12)。
また、第1処理部110、第2処理部120、120B、および第3処理部130、130Bのそれぞれの構成は、図1で説明した対応する構成と同様である。
図12に示すように、画像処理システム1Bは、複数の画像処理装置1Aの前段に、分割部140を備える。分割部140は、画像処理システム1Bに入力される入力画像IinをM-1個の画像に分割する。分割部140は、M個の分割画像(第3画像)を、M個の画像処理装置1Aに入力する。
M個の画像処理装置1Aは、M個の分割画像を、さらにM’個(M’>M)に分割する。M個の画像処理装置1Aは、さらに分割されたM’個の分割画像ごとに物体検出を行う。例えば、図12に示すように、分割部140は、入力画像IinをM個の分割画像[0],・・・,[M]に分割する。分割画像[0]は、画像処理装置1Aに入力され、第1処理部110の分割部111で、複数の分割画像に分割される。各分割画像は、スケーリング部112で指定された画像サイズにスケーリングされ、物体検出部113に入力される。物体検出部113は、予め用意された学習済みの物体検出モデルを用いて、分割画像に含まれる物体を検出する。物体検出の結果には、検出された物体の属性値と、その物体を囲う四角枠bb1とが含まれる。
物体検出の結果は、メタデータ調整部114に入力され、四角枠bb1の座標が元の分割画像[0]にマッピングされる。
第2処理部120は、分割画像[0]を縮小した全体画像の物体検出を行う。より詳細には、スケーリング部121は、予め指定されている物体検出モデルに入力可能な画像サイズとなるように、分割画像[0]を縮小する。
スケーリングされた分割画像[0]は、物体検出部122に入力され、物体検出モデルの演算により、分割画像[0]に含まれる物体が検出される。より詳細には、物体検出部122は、分割画像[0]に含まれる物体の属性値、および物体を囲う四角枠bb2を指定する。
メタデータスケーリング部123は、物体検出部122によって検出された分割画像[0]の全体に含まれる物体の四角枠bb2の領域を拡大するスケーリング処理を行い、元画像の分割画像[0]に四角枠bb2をマッピングする。
第3処理部130は、第1処理部110から出力される分割画像[0]をさらに分割した複数の分割画像のメタデータmd1と、第2処理部120から出力される分割画像[0]のメタデータmd2とに基づいて、メタデータmd1とメタデータmd2とを合成する。
より詳細には、算出部310は、分割画像[0]をさらに分割した複数の分割画像のメタデータmd1と分割画像[0]のメタデータmd2との重複度を計算する。判定部311は、重複度が第1しきい値を上回る場合、判定対象の属性情報をメタデータmd1から除去する。
合成部132は、選別部131によってメタデータが選別され、分割画像[0]の分割画像と、分割画像[0]の全体とに含まれる重複するメタデータが排除されたメタデータmd1とメタデータmd2とを合わせた、分割画像[0]のメタデータmd(第4メタデータ)を生成する。
本実施の形態では、図12に示すように、M個の画像処理装置1Aを用いて、M個の分割画像の各々について、上記の処理が実行される。したがって、M個の画像処理装置1Aの各々から合成された分割画像ごとの合計M個のメタデータmdが出力される。
また、図12に示すように、画像処理システム1Bには、第2処理部120Bおよび第3処理部130Bが含まれる。画像処理システム1Bは、M個の画像処理装置1Aが備えるM個の第2処理部120およびM個の第3処理部130、ならびに第2処理部120Bおよび第3処理部130Bにより、合計M+1個の第2処理部120、120BとM+1個の第3処理部130、130Bとを備える。
第2処理部120Bは、入力画像Iinの全体処理を実行する。第2処理部120Bは、スケーリング部121、物体検出部122、およびメタデータスケーリング部123を備える。
スケーリング部121は、元画像である入力画像Iinを縮小した全体画像(第5画像)を出力する。物体検出部122は、スケーリングされた全体画像を入力として、学習済みの物体検出モデルの演算を行い、全体画像に含まれる物体の属性値と、その物体を囲う四角枠BB2(第3領域)とを含む属性情報の集合を全体画像のメタデータMD2(第5メタデータ)として取得する。四角枠BB2には、入力画像Iinにおける座標情報が含まれる。
物体検出部122で生成された全体画像のメタデータMD2は、メタデータスケーリング部123に入力されて、検出された物体の四角枠BB2の座標が入力画像Iinへマッピングされる。
第3処理部130Bは、選別部131および合成部132を備える。また、選別部131は、算出部310および判定部311を備える。第3処理部130Bには、M個の画像処理装置1Aで得られたM個のメタデータmd、および第2処理部120Bで得られた、入力画像Iinが縮小された全体画像のメタデータMD2が入力される。
算出部310は、M個の画像処理装置1Aで求められた分割画像[0]・・・[M]各々に対応するメタデータmdと、第2処理部120Bで得られた入力画像Iinが縮小された全体画像のメタデータMD2との重複度を計算する。
判定部311は、算出部310で算出された重複度が予め設定された第1しきい値を上回るか否かを判定する。
選別部131は、判定部311が第1しきい値を上回ると判定した場合に、判定対象の属性情報をメタデータmdから除去する。
合成部132は、選別部131によりメタデータが選別され、分割画像[0]・・・[M]と、入力画像Iinを縮小した全体画像とに含まれる重複するメタデータが排除されたメタデータmdとメタデータMD2とを合わせて、入力画像IinのメタデータMD(第6メタデータ)を生成し、出力する。
以上説明したように、第4の実施の形態によれば、画像処理システム1Bは、M個の第1処理部110、M+1個の第2処理部120、120B、およびM+1個の第3処理部130、130Bを備え、分割処理と合成処理とを階層的に実行する。そのため、入力画像Iinの分割数を増加した場合において、画像の分割に伴い画像に含まれる特徴的な部位が検出されないことを抑制できる。
また、画像処理システム1Bは、複数の画像処理装置1Aを備えるので、例えば、画像処理装置1Aで分割できる画像の上限がM’個であったとしても、分割可能な画像の上限数を拡張できる。
その結果として、深層学習に基づく物体検出モデルに入力可能な画像サイズを上回る高精細画像を入力画像Iinとして用いても、入力画像Iinに含まれる比較的大きいサイズの物体および比較的小さいサイズの物体の両方を検出することができる。
なお、説明した実施の形態では、画像処理装置1、1Aが備える各機能ブロックは、1つのコンピュータにより構成しても、ネットワークを介して接続された複数のコンピュータに分散することも可能である。同様に、画像処理システム1Bが備える各機能ブロックについても、1つのコンピュータにより実現する場合のほか、ネットワーク上の複数のコンピュータに分散した構成を採用することもできる。
また、説明した実施の形態に係る画像処理装置1、および画像処理システム1Bは、コンピュータとプログラムによっても実現でき、プログラムを記憶媒体に記録することも、ネットワークを通じて提供することも可能である。
また、説明した第1の実施の形態から第4の実施の形態に係る画像処理装置1は、それぞれ組み合わせて実現することも可能である。
以上、本発明に係る画像処理装置、画像処理方法、画像処理システム、および画像処理プログラムにおける実施の形態について説明したが、本発明は説明した実施の形態に限定されるものではなく、請求項に記載した発明の範囲において当業者が想定し得る各種の変形を行うことが可能である。例えば、画像処理方法の各ステップの順序は上記説明した順序に限られない。
1…画像処理装置、110…第1処理部、111…分割部、112、121…スケーリング部、113、122…物体検出部、114…メタデータ調整部、120…第2処理部、123…メタデータスケーリング部、130…第3処理部、131…選別部、132…合成部、310…算出部、311…判定部、101…バス、102…プロセッサ、103…主記憶装置、104…通信I/F、105…補助記憶装置、106…入出力I/O、107…入力装置、108…表示装置。

Claims (7)

  1. 入力画像を分割して複数の第1画像を出力する分割部と、
    前記複数の第1画像の各々を、予め用意された物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記複数の第1画像の各々に含まれる物体の属性値と、前記物体を囲う第1領域とを含む属性情報の集合を、第1画像の第1メタデータとして取得する第1処理部と、
    前記入力画像を縮小した第2画像を出力するスケーリング部と、
    前記第2画像を、前記物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記第2画像に含まれる物体の属性値と、前記物体を囲う第2領域とを含む属性情報の集合を、前記第2画像の第2メタデータとして取得する第2処理部と、
    前記第2メタデータの属性情報の集合と、前記第2メタデータと前記第1メタデータとで共通しない属性情報の集合とを合わせて、前記入力画像の第3メタデータを生成する合成処理部と
    を備え、
    前記第1領域は、前記入力画像における座標情報を有し、
    前記第2領域は、前記入力画像における座標情報を有する
    ことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記合成処理部は、
    前記第2メタデータに含まれる物体の属性値と前記第1メタデータに含まれる物体の属性値とが一致する場合に、前記第2領域と前記第1領域とで重複した面積を、前記第1領域の面積で除算して得られるメタデータの属性情報間の重複度合いを表す第1の値を求める算出部と、
    前記算出部で算出された前記第1の値が、予め設定された第1しきい値を上回るか否かを判定する第1判定部と
    をさらに備え、
    前記合成処理部は、前記第1判定部が、前記第1の値が前記第1しきい値を上回ると判定した場合に、前記第1メタデータの属性情報は前記第2メタデータの属性情報と共通していると判断し、共通していると判断された属性情報を前記第1メタデータから排除して、前記第2メタデータの属性情報の集合と、前記第2メタデータと前記第1メタデータとで共通しない属性情報の集合とを合わせて、前記入力画像の前記第3メタデータを生成する
    ことを特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置において、
    前記合成処理部は、
    前記第1判定部によって前記第1の値が、前記第1しきい値を上回ると判定された場合に、前記第1メタデータの前記第1領域の面積を、前記第2領域の面積で除算して得られる第2の値が、予め設定された第2しきい値を上回るか否かを判定する第2判定部をさらに備え、
    前記合成処理部は、前記第1判定部によって前記第1の値が前記第1しきい値を上回ると判定され、かつ、前記第2判定部が、前記第2の値が前記第2しきい値を上回ると判定した場合に、前記第1メタデータの属性情報は、前記第2メタデータの属性情報と共通していると判断し、共通していると判断された属性情報を前記第1メタデータから排除して、前記第2メタデータの属性情報の集合と、前記第2メタデータと前記第1メタデータとで共通しない属性情報の集合とを合わせて、前記入力画像の前記第3メタデータを生成する
    ことを特徴とする画像処理装置。
  4. 請求項1から3のいずれか1項に記載の画像処理装置において、
    前記合成処理部は、
    前記第2メタデータに含まれる属性値のいずれとも一致しない属性値を有する物体が前記第1メタデータに含まれている場合、前記一致しない属性値に係る前記第1領域の面積を、前記第1領域に対応する前記入力画像の領域の面積で除算して得られる第3の値が、予め設定された第3しきい値を上回るか否かを判定する第3判定部をさらに備え、
    前記合成処理部は、前記第3判定部が、前記第3の値が前記第3しきい値を上回ると判定した場合に、前記第1メタデータの属性情報は、前記第2メタデータの属性情報と共通していると判断し、共通していると判断された属性情報を前記第1メタデータから排除して、前記第2メタデータの属性情報の集合と、前記第2メタデータと前記第1メタデータとで共通しない属性情報の集合とを合わせて、前記入力画像の前記第3メタデータを生成する
    ことを特徴とする画像処理装置。
  5. 請求項1から4のいずれか1項に記載の画像処理装置と、分割装置と、スケーリング装置と、第2処理装置と、合成処理装置とを備える画像処理システムであって、
    前記分割装置は、入力画像を分割して複数の第3画像を出力し、
    前記画像処理装置は複数設けられ、前記画像処理装置の各々は、前記複数の第3画像のうちのいずれか1つの第3画像を入力として用いて、前記第3画像の属性情報の集合を示す第4メタデータを生成し、
    前記画像処理装置の各々は、
    前記第3画像を分割して複数の第1画像を出力する前記分割部と、
    前記複数の第1画像の各々を、予め用意された物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記複数の第1画像の各々に含まれる物体の属性値と、前記物体を囲う第1領域とを含む属性情報の集合を、第1画像の第1メタデータとして取得する前記第1処理部と、
    前記第3画像を縮小した第2画像を出力する前記スケーリング部と、
    前記第2画像を、前記物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記第2画像に含まれる物体の属性値と、前記物体を囲う第2領域とを含む属性情報の集合を、前記第2画像の第2メタデータとして取得する前記第2処理部と、
    前記第2メタデータの属性情報の集合と、前記第2メタデータと前記第1メタデータとで共通しない属性情報の集合とを合わせて、前記第3画像の前記第4メタデータを生成する前記合成処理部と
    を備え、
    前記第1領域は、前記入力画像における座標情報を有し、
    前記第2領域は、前記入力画像における座標情報を有し、
    前記スケーリング装置は、前記入力画像を縮小した第5画像を出力し、
    前記第2処理装置は、前記第5画像を、予め用意された物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記第5画像に含まれる物体の属性値と、前記物体を囲う第3領域とを含む属性情報の集合を、前記第5画像の第5メタデータとして取得し、
    前記合成処理装置は、前記第5メタデータの属性情報の集合と、前記第5メタデータと前記第4メタデータとで共通しない属性情報の集合とを合わせて、前記入力画像の第6メタデータを生成し、
    前記第3領域は、前記入力画像における座標情報を有する
    ことを特徴とする画像処理システム。
  6. 入力画像を分割して複数の第1画像を出力する分割ステップと、
    前記複数の第1画像の各々を、予め用意された物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記複数の第1画像の各々に含まれる物体の属性値と、前記物体を囲う第1領域とを含む属性情報の集合を、第1画像の第1メタデータとして取得する第1処理ステップと、
    前記入力画像を縮小した第2画像を出力するスケーリングステップと、
    前記第2画像を、前記物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記第2画像に含まれる物体の属性値と、前記物体を囲う第2領域とを含む属性情報の集合を、前記第2画像の第2メタデータとして取得する第2処理ステップと、
    前記第2メタデータの属性情報の集合と、前記第2メタデータと前記第1メタデータとで共通しない属性情報の集合とを合わせて、前記入力画像の第3メタデータを生成する合成処理ステップと
    を備え、
    前記第1領域は、前記入力画像における座標情報を有し、
    前記第2領域は、前記入力画像における座標情報を有する
    ことを特徴とする画像処理方法。
  7. コンピュータに、
    入力画像を分割して複数の第1画像を出力する分割ステップと、
    前記複数の第1画像の各々を、予め用意された物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記複数の第1画像の各々に含まれる物体の属性値と、前記物体を囲う第1領域とを含む属性情報の集合を、第1画像の第1メタデータとして取得する第1処理ステップと、
    前記入力画像を縮小した第2画像を出力するスケーリングステップと、
    前記第2画像を、前記物体検出モデルに入力として与えることで、前記物体検出モデルの演算を行い、前記第2画像に含まれる物体の属性値と、前記物体を囲う第2領域とを含む属性情報の集合を、前記第2画像の第2メタデータとして取得する第2処理ステップと、
    前記第2メタデータの属性情報の集合と、前記第2メタデータと前記第1メタデータとで共通しない属性情報の集合とを合わせて、前記入力画像の第3メタデータを生成する合成処理ステップと
    を実行させ、
    前記第1領域は、前記入力画像における座標情報を有し、
    前記第2領域は、前記入力画像における座標情報を有する
    ことを特徴とする画像処理プログラム。
JP2022500183A 2020-02-14 2020-02-14 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム Active JP7239050B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/005812 WO2021161513A1 (ja) 2020-02-14 2020-02-14 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2021161513A1 JPWO2021161513A1 (ja) 2021-08-19
JP7239050B2 true JP7239050B2 (ja) 2023-03-14

Family

ID=77292164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022500183A Active JP7239050B2 (ja) 2020-02-14 2020-02-14 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム

Country Status (4)

Country Link
US (1) US20230058896A1 (ja)
EP (1) EP4105885A4 (ja)
JP (1) JP7239050B2 (ja)
WO (1) WO2021161513A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023238248A1 (ja) * 2022-06-07 2023-12-14 日本電信電話株式会社 物体検出装置、及び物体検出方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160240A (ja) 2018-03-16 2019-09-19 日本電信電話株式会社 情報処理装置および情報処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6426441B2 (ja) * 2014-11-13 2018-11-21 株式会社東芝 密度計測装置、密度計測方法、およびプログラム
JP6842745B2 (ja) * 2016-07-28 2021-03-17 国立大学法人信州大学 画像判別装置及び画像判別方法
EP3721618A4 (en) * 2017-12-08 2021-08-11 Geomni, Inc. COMPUTER VIEWING SYSTEMS AND METHODS FOR CAPTURING AND EXTRACTION OF GEOSPATIAL PROPERTIES FROM DIGITAL IMAGES

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160240A (ja) 2018-03-16 2019-09-19 日本電信電話株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
EP4105885A4 (en) 2023-11-01
US20230058896A1 (en) 2023-02-23
WO2021161513A1 (ja) 2021-08-19
EP4105885A1 (en) 2022-12-21
JPWO2021161513A1 (ja) 2021-08-19

Similar Documents

Publication Publication Date Title
US11610082B2 (en) Method and apparatus for training neural network model used for image processing, and storage medium
JP2018022484A (ja) 画像内の物体を検出する方法及び物体検出システム
US10818018B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US9053387B2 (en) Image processing circuit and image detection device
US9667841B2 (en) Image processing apparatus and image processing method
US11373350B2 (en) Apparatus and method for editing data and program
US9959672B2 (en) Color-based dynamic sub-division to generate 3D mesh
JP2020061080A (ja) 画像処理装置、撮像装置、画像処理方法
JP7239050B2 (ja) 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム
US8472756B2 (en) Method for producing high resolution image
CN109325909B (zh) 一种图像放大方法和图像放大装置
JP6294700B2 (ja) 画像処理装置及び画像処理方法
CN115546027B (zh) 图像缝合线确定方法、装置以及存储介质
CN117291790A (zh) 一种sar图像配准方法、装置、设备及介质
JP6546385B2 (ja) 画像処理装置及びその制御方法、プログラム
US20240062506A1 (en) Object detection device, object detection method, and object detection program
JP2014052855A (ja) 画像処理装置、その制御方法、および制御プログラム
JP2010193154A (ja) 画像処理装置および画像処理方法
JP2011053456A (ja) 画像表示方法、プログラム、画像表示装置、及び、この画像表示装置を有する撮像装置
WO2021166574A1 (ja) 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
JP5544497B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN113034552B (zh) 一种光流的修正方法和计算机设备
JP2002170111A (ja) 画像合成装置、画像合成方法および画像合成プログラムを記録した記録媒体
JP5719271B2 (ja) 画像処理方法、画像処理装置及び画像処理プログラム
WO2021075314A1 (ja) 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230213

R150 Certificate of patent or registration of utility model

Ref document number: 7239050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150