JP7173344B2 - 画像認識方法及び画像認識装置 - Google Patents

画像認識方法及び画像認識装置 Download PDF

Info

Publication number
JP7173344B2
JP7173344B2 JP2021532683A JP2021532683A JP7173344B2 JP 7173344 B2 JP7173344 B2 JP 7173344B2 JP 2021532683 A JP2021532683 A JP 2021532683A JP 2021532683 A JP2021532683 A JP 2021532683A JP 7173344 B2 JP7173344 B2 JP 7173344B2
Authority
JP
Japan
Prior art keywords
image
parts
label
restored
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021532683A
Other languages
English (en)
Other versions
JPWO2021009986A1 (ja
Inventor
盛司 山上
宗訓 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Machinery Ltd
Original Assignee
Murata Machinery Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Machinery Ltd filed Critical Murata Machinery Ltd
Publication of JPWO2021009986A1 publication Critical patent/JPWO2021009986A1/ja
Application granted granted Critical
Publication of JP7173344B2 publication Critical patent/JP7173344B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/05Recognition of patterns representing particular kinds of hidden objects, e.g. weapons, explosives, drugs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明の一側面は、画像認識方法及び画像認識装置に関する。
特定画像を認識する画像認識方法に関する技術として、例えば特許文献1に記載された情報処理装置が知られている。特許文献1に記載された情報処理装置は、入力された画像から部分画像を抽出する。抽出した部分画像と既に登録している部分画像とを比較し、類似か否か判定する。
特許第5082512号公報
上述したような技術では、特定画像の各画像特徴を含んでいるかに基づき画像認識を行うことから、人間の目視によって容易に特定画像と異なる画像と判別できる画像であっても、同じ画像特徴が多数含まれていれば、特定画像であると誤認識してしまう可能性がある。
本発明の一側面は、特定画像を高い確度で認識できる画像認識方法及び画像認識装置を提供することを目的とする。
本発明の一側面に係る画像認識方法は、特定画像を認識する方法であって、特定画像から複数の画像特徴を検出し、検出した複数の当該画像特徴のそれぞれをパーツとしてメモリに記憶する第1工程と、入力画像から複数の画像特徴を検出し、検出した複数の当該画像特徴のそれぞれについて対応するパーツをメモリから選出する第2工程と、第2工程で選出した複数のパーツを用いて復元画像を生成する第3工程と、第3工程で生成した復元画像が入力画像と一致するか否かをマッチング処理により判定し、復元画像が入力画像と一致すると判定した場合に、入力画像が特定画像であると認識する第4工程と、を含む。
この画像認識方法では、復元画像を生成する際、特定画像から検出されたパーツを用いている。そのため、特定画像以外が入力画像として入力された場合には、入力画像を復元画像として正しく生成することができない。したがって、入力画像と復元画像とが一致するか否かを判定することで、入力画像と特定画像との一致ないし不一致(入力画像が特定画像かそれ以外か)を高い確度で判定することができる。すなわち、特定画像を高い確度で認識することが可能となる。
本発明の一側面に係る画像認識方法において、第1工程では、複数のパーツのそれぞれにラベルとしてパーツラベルを付与し、パーツラベルをパーツとともにメモリに記憶し、第2工程では、複数の画像特徴のそれぞれにラベルとして選出用ラベルを付与し、選出用ラベルに一致するパーツラベルのパーツを選出してもよい。これにより、復元画像の生成処理を効率よく実行することができる。
本発明の一側面に係る画像認識方法では、第2工程は、距離画像としての撮像画像から入力画像を切り出す画像切出し工程を含み、画像切出し工程では、撮像画像における奥行距離が所定範囲内の点群をオブジェクトとし、撮像画像における当該オブジェクトの画像を入力画像として切り出してもよい。これにより、撮像画像から入力画像を生成することができる。
本発明の一側面に係る画像認識方法において、第2工程では、複数の画像特徴のそれぞれの特徴強度を検出し、第3工程では、第2工程で検出した複数の特徴強度を更に用いて復元画像を生成してもよい。これにより、復元画像を精度よく生成することができる。
本発明の一側面に係る画像認識方法では、特定画像は、予め定められた走行路に沿って走行する走行車における車体の少なくとも一部の画像であってもよい。この場合、本発明の一側面に係る画像認識方法を、走行車の車体の画像認識に適用することができる。
本発明の一側面に係る画像認識装置は、特定画像を認識する装置であって、特定画像から検出された複数の画像特徴のそれぞれをパーツとして予め記憶するメモリと、入力画像から複数の画像特徴を検出する特徴検出部と、特徴検出部で検出した複数の当該画像特徴のそれぞれについて対応するパーツをメモリから選出し、選出した複数のパーツを用いて復元画像を生成する復元部と、復元部で生成した復元画像が入力画像と一致するか否かをマッチング処理により判定し、復元画像が入力画像と一致すると判定した場合に、入力画像が特定画像であると認識する判定部と、を備える。
この画像認識装置では、復元画像を生成する際、特定画像から検出されたパーツを用いている。そのため、特定画像以外が入力画像として入力された場合には、入力画像を復元画像として正しく生成することができない。したがって、入力画像と復元画像とが一致するか否かを判定することで、入力画像と特定画像との一致ないし不一致(入力画像が特定画像かそれ以外か)を高い確度で判定することができる。すなわち、特定画像を高い確度で認識することが可能となる。
本発明の一側面に係る画像認識装置では、メモリは、複数のパーツのそれぞれに付与されたラベルを、パーツラベルとしてパーツとともに予め記憶し、特徴検出部は、複数の画像特徴のそれぞれにラベルとして選出用ラベルを付与し、復元部は、選出用ラベルに一致するパーツラベルのパーツを選出してもよい。これにより、復元画像の生成処理を効率よく実行することができる。
本発明の一側面に係る画像認識装置は、距離画像としての撮像画像から入力画像を切り出す画像切出し部を備え、画像切出し部は、撮像画像における奥行距離が所定範囲内の点群をオブジェクトとし、撮像画像における当該オブジェクトの画像を入力画像として切り出してもよい。これにより、撮像画像から入力画像を生成することができる。
本発明の一側面に係る画像認識装置では、特徴検出部は、複数の画像特徴のそれぞれの特徴強度を検出し、復元部は、特徴検出部で検出した複数の特徴強度を更に用いて復元画像を生成してもよい。これにより、復元画像を精度よく生成することができる。
本発明の一側面に係る画像認識装置では、特定画像は、予め定められた走行路に沿って走行する走行車における車体の少なくとも一部の画像であってもよい。この場合、本発明の一側面に係る画像認識装置を、走行車の車体の画像認識に適用することができる。
本発明の一側面によれば、特定画像を高い確度で認識できる画像認識方法及び画像認識装置を提供することが可能となる。
図1は、一実施形態に係る画像認識装置が適用される走行車システムを示す概略平面図である。 図2は、図1の走行車を走行方向から見た正面概略図である。 図3は、図1の走行車システムの機能構成を示すブロック図である。 図4は、図3の画像認識装置の特徴検出部により入力画像から複数の画像特徴を検出する一例を説明する図である。 図5は、図3の画像認識装置の復元部により復元画像を生成する一例を説明する図である。 図6は、一実施形態に係る画像認識方法を示すフローチャートである。 図7(a)は、撮像画像の一例を示す図である。図7(b)は、奥行距離データの一例を示す図である。 図8(a)は、入力画像の一例を示す図である。図8(b)は、図8(a)の入力画像から復元された復元画像を示す図である。 図9(a)は、入力画像の一例を示す図である。図9(b)は、図9(a)の入力画像から復元された復元画像を示す図である。 図10(a)は、入力画像の一例を示す図である。図10(b)は、図10(a)の入力画像から復元された復元画像を示す図である。図10(c)は、入力画像の一例を示す図である。図10(d)は、図10(c)の入力画像から復元された復元画像を示す図である。図10(e)は、入力画像の一例を示す図である。図10(f)は、図10(e)の入力画像から復元された復元画像を示す図である。図10(g)は、入力画像の一例を示す図である。図10(h)は、図10(g)の入力画像から復元された復元画像を示す図である。図10(i)は、入力画像の一例を示す図である。図10(j)は、図10(i)の入力画像から復元された復元画像を示す図である。
以下、図面を参照して、一実施形態について詳細に説明する。以下の説明において、同一又は相当要素には同一符号を付し、重複する説明を省略する。
本実施形態に係る画像認識装置は、走行車システムに適用される。そこで、まず、走行車システムについて説明する。図1に示されるように、走行車システム1は、軌道4に沿って移動可能な走行車6を用いて、物品10を載置部9,9間で搬送するシステムである。物品10には、例えば、複数の半導体ウェハを格納するFOUP(Front Opening Unified Pod)及びガラス基板を格納するレチクルポッド等のような容器、並びに一般部品等が含まれる。走行車システム1は、軌道4、複数の走行車6、複数の載置部9、及びシステム制御部60を備える。
図2に示されるように、軌道4は、例えば、工場等における作業者の頭上スペースである天井付近に敷設されている。軌道4は、例えば天井から吊り下げられている。軌道4は、走行車6を走行させるための予め定められた走行路である。軌道4は、例えば、一方通行の走行路である。軌道4は、支柱40,40により支持される。
走行車6は、軌道4に沿って走行し、物品10を搬送する。走行車6は、物品10を移載可能に構成されている。走行車6は、天井走行式無人搬送車(天井走行車)である。走行車システム1が備える走行車6の台数は、特に限定されず、複数である。図2に示されるように、走行車6は、車体2を有する。車体2は、走行部18と、本体部7と、撮像部8と、走行車制御部50(図3参照)と、を含む。
本体部7は、本体フレーム22と、横送り部24と、θドライブ26と、昇降駆動部28と、昇降台30と、落下防止カバー33と、を有する。走行部18は、モータ等を含んで構成され、走行車6を軌道4に沿って走行させる。走行部18は、例えば、非接触給電により軌道4側から受電する受電通信部20を有している。
横送り部24は、θドライブ26、昇降駆動部28及び昇降台30を一括して、軌道4の走行方向と直角な方向に横送りする。θドライブ26は、昇降駆動部28及び昇降台30の少なくとも何れかを水平面内で所定の角度範囲内で回動させる。昇降駆動部28は、昇降台30をワイヤ、ロープ及びベルト等の吊持材の巻取りないし繰出しによって昇降させる。昇降台30には、チャックが設けられており、物品10の把持又は解放が自在とされている。落下防止カバー33は、例えば走行車6の走行方向の前後に一対設けられている。落下防止カバー33は、図示しない爪等を出没させて、搬送中に物品10が落下することを防止する。
図1及び図2に示されるように、載置部9は、軌道4に沿って配置され、走行車6との間で物品10の受け渡し可能な位置に設けられている。載置部9には、バッファ及び受渡ポートが含まれる。バッファは、物品10が一時的に載置される載置部である。バッファは、例えば、目的とする受渡ポートに他の物品10が載置されている等の理由により、走行車6が搬送している物品10をその受渡ポートに移載できない場合に、物品10が仮置きされる載置部である。受渡ポートは、例えば洗浄装置、成膜装置、リソグラフィ装置、エッチング装置、熱処理装置、平坦化装置をはじめとする半導体の処理装置に対して物品10の受渡を行うための載置部である。例えば、載置部9は、軌道4の側方に配置されている。なお、載置部9は、軌道4の直下に配置されていてもよい。
撮像部8は、自己の走行車6の前方を撮像し、自己の走行車6の前方に位置する走行車6を含む撮像画像を取得する。ここでの撮像画像は、距離画像である。撮像部8は、走行車6の前側に設けられた落下防止カバー33に配置されている。撮像部8は、撮像した撮像画像を走行車制御部50に送信する。撮像部8としては、特に限定されず、種々の公知装置を採用してもよい。例えば撮像部8は、ステレオビジョン方式で距離画像を取得してもよい。なお、距離画像は、三次元距離画像、三次元情報を有する画像とも称される。
図2及び図3に示されるように、走行車制御部50は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等からなる電子制御ユニットである。走行車制御部50は、走行車6における各種動作を制御する。具体的には、走行車制御部50は、走行部18と、横送り部24と、θドライブ26と、昇降駆動部28と、昇降台30と、を制御する。走行車制御部50は、例えばROMに格納されているプログラムがRAM上にロードされてCPUで実行されるソフトウェアとして構成することができる。走行車制御部50は、電子回路等によるハードウェア(コンピュータ)として構成されてもよい。走行車制御部50は、軌道4の通信線(フィーダー線)等を利用して、システム制御部60と通信を行う。
システム制御部60は、CPU、ROM及びRAM等からなる電子制御ユニットである。システム制御部60は、例えばROMに格納されているプログラムがRAM上にロードされてCPUで実行されるソフトウェアとして構成することができる。システム制御部60は、電子回路等によるハードウェア(コンピュータ)として構成されてもよい。システム制御部60は、走行車6に物品10を搬送させる搬送指令を送信する。本実施形態のシステム制御部60は、画像認識装置100を構成する。以下、画像認識装置100を説明する。この画像認識装置100は走行車6に備えられていてもよい。
画像認識装置100は、特定の画像である特定画像を認識する装置である。一例として、特定画像は、走行車6の車体2の画像である。画像認識装置100は、メモリM、画像切出し部61、特徴検出部62、復元部63、及び判定部64を備える。
メモリMは、特定画像から検出(抽出)された複数の画像特徴のそれぞれをパーツとして予め記憶する。特定画像から複数の画像特徴を検出する手法としては、特に限定されず、種々の公知手法を採用することができる。例えば特定画像を画像フィルタに通すことで、複数の画像特徴を検出してもよい。メモリMは、複数のパーツのそれぞれに付与されたラベルを、パーツラベルとしてパーツとともに予め記憶する。パーツは、後述するように、復元部63による画像復元の種として機能する。
画像特徴とは、画像の特徴を構成するものであって、画像の特徴量又は特徴点とも称される。複数のパーツの取得は、L2ノルムを用いたディープラーニングによって得られる学習済みモデル(AI;人工知能)を利用して行ってもよい。ラベルは、付与対象を識別するための情報を示すものである。ラベルとしては特に限定されず、例えば番号である。
画像切出し部61は、撮像画像から入力画像を切り出す。具体的には、画像切出し部61は、撮像画像における奥行距離が所定範囲内の点群(似た距離を持つ点の塊)を、オブジェクト(物体候補)とする。画像切出し部61は、撮像画像における当該オブジェクトの画像を入力画像として切り出す。所定範囲は特に限定されず、予め設定することができる。撮像画像からの入力画像の切出しは、ディープラーニングによって得られる学習済みモデル(AI;人工知能)、例えばYoloV3等を利用して行ってもよい。
特徴検出部62は、入力画像から複数の画像特徴を検出する。入力画像から複数の画像特徴を検出する手法としては、特に限定されず、種々の公知手法を採用することができる。例えば特徴検出部62は、入力画像を画像フィルタに通すことで、複数の画像特徴を検出してもよい。特徴検出部62は、複数の画像特徴のそれぞれにラベルとして選出用ラベルを付与する。特徴検出部62は、複数の画像特徴のそれぞれの特徴強度を検出する。特徴強度は、その画像特徴が入力画像に関係する強さを示す指標である。特徴強度は、入力画像おいて画像特徴が寄与する程度を示すことができる。
復元部63は、特徴検出部62で検出した複数の画像特徴のそれぞれについて、対応するパーツをメモリMから選出する。復元部63は、特徴検出部62で検出した複数の画像特徴の選出用ラベルに一致するパーツラベルのパーツを、メモリMから選出する。復元部63は、選出した複数のパーツを用いて復元画像を生成する。復元部63は、特徴検出部62で検出した複数の画像特徴の特徴強度を更に用いて復元画像を生成する。複数のパーツを用いて復元画像を生成する手法としては特に限定されず、種々の公知手法、例えばディープニューラルネットワークで構成されたオートエンコーダ等を用いることができる。
判定部64は、復元部63で生成した復元画像が入力画像と一致するか否かをマッチング処理により判定する。判定部64は、復元画像が入力画像と一致すると判定した場合に、入力画像が特定画像であると認識する。マッチング処理としては特に限定されず、種々の公知手法、例えばL2ノルム等を用いることができる。判定部64は、復元画像の入力画像に対する類似度を算出し、当該類似度が閾値よりも大きい場合に、復元画像が入力画像と一致すると判定してもよい。
次に、特徴検出部62により入力画像から複数の画像特徴を検出する一例を、図4を参照して説明する。
図4に示されるように、ここでの説明では、便宜上、「数字の7」の画像を入力画像として用いている。特徴検出部62により、入力画像I1から複数の画像特徴が検出される。図示する例では、選出用ラベルLSが「20」の画像特徴G1、選出用ラベルLSが「27」の画像特徴G2、選出用ラベルLSが「51」の画像特徴G3、及び、選出用ラベルLSが「58」の画像特徴G4が検出されている。そして、これらが画像特徴の検出結果Hとして取得される。画像特徴の検出結果Hでは、画像特徴G1~G4それぞれの特徴強度が明度として示されている。このように、入力画像I1から複数の画像特徴G1~G4を機械的に検出することができる。
次に、複数の画像特徴G1~G4に基づいて復元部63により画像を復元する一例を、図5を参照して説明する。
図5に示されるように、復元部63により、画像特徴の検出結果Hに基づいて、複数の画像特徴G1~G4(図4参照)の選出用ラベルLSに一致するパーツラベルLPのパーツP1~P4が、メモリMから選出される。復元部63により、選出された複数のパーツP1~P4を用いて復元画像O1が生成される。このように、複数の画像特徴G1~G4から復元画像O1を復元することができる。
次に、画像認識装置100により実施される画像認識方法を説明する。
画像認識方法は、特定画像を認識する方法である。図6に示されるように、まず、特定画像から複数の画像特徴を検出し、検出した複数の当該画像特徴のそれぞれをパーツとしてメモリMに記憶する(記憶工程:ステップS1)。記憶工程では、複数のパーツそれぞれにラベルとしてパーツラベルを付与し、パーツラベルをパーツとともにメモリMに記憶する。
続いて、撮像部8により取得された撮像画像から、画像切出し部61により入力画像を切り出す(画像切出し工程:ステップS2)。画像切出し工程では、撮像画像における奥行距離が所定範囲内の点群をオブジェクトとし、撮像画像における当該オブジェクトの画像を入力画像として切り出す。
続いて、特徴検出部62により、画像切出し工程で切り出した入力画像から、複数の画像特徴を検出する(画像特徴検出工程:ステップS3)。画像特徴検出工程では、複数の画像特徴のそれぞれにラベルとして選出用ラベルを付与する。画像特徴検出工程では、複数の画像特徴のそれぞれの特徴強度を検出する。
続いて、復元部63により、画像特徴検出工程で検出した複数の画像特徴のそれぞれに対応するパーツを、メモリMから選出する(パーツ選出工程:ステップS4)。パーツ選出工程では、選出用ラベルに一致するパーツラベルのパーツを選出する。
続いて、復元部63により、パーツ選出工程で選出した複数のパーツを用いて、復元画像を生成する(復元工程:ステップS5)。復元工程では、画像特徴検出工程で検出した複数の特徴強度を更に用いて復元画像を生成する。最後に、判定部64により、復元工程で生成した復元画像が入力画像と一致するか否かをマッチング処理により判定する(判定工程:ステップS6)。判定工程では、復元画像が入力画像と一致すると判定した場合に、入力画像が特定画像であると認識する。
上記において、記憶工程が第1工程を構成し、画像切出し工程と画像特徴検出工程とパーツ選出工程とが第2工程を構成し、復元工程が第3工程を構成し、判定工程が第4工程を構成する。
次に、上述した画像認識方法により特定画像を認識する場合の一例を説明する。以下においては、走行車6の車体2を特定画像として認識する場合を例示する。
図7(a)に示されるように、撮像部8により、自己の走行車6の前方に位置する走行車6を含む撮像画像K1を取得する。図7(b)に示されるように、画像切出し部61により、撮像画像K1における奥行距離データK2を算出し、その奥行距離が所定範囲内の点群をオブジェクトOBとする。図7(a)及び図8(a)に示されるように、撮像画像K1における当該オブジェクトOBの画像を、入力画像I2として切り出す。
図8(b)に示されるように、特徴検出部62により入力画像I2から複数の画像特徴を検出し、復元部63により復元画像O2を生成する。判定部64により復元画像O2が入力画像I2と一致するか否かをマッチング処理により判定する。図8(a)及び図8(b)に示す例では、復元画像O2が入力画像I2と一致する(類似度が閾値以上)と判定し、入力画像I2が特定画像(走行車6の車体2の画像)であると認識する。
一方、図9(a)に示されるように、走行車6の車体2以外の画像(例えば、ユーザの体等の画像)が入力画像I3として入力される場合、図9(b)に示されるように、復元部63により生成された復元画像O3は、入力画像I3を復元するものではなく、顕著な画像の崩れ及びぼやけを有する。よってこの例では、復元画像O2が入力画像I2と一致しない(類似度が閾値未満)と判定し、入力画像I3が特定画像(走行車6の車体2の画像)であると認識しない。
図10(a)~図10(j)は、特徴検出部62及び復元部63のノイズに対するロバスト性を説明する各図である。画像認識装置100及びその画像認識方法によれば、特徴検出部62により入力画像I4(図10(a)参照)から複数の画像特徴を検出し、復元部63により復元画像O4(図10(b)参照)を生成することができる。特徴検出部62により入力画像I5(図10(c)参照)から複数の画像特徴を検出し、復元部63により復元画像O5(図10(d)参照)を生成することができる。特徴検出部62により入力画像I6(図10(e)参照)から複数の画像特徴を検出し、復元部63により復元画像O6(図10(f)参照)を生成することができる。特徴検出部62により入力画像I7(図10(g)参照)から複数の画像特徴を検出し、復元部63により復元画像O7(図10(h)参照)を生成することができる。特徴検出部62により入力画像I8(図10(i)参照)から複数の画像特徴を検出し、復元部63により復元画像O8(図10(j)参照)を生成することができる。これらの結果から、画像認識装置100及びその画像認識方法によれば、入力画像I4~I8がノイズを有していても、特徴を捉える能力があり、精度よく復元画像O4~O8が生成されることを確認することができる。
以上、画像認識装置100及びその画像認識方法では、復元画像を生成する際、特定画像から検出されたパーツを用いている。そのため、以下の(i)、(ii)及び(iii)に示すパターンで画像の復元がなされる。
(i)特定画像が入力画像の場合には、入力画像が復元画像として精度よく復元される。
(ii)特定画像以外の入力画像が入力された場合には、入力画像と復元画像とが一致しない。
(iii)特に、特定画像の画像特徴を有するが特定画像ではない不正解画像が入力画像として入力された場合には、入力画像と復元画像とが一致せずに、復元画像として特定画像が復元される。
したがって、画像認識装置100及びその画像認識方法によれば、入力画像I1~I8と復元画像O1~O8とが一致するか否かを判定することで、入力画像I1~I8と特定画像との一致ないし不一致(入力画像I1~I8が特定画像かそれ以外か)を高い確度で判定することができる。すなわち、特定画像を高い確度で認識することが可能となる。入力画像I1~I8について特定画像の画像特徴を満たせば特定画像であると判定するだけでは、上記(iii)の場合には誤認識してしまうが、画像認識装置100及びその画像認識方法では、そのような誤認識を回避することができる。
画像認識装置100及びその画像認識方法では、複数のパーツP1~P4のそれぞれにラベルとしてパーツラベルLPを付与し、パーツラベルLPをパーツP1~P4とともにメモリMに記憶する。複数の画像特徴G1~G4のそれぞれにラベルとして選出用ラベルLSを付与し、選出用ラベルLSに一致するパーツラベルLPのパーツP1~P4を選出する。これにより、復元画像O1~O8の生成処理を効率よく実行することができる。
画像認識装置100及びその画像認識方法では、距離画像としての撮像画像K1から入力画像I2を切り出す。具体的には、撮像画像K1における奥行距離が所定範囲内の点群をオブジェクトOBとし、撮像画像K1における当該オブジェクトOBの画像を入力画像I2として切り出す。これにより、撮像画像K1から入力画像I2を生成することができる。
画像認識装置100及びその画像認識方法では、複数の画像特徴G1~G4のそれぞれの特徴強度を検出し、検出した複数の特徴強度を更に用いて復元画像O1~O8を生成する。これにより、復元画像O1~O8を精度よく生成することができる。
画像認識装置100及びその画像認識方法では、特定画像は、走行車6の車体2の画像である。この場合、画像認識装置100及びその画像認識方法を、走行車6の車体2の画像認識に適用することができる。なお、特定画像は、走行車6の車体2の全体であってもよいし、走行車6の車体2の少なくとも一部の画像であってもよい。
以上、一実施形態について説明したが、本発明の一態様は上記実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲で種々の変更が可能である。
上記実施形態では、画像認識装置100を走行車システム1に適用し、走行車6の車体2を認識する場合を例示したが、その他の種々の装置ないしシステムに画像認識装置100を適用してもよく、様々な対象物の画像を特定画像としてもよい。例えば、自動ワインダに画像認識装置100を適用し、巻き取ったパッケージの画像を特定画像としてもよい。例えば、旋盤に画像認識装置100を適用し、加工製品の良品の画像を特定画像とすることで、加工製品の良否判断に利用してもよい。例えば、スキャナで読み取った画像からの特定画像の領域の切出しに画像認識装置100を利用してもよい。
上記実施形態では、距離画像としての撮像画像から入力画像を切り出したが、このような画像切出し工程及び画像切出し部61は無くてもよい。撮像部8としては、例えば一般的な単眼カメラを用いてもよい。入力画像は、距離画像であってもよいし、二次元画像であってもよい。
上記実施形態及び変形例の走行車システム1では、走行車6の一例として天井走行車を挙げて説明したが、走行車6のその他の例には、地上又は架台に配設された軌道を走行する無人走行車及びスタッカークレーン等が含まれる。
2…車体、4…軌道(走行路)、6…走行車、61…画像切出し部、62…特徴検出部、63…復元部、64…判定部、100…画像認識装置、G1~G4…画像特徴、I1~I8…入力画像、K1…撮像画像、LS…選出用ラベル、LP…パーツラベル、M…メモリ、O1~O8…復元画像、OB…オブジェクト、P1~P4…パーツ。

Claims (10)

  1. 特定画像を認識する方法であって、
    前記特定画像から複数の画像特徴を検出し、検出した複数の当該画像特徴のそれぞれをパーツとしてメモリに記憶する第1工程と、
    入力画像から複数の画像特徴を検出し、検出した複数の当該画像特徴のそれぞれについて対応する前記パーツを前記メモリから選出する第2工程と、
    前記第2工程で選出した複数の前記パーツを用いて復元画像を生成する第3工程と、
    前記第3工程で生成した前記復元画像が前記入力画像と一致するか否かをマッチング処理により判定し、前記復元画像が前記入力画像と一致すると判定した場合に、前記入力画像が前記特定画像であると認識する第4工程と、を含む画像認識方法。
  2. 前記第1工程では、複数の前記パーツのそれぞれにラベルとしてパーツラベルを付与し、前記パーツラベルを前記パーツとともに前記メモリに記憶し、
    前記第2工程では、複数の前記画像特徴のそれぞれにラベルとして選出用ラベルを付与し、前記選出用ラベルに一致する前記パーツラベルの前記パーツを選出する、請求項1に記載の画像認識方法。
  3. 前記第2工程は、距離画像としての撮像画像から入力画像を切り出す画像切出し工程を含み、
    前記画像切出し工程では、前記撮像画像における奥行距離が所定範囲内の点群をオブジェクトとし、前記撮像画像における当該オブジェクトの画像を前記入力画像として切り出す、請求項1又は2に記載の画像認識方法。
  4. 前記第2工程では、複数の前記画像特徴のそれぞれの特徴強度を検出し、
    前記第3工程では、前記第2工程で検出した複数の前記特徴強度を更に用いて前記復元画像を生成する、請求項1~3の何れか一項に記載の画像認識方法。
  5. 前記特定画像は、予め定められた走行路に沿って走行する走行車における車体の少なくとも一部の画像である、請求項1~4の何れか一項に記載の画像認識方法。
  6. 特定画像を認識する装置であって、
    前記特定画像から検出された複数の画像特徴のそれぞれをパーツとして予め記憶するメモリと、
    入力画像から複数の画像特徴を検出する特徴検出部と、
    前記特徴検出部で検出した複数の当該画像特徴のそれぞれについて対応する前記パーツを前記メモリから選出し、選出した複数の前記パーツを用いて復元画像を生成する復元部と、
    前記復元部で生成した前記復元画像が前記入力画像と一致するか否かをマッチング処理により判定し、前記復元画像が前記入力画像と一致すると判定した場合に、前記入力画像が前記特定画像であると認識する判定部と、を備える、画像認識装置。
  7. 前記メモリは、複数の前記パーツのそれぞれに付与されたラベルを、パーツラベルとして前記パーツとともに予め記憶し、
    前記特徴検出部は、複数の前記画像特徴のそれぞれにラベルとして選出用ラベルを付与し、
    前記復元部は、前記選出用ラベルに一致する前記パーツラベルの前記パーツを選出する、請求項6に記載の画像認識装置。
  8. 距離画像としての撮像画像から前記入力画像を切り出す画像切出し部を備え、
    前記画像切出し部は、前記撮像画像における奥行距離が所定範囲内の点群をオブジェクトとし、前記撮像画像における当該オブジェクトの画像を前記入力画像として切り出す、請求項6又は7に記載の画像認識装置。
  9. 前記特徴検出部は、複数の前記画像特徴のそれぞれの特徴強度を検出し、
    前記復元部は、前記特徴検出部で検出した複数の前記特徴強度を更に用いて前記復元画像を生成する、請求項6~8の何れか一項に記載の画像認識装置。
  10. 前記特定画像は、予め定められた走行路に沿って走行する走行車における車体の少なくとも一部の画像である、請求項6~9の何れか一項に記載の画像認識装置。
JP2021532683A 2019-07-12 2020-04-17 画像認識方法及び画像認識装置 Active JP7173344B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019130264 2019-07-12
JP2019130264 2019-07-12
PCT/JP2020/016941 WO2021009986A1 (ja) 2019-07-12 2020-04-17 画像認識方法及び画像認識装置

Publications (2)

Publication Number Publication Date
JPWO2021009986A1 JPWO2021009986A1 (ja) 2021-01-21
JP7173344B2 true JP7173344B2 (ja) 2022-11-16

Family

ID=74210390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021532683A Active JP7173344B2 (ja) 2019-07-12 2020-04-17 画像認識方法及び画像認識装置

Country Status (8)

Country Link
US (1) US11893718B2 (ja)
EP (1) EP3961558A4 (ja)
JP (1) JP7173344B2 (ja)
KR (1) KR20220031676A (ja)
CN (1) CN113728356B (ja)
IL (1) IL289320B2 (ja)
TW (1) TWI841753B (ja)
WO (1) WO2021009986A1 (ja)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5082512B2 (ja) 2007-03-08 2012-11-28 富士ゼロックス株式会社 情報処理装置、画像処理装置、画像符号化装置、情報処理プログラム、画像処理プログラム及び画像符号化プログラム
EP3118813B1 (en) * 2014-03-14 2021-06-02 Omron Corporation Image recognition device, image sensor, and image recognition method
TWI521448B (zh) * 2014-03-18 2016-02-11 Univ Yuan Ze Vehicle identification system and method
TW201618023A (zh) * 2014-11-06 2016-05-16 Charles Chan 雲端智慧交通資訊方法
JP6429823B2 (ja) 2016-03-31 2018-11-28 セコム株式会社 特徴量抽出装置
JP6897335B2 (ja) * 2017-05-31 2021-06-30 富士通株式会社 学習プログラム、学習方法および物体検知装置
JP7205471B2 (ja) * 2017-06-29 2023-01-17 ソニーグループ株式会社 画像処理装置および画像処理方法
US10942966B2 (en) * 2017-09-22 2021-03-09 Pinterest, Inc. Textual and image based search
JP7074460B2 (ja) * 2017-11-10 2022-05-24 アズビル株式会社 画像検査装置および方法
EP3503038A1 (en) * 2017-12-22 2019-06-26 Promaton Holding B.V. Automated 3d root shape prediction using deep learning methods
CN109255769A (zh) * 2018-10-25 2019-01-22 厦门美图之家科技有限公司 图像增强网络的训练方法和训练模型、及图像增强方法

Also Published As

Publication number Publication date
TW202103057A (zh) 2021-01-16
US20220253994A1 (en) 2022-08-11
IL289320B1 (en) 2024-05-01
US11893718B2 (en) 2024-02-06
CN113728356B (zh) 2024-08-23
EP3961558A1 (en) 2022-03-02
JPWO2021009986A1 (ja) 2021-01-21
KR20220031676A (ko) 2022-03-11
CN113728356A (zh) 2021-11-30
IL289320A (en) 2022-02-01
TWI841753B (zh) 2024-05-11
IL289320B2 (en) 2024-09-01
WO2021009986A1 (ja) 2021-01-21
EP3961558A4 (en) 2023-01-11

Similar Documents

Publication Publication Date Title
JP4226623B2 (ja) ワーク取り出し装置
CN106573381B (zh) 卡车卸载机可视化
US11964399B2 (en) Target object recognition device, manipulator, and mobile robot
CN113351522B (zh) 物品分拣方法、装置及系统
WO2020022302A1 (ja) 把持装置
US20220016764A1 (en) Object grasping system
US9443140B2 (en) Paper sheets processing apparatus and data transfer method
CN109127445B (zh) 条码读取方法及条码读取系统
WO2000057129A1 (fr) Procede de reconnaissance d'objet tridimensionnel et systeme de collecte de broches a l'aide de ce procede
JP2017019586A (ja) 物流システム、および物流管理方法
JP7173344B2 (ja) 画像認識方法及び画像認識装置
JP6730061B2 (ja) 配達支援装置、配達支援システム、及び配達支援プログラム
JP2008197705A (ja) 搬送台車、停止位置判定方法およびプログラム
CN106429144A (zh) 玻璃卡匣的处理方法、装置和系统
JP2018154435A (ja) 集積管理装置、集積管理方法、プログラム
US20200353583A1 (en) Workpiece identification method
EP3617967A1 (en) Taxi system with image based determination of special transportation needs
JP7310889B2 (ja) 走行車、走行車システム及び走行車検出方法
JP7436170B2 (ja) ロボットシステム
JP7328017B2 (ja) ロボットシステム及び制御装置
WO2024057627A1 (ja) 物体認識装置、ロボットシステム、および、物体認識方法
KR102203374B1 (ko) 이송 장치와 이송 장치의 위치 인식 방법
US20240201707A1 (en) Traveling vehicle and traveling vehicle system
JP2024004973A (ja) 判定装置、ピックアップシステムおよび判定方法
CN117585242A (zh) 托盘回收方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7173344

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150