WO2021084797A1 - 物体検出装置、物体検出方法、物体検出プログラム及び学習装置 - Google Patents

物体検出装置、物体検出方法、物体検出プログラム及び学習装置 Download PDF

Info

Publication number
WO2021084797A1
WO2021084797A1 PCT/JP2020/025708 JP2020025708W WO2021084797A1 WO 2021084797 A1 WO2021084797 A1 WO 2021084797A1 JP 2020025708 W JP2020025708 W JP 2020025708W WO 2021084797 A1 WO2021084797 A1 WO 2021084797A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
object detection
target
unit
image data
Prior art date
Application number
PCT/JP2020/025708
Other languages
English (en)
French (fr)
Inventor
勝人 伊佐野
尭理 中尾
紘和 阿部
祐貴 徳田
光義 山足
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to EP20881785.8A priority Critical patent/EP4024333B1/en
Priority to CN202080071977.6A priority patent/CN114556415A/zh
Publication of WO2021084797A1 publication Critical patent/WO2021084797A1/ja
Priority to US17/690,335 priority patent/US20220198679A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the object detection method is The data extraction unit extracts a plurality of image data of an enlarged area having a size corresponding to the position in the image data as partial data from the image data obtained by photographing the imaged area by the photographing device.
  • the resizing unit resizes each of the extracted multiple partial data to the required size required by the object detection model, which is a model for detecting an object from the image data.
  • the object detection unit inputs each of the plurality of resized partial data into the object detection model, and detects the target object from the target data and each of the partial data.
  • Step S12 of FIG. 2 Image acquisition process
  • the image acquisition unit 22 acquires the latest frame image data obtained by photographing the photographing area by the photographing apparatus 41 via the communication interface 14.
  • the object detection device 10 includes an electronic circuit 15 instead of the processor 11, the memory 12, and the storage 13.
  • the electronic circuit 15 is a dedicated circuit that realizes the functions of each functional component, the memory 12, and the storage 13.
  • Embodiment 2 is different from the first embodiment in that only the partial data 36 is input to the object detection model 31. In the second embodiment, these different points will be described, and the same points will be omitted.
  • Step S14 of FIG. 2 Resize process
  • the resizing unit 24 resizes each of the extracted plurality of partial data 36 to the required size required by the object detection model 31.
  • the object detection device 10 in each embodiment may be applied to an automatic guided vehicle (AGV, Automated guided vehicle).
  • AGV Automated guided vehicle
  • the position of the own vehicle is grasped by reading the symbols drawn on the floor and ceiling.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

データ抽出部(23)は、撮影装置(41)によって撮影領域が撮影されて得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、対象データのうち拡大領域の画像データを部分データとして抽出する。サイズ変更部(24)は、対象データ及び部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更する。物体検出部(25)は、サイズ変更された対象データ及び部分データそれぞれを物体検出モデルに入力して、対象データ及び部分データそれぞれから対象の物体を検出する。

Description

物体検出装置、物体検出方法、物体検出プログラム及び学習装置
 この発明は、物体検出モデルを用いて画像データから対象の物体を検出する技術に関する。
 ディープラーニング等を用いて生成された物体検出モデルに対して、撮影装置で得られた画像データを入力して、画像データに含まれる対象の物体を検出することが行われている(特許文献1参照)。物体検出モデルでは、予め定められたサイズに画像データを縮小した上で、物体の検出を行う場合がある。
特開2019-003396号公報
 例えば、画像データの奥の方に映った物体は、画像データを縮小した場合には小さくなりすぎてしまい、物体検出モデルによる検出が困難になってしまう。
 この発明は、小さく映った物体についても物体検出モデルにより検出可能にすることを目的とする。
 この発明に係る物体検出装置は、
 撮影装置によって撮影領域が撮影されて得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出部と、
 前記データ抽出部によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
 前記サイズ変更部によってサイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出部と
を備える。
 前記物体検出装置は、さらに、
 前記物体検出部によって前記対象データから検出された結果を示す第1結果データと、前記部分データから検出された第2結果データとを、同一の物体については1つの物体になるように統合した統合結果データを生成する統合部
を備える。
 前記物体検出装置は、さらに、
 前記対象データ及び前記部分データそれぞれを学習データとして前記物体検出モデルに与えて学習させる学習部
を備える。
 この発明に係る物体検出方法は、
 データ抽出部が、撮影装置によって撮影領域が撮影されて得られた画像データのうち検
出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出し、
 サイズ変更部が、前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更し、
 物体検出部が、サイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する。
 この発明に係る物体検出プログラムは、
 撮影装置によって撮影領域が撮影されて得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出処理と、
 前記データ抽出処理によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更処理と、
 前記サイズ変更処理によってサイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出処理と
を行う物体検出装置としてコンピュータを機能させる。
 この発明に係る学習装置は、
 撮影装置によって得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出部と、
 前記データ抽出部によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
 前記サイズ変更部によってサイズ変更された前記対象データ及び前記部分データそれぞれを学習データとして前記物体検出モデルを生成する学習部と
を備える。
 この発明に係る物体検出装置は、
 撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出するデータ抽出部と、
 前記データ抽出部によって抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
 前記サイズ変更部によってサイズ変更された前記複数の部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出部と
を備える。
 前記物体検出装置は、さらに、
 前記物体検出部によって前記複数の部分データそれぞれから検出された結果データを、同一の物体については1つの物体になるように統合した統合結果データを生成する統合部を備える。
 前記物体検出装置は、さらに、
 前記複数の部分データそれぞれを学習データとして前記物体検出モデルに与えて学習さ
せる学習部
を備える。
 この発明に係る物体検出方法は、
 データ抽出部が、撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出し、
 サイズ変更部が、抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更し、
 物体検出部が、サイズ変更された前記複数の部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する。
 この発明に係る物体検出プログラムは、
 撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出するデータ抽出処理と、
 前記データ抽出処理によって抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更処理と、
 前記サイズ変更処理によってサイズ変更された前記複数の部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出処理と
を行う物体検出装置としてコンピュータを機能させる。
 この発明に係る学習装置は、
 撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出するデータ抽出部と、
 前記データ抽出部によって抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
 前記サイズ変更部によってサイズ変更された前記複数の部分データそれぞれを学習データとして前記物体検出モデルを生成する学習部と
を備える。
 この発明では、対象データだけでなく部分データも物体検出モデルに入力して対象の物体を検出する。これにより、画像データの奥の方に映った物体のように、小さく映った物体についても物体検出モデルにより検出可能になる。
実施の形態1に係る物体検出装置10の構成図。 実施の形態1に係る物体検出装置10の動作を示すフローチャート。 実施の形態1に係る検出対象領域33及び拡大領域34を示す図。 実施の形態1に係る対象データ35及び部分データ36を示す図。 実施の形態1に係るサイズ変更処理の説明図。 変形例1に係る物体検出装置10の構成図。 実施の形態2に係る拡大領域34を示す図。 実施の形態3に係る物体検出装置10の構成図。 実施の形態3に係る物体検出装置10の動作を示すフローチャート。 変形例5に係る学習装置50の構成図。
 実施の形態1.
 ***構成の説明***
 図1を参照して、実施の形態1に係る物体検出装置10の構成を説明する。
 物体検出装置10は、コンピュータである。
 物体検出装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
 メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。
 ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash,登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記録媒体であってもよい。
 通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High-Definition Multimedia Interface)のポートである。
 物体検出装置10は、通信インタフェース14を介して、監視カメラといった撮影装置41と接続されている。
 物体検出装置10は、機能構成要素として、設定読込部21と、画像取得部22と、データ抽出部23と、サイズ変更部24と、物体検出部25と、統合部26とを備える。物体検出装置10の各機能構成要素の機能はソフトウェアにより実現される。
 ストレージ13には、物体検出装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、物体検出装置10の各機能構成要素の機能が実現される。
 ストレージ13には、物体検出モデル31と、設定データ32とが記憶される。
 図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
 ***動作の説明***
 図2から図5を参照して、実施の形態1に係る物体検出装置10の動作を説明する。
 実施の形態1に係る物体検出装置10の動作手順は、実施の形態1に係る物体検出方法に相当する。また、実施の形態1に係る物体検出装置10の動作を実現するプログラムは、実施の形態1に係る物体検出プログラムに相当する。
 (図2のステップS11:設定読込処理)
 設定読込部21は、検出対象領域33及び拡大領域34を示す設定データ32をストレージ13から読み込む。
 検出対象領域33は、撮影装置41によって撮影される撮影領域のうち対象の物体を検出する領域である。
 拡大領域34は、検出対象領域33のうち小さく映った物体を検出する領域である。実施の形態1では、図3に示すように、拡大領域34は、画像データの奥の方の領域である。つまり、実施の形態1では、拡大領域34は、検出対象領域33における撮影装置41の撮影領域のうち奥行方向の距離が基準距離以上の領域を含む領域である。なお、奥行方向の手前側の領域であっても小さな物体を対象の物体として扱う領域については、拡大領域34として設定される可能性もある。また、検出対象領域33のうち拡大領域34を複数設定してもよい。
 実施の形態1では、検出対象領域33及び拡大領域34を示す設定データ32は、物体検出装置10の管理者等によって事前に設定され、ストレージ13に記憶されるものとした。しかし、ステップS11の処理において、設定読込部21が検出対象領域33及び拡大領域34を管理者等に指定させてもよい。つまり、例えば、設定読込部21は、撮影領域を表示して、撮影領域のうちどの領域を検出対象領域33とし、どの領域を拡大領域34とするかを指定させ、その指定に基づき、設定データ32を生成する機能を有してもよい。また設定データ32を撮影装置41ごとに、又は、撮影装置41をグルーピングしたグループごとに、ストレージ13に記憶するように構成してもよい。その場合、ステップS11では、画像データを取得する撮影装置41に対応した設定データ32が読み込まれる。
 (図2のステップS12:画像取得処理)
 画像取得部22は、通信インタフェース14を介して、撮影装置41によって撮影領域が撮影されて得られた最新のフレームの画像データを取得する。
 (図2のステップS13:データ抽出処理)
 データ抽出部23は、ステップS12で取得された画像データのうち、ステップS11で読み込まれた設定データ32が示す検出対象領域33を含む領域の画像データを対象データ35として抽出する。実施の形態1では、データ抽出部23は、ステップS12で取得された画像データをそのまま対象データ35に設定する。また、データ抽出部23は、対象データのうち、ステップS11で読み込まれた設定データ32が示す拡大領域34の画像データを部分データ36として抽出する。
 具体例としては、ステップS12で図4に示す画像データが取得された場合には、データ抽出部23は、図4に示す画像データをそのまま対象データ35に設定し、図4に示す画像データのうち拡大領域34部分の画像データを部分データ36として抽出する。
 (図2のステップS14:サイズ変更処理)
 サイズ変更部24は、抽出された対象データ35及び部分データ36それぞれを物体検出モデル31によって要求される要求サイズにサイズ変更する。物体検出モデル31は、ディープラーニングといった手法によって生成されたモデルであり、画像データから対象の物体を検出するモデルである。
 具体例としては、図5に示すように、対象データ35が横1920ピクセル×縦120
0ピクセルの画像データであり、部分データ36が横320ピクセル×縦240ピクセルの画像データであったとする。また、要求サイズが横512ピクセル×縦512ピクセルであったとする。この場合には、サイズ変更部24は、対象データ35を縮小して、横512ピクセル×縦512ピクセルの画像データに変換する。また、サイズ変更部24は、部分データ36を拡大して、横512ピクセル×縦512ピクセルの画像データに変換する。
 なお、対象データ35については、原則として縮小されることを想定する。つまり、要求サイズは、対象データ35のサイズよりも小さいことを想定する。しかし、部分データ36については、拡大領域34の大きさによって拡大される場合と縮小される場合とがある。但し、部分データ36は、対象データ35の一部の画像データであるため、縮小される場合であっても対象データ35ほどの倍率で縮小されることはない。
 (図2のステップS15:物体検出処理)
 物体検出部25は、ステップS14でサイズ変更された対象データ35及び部分データ36それぞれを物体検出モデル31に入力して、対象データ35及び部分データ36それぞれから対象の物体を検出する。そして、物体検出部25は、対象データ35から検出された結果を第1結果データ37とし、部分データ36から検出された結果を第2結果データ38とする。
 具体例としては、物体検出部25は、図5に示すように横512ピクセル×縦512ピクセルの画像データに変換された対象データ35及び部分データ36それぞれを物体検出モデル31に入力する。すると、対象データ35からは物体Xが検出される。また、部分データ36からは物体Yが検出される。なお、対象データ35にも物体Yは含まれている。しかし、対象データ35では物体Yは非常に小さいため、対象データ35から物体Yは検出されない可能性がある。
 (図2のステップS16:統合処理)
 統合部26は、対象データ35から抽出された結果を示す第1結果データ37と、部分データ36から抽出された第2結果データ38とを統合した統合結果データを生成する。
 この際、第1結果データ37及び第2結果データ38に同一の物体が含まれている可能性がある。具体例としては、図5に示す対象データ35からも物体Yが検出された場合には、対象データ35及び部分データ36から同一の物体Yが検出されることになる。そこで、統合部26は、同一の物体については1つの物体になるように、第1結果データ37と第2結果データ38とを統合する。つまり、統合部26は、対象データ35及び部分データ36から同一の物体Yが検出された場合であっても、統合結果データには物体Yが1つだけ含まれるように、第1結果データ37と第2結果データ38とを統合する。
 例えば、統合部26は、NMS(Non Maximum Suppression)といった手法を用いて、第1結果データ37と第2結果データ38とを統合する。
 ***実施の形態1の効果***
 以上のように、実施の形態1に係る物体検出装置10は、対象データ35だけでなく部分データ36も要求サイズにサイズ変更した上で、物体検出モデル31に入力して対象の物体を検出する。これにより、画像データの奥の方に映った物体のように、小さく映った物体についても物体検出モデル31により検出可能になる。
 つまり、図5の対象データ35には物体X及び物体Yが含まれている。しかし、物体検出モデル31に入力される場合には、対象データ35が要求サイズにサイズ変更されてしまい、物体Yは非常に小さくなってしまう。そのため、対象データ35からは、本来検出されるべき物体Yは検出されなくなってしまう。
 しかし、対象データ35とは別に部分データ36についても要求サイズにサイズ変更された上で、物体検出モデル31に入力される。部分データ36は、対象データ35の一部
の画像データである。したがって、サイズ変更された後の部分データ36に含まれる物体Yは、サイズ変更された後の対象データ35に含まれる物体Yに比べ大きい。そのため、部分データ36からは物体Yが検出しやすくなる。
 また、実施の形態1に係る物体検出装置10は、同一の物体については1つの物体になるように、第1結果データ37と第2結果データ38とを統合して統合結果データを生成する。これにより、1つの物体が対象データ35あるいは部分データ36の一方から検出された場合、対象データ35および部分データ36の双方から検出された場合のどちらの場合も、1つの物体が検出された統合結果データを得ることができる。
 ***他の構成***
 <変形例1>
 撮影装置41と物体を検知したい領域との距離又は角度等により、拡大領域34は画像データの奥の方の領域に限定されずに、中央付近の領域とする場合が考えられる。また撮影装置41の撮影領域によっては、拡大領域34を複数設定する場合もある。
 つまり小さく映った物体を検出する領域として、拡大領域34は画像データ上の任意の領域を範囲として、任意の数の設定を行うことができる。それらの個別の条件を撮影装置41ごとの設定データ32に設定することにより、撮影装置41ごとに部分データ36の抽出が可能となる。
 <変形例2>
 実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例2として、各機能構成要素はハードウェアで実現されてもよい。この変形例2について、実施の形態1と異なる点を説明する。
 図6を参照して、変形例2に係る物体検出装置10の構成を説明する。
 各機能構成要素がハードウェアで実現される場合には、物体検出装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
 電子回路15としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)が想定される。
 各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
 <変形例3>
 変形例3として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
 プロセッサ11とメモリ12とストレージ13と電子回路15とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
 実施の形態2.
 実施の形態2は、部分データ36のみを物体検出モデル31に入力する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
 ***動作の説明***
 図2及び図7を参照して、実施の形態2に係る物体検出装置10の動作を説明する。
 実施の形態2に係る物体検出装置10の動作手順は、実施の形態2に係る物体検出方法に相当する。また、実施の形態2に係る物体検出装置10の動作を実現するプログラムは、実施の形態2に係る物体検出プログラムに相当する。
 ステップS12の処理は、実施の形態1と同じである。
 (図2のステップS11:設定読込処理)
 設定読込部21は、実施の形態1と同様に、検出対象領域33及び拡大領域34を示す設定データ32をストレージ13から読み込む。
 実施の形態2では、図7に示すように、検出対象領域33を概ね覆うように複数の拡大領域34が設定されている。各拡大領域34は、撮影装置41によって得られる画像データの位置に応じたサイズの領域が設定される。つまり、拡大領域34は、対象の物体が小さい位置ほど、小さい領域が設定される。例えば、拡大領域34は、画像データの奥の方の領域ほど小さいサイズの領域が設定され、画像データの手前の方の領域ほど大きいサイズの領域が設定される。
 (図2のステップS13:データ抽出処理)
 データ抽出部23は、ステップS12で取得された画像データのうち、ステップS11で読み込まれた設定データ32が示す複数の拡大領域34それぞれの画像データを部分データ36として抽出する。
 (図2のステップS14:サイズ変更処理)
 サイズ変更部24は、抽出された複数の部分データ36それぞれを物体検出モデル31によって要求される要求サイズにサイズ変更する。
 (図2のステップS15:物体検出処理)
 物体検出部25は、ステップS14でサイズ変更された複数の部分データ36それぞれを物体検出モデル31に入力して、複数の部分データ36それぞれから対象の物体を検出する。そして、物体検出部25は、複数の部分データ36それぞれから検出された結果を第2結果データ38とする。
 (図2のステップS16:統合処理)
 統合部26は、複数の部分データ36それぞれから抽出された第2結果データ38を統合した統合結果データを生成する。この際、複数の第2結果データ38に同一の物体が含まれている可能性がある。そこで、統合部26は、同一の物体については1つの物体になるように、複数の第2結果データ38を統合する。
 ***実施の形態2の効果***
 以上のように、実施の形態2に係る物体検出装置10は、画像データにおける位置に応じたサイズの複数の拡大領域34を設定し、各拡大領域34の部分データ36を入力として対象の物体を検出する。これにより、画像データにおける位置に応じた適切なサイズの画像データから物体検出モデル31により検出が行われることになる。その結果、検出精度が高くなる可能性がある。
 なお図7を用いて説明した拡大領域34は、検出対象領域33を概ね覆うように複数設定されているが、必ずしも拡大領域34で検出対象領域33を覆う必要はない。撮影装置41の撮影領域に応じて、検出対象領域33上に重点的に検出すべき領域や物体がある場合、逆に検出対象領域33上に検出不要とする領域がある場合、撮影装置41毎に検出対
象領域33の一部に複数の拡大領域34を設定するように、設定データ32を設定してもよい。
 実施の形態3.
 実施の形態3は、物体検出モデル31を生成する点が実施の形態1,2と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
 実施の形態3では、実施の形態1に対応した物体検出モデル31を生成する場合について説明する。
 ***構成の説明***
 図8を参照して、実施の形態3に係る物体検出装置10の構成を説明する。
 物体検出装置10は、機能構成要素として、学習部27を備える点が実施の形態1と異なる。学習部27は、他の機能構成要素と同様に、ソフトウェア又はハードウェアによって実現される。
 ***動作の説明***
 図9を参照して、実施の形態3に係る物体検出装置10の動作を説明する。
 実施の形態3に係る物体検出装置10の動作手順は、実施の形態3に係る物体検出方法に相当する。また、実施の形態3に係る物体検出装置10の動作を実現するプログラムは、実施の形態3に係る物体検出プログラムに相当する。
 ステップS21からステップS24の処理は、実施の形態1における図2のステップS11からステップS14の処理と同じである。
 (図9のステップS25:学習処理)
 学習部27は、ステップS23でサイズ変更された対象データ35及び部分データ36それぞれを学習データとして与えることにより、ディープラーニングといった処理により物体検出モデル31を生成する。ここで、対象データ35及び部分データ36は、図2で説明した処理における対象データ35及び部分データ36と同じ領域の画像データである。
 なお、対象データ35及び部分データ36それぞれについて、含まれる対象の物体が人手等で特定され教師付きの学習データが生成されてもよい。そして、学習部27は、教師付きの学習データを与えて学習させてもよい。
 ***実施の形態3の効果***
 以上のように、実施の形態3に係る物体検出装置10は、対象データ35だけでなく部分データ36も学習データとして与えることにより、物体検出モデル31を生成する。部分データ36は、サイズの拡大に伴い、対象データ35と比較すると、一部又は全体の画像が不鮮明になる可能性がある。拡大に伴い、不鮮明な部分を含む画像データが学習データとして与えられていない場合には、不鮮明な部分を含む画像データからの検出精度が低くなってしまう場合がある。
そのため、対象データ35だけを学習データとして与え物体検出モデル31を生成すると、部分データ36から物体を検出する処理の精度が低くなる可能性がある。しかし、実施の形態3に係る物体検出装置10は、部分データ36も学習データとして与えることにより、部分データ36から物体を検出する処理の精度を高くすることができる。
 ***他の構成***
 <変形例4>
 実施の形態3では、実施の形態1に対応した物体検出モデル31を生成する場合について説明した。実施の形態2に対応した物体検出モデル31を生成することも可能である。
 この場合には、ステップS21からステップS24の処理は、実施の形態2における図2のステップS11からステップS14の処理と同じである。図9のステップS25では、学習部27は、ステップS23でサイズ変更された複数の部分データ36それぞれを学習データとして与えることにより、ディープラーニングといった処理により物体検出モデル31を生成する。これにより、実施の形態3と同様の効果を奏する。
 <変形例5>
 実施の形態3及び変形例4では、物体検出装置10が物体検出モデル31を生成した。しかし、物体検出装置10とは別の学習装置50が物体検出モデル31を生成してもよい。
 図10に示すように、学習装置50は、コンピュータである。学習装置50は、プロセッサ51と、メモリ52と、ストレージ53と、通信インタフェース54とのハードウェアを備える。プロセッサ51とメモリ52とストレージ53と通信インタフェース54とは、物体検出装置10のプロセッサ11とメモリ12とストレージ13と通信インタフェース14と同じである。
 学習装置50は、機能構成要素として、設定読込部61と、画像取得部62と、データ抽出部63と、サイズ変更部64と、学習部65とを備える。学習装置50の各機能構成要素の機能はソフトウェアにより実現される。設定読込部61と画像取得部62とデータ抽出部63とサイズ変更部64と学習部65とは、物体検出装置10の設定読込部21と画像取得部22とデータ抽出部23とサイズ変更部24と学習部27と同じである。
 なお、各実施の形態における物体検出装置10は、無人搬送車(AGV,Automated guided vehicle)に適用するようにしてもよい。誘導方式として画像認識方式を採用する無人搬送車においては、床や天井に描かれた記号を読み取り、それによって自車の位置を把握するようにしている。本発明における物体検出装置を無人搬送車に適用することで、小さく映ったマークについても検出できるようになるため、より高精度な移動が可能な無人搬送車を提供することができる。
 以上、この発明の実施の形態及び変形例について説明した。これらの実施の形態及び変形例のうち、いくつかを組み合わせて実施してもよい。また、いずれか1つ又はいくつかを部分的に実施してもよい。なお、この発明は、以上の実施の形態及び変形例に限定されるものではなく、必要に応じて種々の変更が可能である。
 10 物体検出装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、21 設定読込部、22 画像取得部、23 データ抽出部、24 サイズ変更部、25 物体検出部、26 統合部、27 学習部、31 物体検出モデル、32 設定データ、33 検出対象領域、34 拡大領域、35 対象データ、36 部分データ、37 第1結果データ、38 第2結果データ、41 撮影装置、50 学習装置、51 プロセッサ、52 メモリ、53 ストレージ、54 通信インタフェース、61 設定読込部、62 画像取得部、63 データ抽出部、64 サイズ変更部、65 学習部。

Claims (12)

  1.  撮影装置によって撮影領域が撮影されて得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出部と、
     前記データ抽出部によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
     前記サイズ変更部によってサイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出部と
    を備える物体検出装置。
  2.  前記物体検出装置は、さらに、
     前記物体検出部によって前記対象データから検出された結果を示す第1結果データと、前記部分データから検出された第2結果データとを、同一の物体については1つの物体になるように統合した統合結果データを生成する統合部
    を備える請求項1に記載の物体検出装置。
  3.  前記物体検出装置は、さらに、
     前記対象データ及び前記部分データそれぞれを学習データとして前記物体検出モデルに与えて学習させる学習部
    を備える請求項1又は2に記載の物体検出装置。
  4.  データ抽出部が、撮影装置によって撮影領域が撮影されて得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出し、
     サイズ変更部が、前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更し、
     物体検出部が、サイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出方法。
  5.  撮影装置によって撮影領域が撮影されて得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出処理と、
     前記データ抽出処理によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更処理と、
     前記サイズ変更処理によってサイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出処理と
    を行う物体検出装置としてコンピュータを機能させる物体検出プログラム。
  6.  撮影装置によって得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出部と、
     前記データ抽出部によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
     前記サイズ変更部によってサイズ変更された前記対象データ及び前記部分データそれぞれを学習データとして前記物体検出モデルを生成する学習部と
    を備える学習装置。
  7.  撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出するデータ抽出部と、
     前記データ抽出部によって抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
     前記サイズ変更部によってサイズ変更された前記複数の部分データそれぞれを前記物体検出モデルに入力して、前記複数の部分データそれぞれから対象の物体を検出する物体検出部と
    を備える物体検出装置。
  8.  前記物体検出装置は、さらに、
     前記物体検出部によって前記複数の部分データそれぞれから検出された結果データを、同一の物体については1つの物体になるように統合した統合結果データを生成する統合部を備える請求項7に記載の物体検出装置。
  9.  前記物体検出装置は、さらに、
     前記複数の部分データそれぞれを学習データとして前記物体検出モデルに与えて学習させる学習部
    を備える請求項7又は8に記載の物体検出装置。
  10.  データ抽出部が、撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出し、
     サイズ変更部が、抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更し、
     物体検出部が、サイズ変更された前記複数の部分データそれぞれを前記物体検出モデルに入力して、前記複数の部分データそれぞれから対象の物体を検出する物体検出方法。
  11.  撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出するデータ抽出処理と、
     前記データ抽出処理によって抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更処理と、
     前記サイズ変更処理によってサイズ変更された前記複数の部分データそれぞれを前記物体検出モデルに入力して、前記複数の部分データそれぞれから対象の物体を検出する物体検出処理と
    を行う物体検出装置としてコンピュータを機能させる物体検出プログラム。
  12.  撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出するデータ抽出部と、
     前記データ抽出部によって抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
     前記サイズ変更部によってサイズ変更された前記複数の部分データそれぞれを学習データとして前記物体検出モデルを生成する学習部と
    を備える学習装置。
PCT/JP2020/025708 2019-10-29 2020-06-30 物体検出装置、物体検出方法、物体検出プログラム及び学習装置 WO2021084797A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20881785.8A EP4024333B1 (en) 2019-10-29 2020-06-30 Object detection device, object detection method, object detection program, learning device, learning method and learning program
CN202080071977.6A CN114556415A (zh) 2019-10-29 2020-06-30 物体检测装置、物体检测方法、物体检测程序以及学习装置
US17/690,335 US20220198679A1 (en) 2019-10-29 2022-03-09 Object detection device, learning device and computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019196150A JP6932758B2 (ja) 2019-10-29 2019-10-29 物体検出装置、物体検出方法、物体検出プログラム、学習装置、学習方法及び学習プログラム
JP2019-196150 2019-10-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/690,335 Continuation US20220198679A1 (en) 2019-10-29 2022-03-09 Object detection device, learning device and computer readable medium

Publications (1)

Publication Number Publication Date
WO2021084797A1 true WO2021084797A1 (ja) 2021-05-06

Family

ID=75713142

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/025708 WO2021084797A1 (ja) 2019-10-29 2020-06-30 物体検出装置、物体検出方法、物体検出プログラム及び学習装置

Country Status (5)

Country Link
US (1) US20220198679A1 (ja)
EP (1) EP4024333B1 (ja)
JP (1) JP6932758B2 (ja)
CN (1) CN114556415A (ja)
WO (1) WO2021084797A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023171248A (ja) * 2022-05-18 2023-12-01 浙江工商大学 ディープラーニングに基づく分散式異種データの処理方法、装置及び設備

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102631452B1 (ko) * 2021-06-30 2024-01-30 주식회사 에이리스 인공 지능 기반 검출 모델에 대한 학습 데이터를 생성하기 위한 방법, 시스템 및 기록 매체

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123081A (ja) * 2007-11-16 2009-06-04 Fujifilm Corp 顔検出方法及び撮影装置
JP2013037488A (ja) * 2011-08-05 2013-02-21 Mega Chips Corp 画像認識装置
JP2019003396A (ja) 2017-06-15 2019-01-10 コニカミノルタ株式会社 目的物体検出装置、該方法およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5690688B2 (ja) * 2011-09-15 2015-03-25 クラリオン株式会社 外界認識方法,装置,および車両システム
US20170206426A1 (en) * 2016-01-15 2017-07-20 Ford Global Technologies, Llc Pedestrian Detection With Saliency Maps

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123081A (ja) * 2007-11-16 2009-06-04 Fujifilm Corp 顔検出方法及び撮影装置
JP2013037488A (ja) * 2011-08-05 2013-02-21 Mega Chips Corp 画像認識装置
JP2019003396A (ja) 2017-06-15 2019-01-10 コニカミノルタ株式会社 目的物体検出装置、該方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023171248A (ja) * 2022-05-18 2023-12-01 浙江工商大学 ディープラーニングに基づく分散式異種データの処理方法、装置及び設備
JP7408042B2 (ja) 2022-05-18 2024-01-05 浙江工商大学 ディープラーニングに基づく分散式異種データの処理方法、装置及び設備

Also Published As

Publication number Publication date
CN114556415A (zh) 2022-05-27
EP4024333A1 (en) 2022-07-06
EP4024333B1 (en) 2023-10-11
JP6932758B2 (ja) 2021-09-08
EP4024333A4 (en) 2022-11-02
US20220198679A1 (en) 2022-06-23
JP2021071757A (ja) 2021-05-06

Similar Documents

Publication Publication Date Title
JP6094775B2 (ja) ビデオコンテンツ処理方法及びシステム
WO2021084797A1 (ja) 物体検出装置、物体検出方法、物体検出プログラム及び学習装置
US10455163B2 (en) Image processing apparatus that generates a combined image, control method, and storage medium
US9256792B2 (en) Image processing apparatus, image processing method, and program
US20220301276A1 (en) Object detection device, object detection method, and computer readable medium
JP7333520B2 (ja) 学習プログラム、学習方法、及び情報処理装置
CN107749069B (zh) 图像处理方法、电子设备和图像处理系统
US11250581B2 (en) Information processing apparatus, information processing method, and storage medium
JP6530432B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20160027183A1 (en) Image processing apparatus, image processing method and program
US9171227B2 (en) Apparatus and method extracting feature information of a source image
US10834281B2 (en) Document size detecting by matching between image of entire document and read size image
JP2016053763A (ja) 画像処理装置、画像処理方法及びプログラム
JP6782825B1 (ja) 通知判定装置、通知判定方法及び通知判定プログラム
JP6364182B2 (ja) 文字列認識装置および文字列認識方法
US10380463B2 (en) Image processing device, setting support method, and non-transitory computer-readable media
JP6063680B2 (ja) 画像生成装置、画像生成方法、撮像装置、および撮像方法
KR20200137839A (ko) Vr 학습 영상 제공 방법 및 장치
JP6877501B2 (ja) 滞留検知装置、滞留検知方法及び滞留検知プログラム
JP6922690B2 (ja) 文字領域抽出プログラム、文字領域抽出装置及び文字領域抽出方法
US20180373951A1 (en) Image processing apparatus, image processing method, and storage medium
WO2016203930A1 (ja) 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
JP2021144254A (ja) 画像解析装置、画像解析システムおよび画像解析方法
JP2007122570A (ja) パターン認識装置及びパターン認識プログラム
JP2011170812A (ja) 駐車検出装置、駐車検出方法および駐車検出プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20881785

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020881785

Country of ref document: EP

Effective date: 20220331

NENP Non-entry into the national phase

Ref country code: DE