JP2022021535A - Object detection device, system, and method - Google Patents

Object detection device, system, and method Download PDF

Info

Publication number
JP2022021535A
JP2022021535A JP2020125153A JP2020125153A JP2022021535A JP 2022021535 A JP2022021535 A JP 2022021535A JP 2020125153 A JP2020125153 A JP 2020125153A JP 2020125153 A JP2020125153 A JP 2020125153A JP 2022021535 A JP2022021535 A JP 2022021535A
Authority
JP
Japan
Prior art keywords
image
wavelength band
object detection
predetermined
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020125153A
Other languages
Japanese (ja)
Inventor
佑人 小松
Yuto Komatsu
宏一 浜田
Koichi Hamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020125153A priority Critical patent/JP2022021535A/en
Priority to PCT/JP2021/009387 priority patent/WO2022018902A1/en
Publication of JP2022021535A publication Critical patent/JP2022021535A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Abstract

To provide a technique capable of detecting an object in various environment.SOLUTION: An object detection device includes: a first image acquisition unit for acquiring a first image in which a predetermined space is photographed by a first imaging device that photographs an image by detecting light from an object in a predetermined first wavelength band; a second image acquisition unit for acquiring a second image in which the predetermined space is photographed by a second imaging device that photographs an image by detecting light from an object in a second wavelength band that is different from the first wavelength band; a determination unit for determining a usage image used for object detection from the first image and the second image; and a detection processing unit for detecting a predetermined target object that is a detection target included in the usage image.SELECTED DRAWING: Figure 2

Description

本開示は、物体を検出する技術に関する。 The present disclosure relates to a technique for detecting an object.

特許文献1には物体検出装置が開示されている。特許文献1の物体検出装置は、撮影装置で取得された画像に含まれる物体を検出する。その撮影装置は、近赤外線カメラまたは可視光カメラである。すなわち、特許文献1の物体検出装置は、近赤外線カメラまたは可視光カメラで取得された画像に含まれる物体を検出するものである。 Patent Document 1 discloses an object detection device. The object detection device of Patent Document 1 detects an object included in an image acquired by a photographing device. The photographing device is a near-infrared camera or a visible light camera. That is, the object detection device of Patent Document 1 detects an object included in an image acquired by a near-infrared camera or a visible light camera.

特開2020-027405号公報Japanese Unexamined Patent Publication No. 2020-027405

特許文献1に開示された物体検出装置は、近赤外線カメラまたは可視光カメラのいずれか一方の撮影装置から画像を取得し、その画像における物体を検出する。例えば、物体検出装置が可視光カメラの画像を取得するものである場合、近赤外線カメラの画像からであれば検出できるであろう物体を検出できないという事態が起こり得る。また、その逆に、近赤外線カメラの画像を用いていることで、可視光カメラの画像からであれば検出できるであろう物体を検出できないという事態が起こり得る。 The object detection device disclosed in Patent Document 1 acquires an image from an imaging device of either a near-infrared camera or a visible light camera, and detects an object in the image. For example, when the object detection device acquires an image of a visible light camera, a situation may occur in which an object that could be detected from an image of a near-infrared camera cannot be detected. On the contrary, by using the image of the near-infrared camera, a situation may occur in which an object that could be detected from the image of the visible light camera cannot be detected.

本開示のひとつの目的は、多様な環境での物体の検出を可能にする技術を提供することである。 One object of the present disclosure is to provide a technique that enables detection of an object in various environments.

本開示のひとつの態様に従う物体検出装置は、所定の第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置により所定の空間を撮影した第1画像を取得する第1画像取得部と、前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置により前記空間を撮影した第2画像を取得する第2画像取得部と、前記第1画像と前記第2画像から物体検出に用いる利用画像を決定する判定部と、前記利用画像に含まれる検出対象である所定の対象物体を検出する検出処理部と、を有する。 The object detection device according to one aspect of the present disclosure acquires a first image obtained by capturing a predetermined space by a first image pickup device that captures an image by detecting light from an object in a predetermined first wavelength band. A second image that acquires a second image of the space by a first image acquisition unit and a second image pickup device that captures an image by detecting light from an object in a second wavelength band different from the first wavelength band. An acquisition unit, a determination unit that determines a use image to be used for object detection from the first image and the second image, and a detection processing unit that detects a predetermined target object included in the use image. Have.

本開示のひとつの態様によれば、多様な環境での物体の検出を可能にする技術を提供することが可能となる。 According to one aspect of the present disclosure, it is possible to provide a technique that enables detection of an object in various environments.

物体検出システムの概略構成図である。It is a schematic block diagram of an object detection system. 物体検出装置のブロック図である。It is a block diagram of an object detection device. 判定部13および検出処理部14による一連の処理を示すフローチャートである。It is a flowchart which shows a series of processing by a determination unit 13 and a detection processing unit 14. ルールベース物体検出処理のフローチャートである。It is a flowchart of a rule-based object detection process. ルールベース物体検出処理のフローチャートである。It is a flowchart of a rule-based object detection process. 領域分割処理のフローチャートである。It is a flowchart of the area division processing. 物体検出システムの利用イメージを示す図である。It is a figure which shows the use image of the object detection system. 物体検出装置のハードウェア構成を示す図である。It is a figure which shows the hardware composition of the object detection apparatus. 変形例における判定部13および検出処理部14による一連の処理を示すフローチャートである。It is a flowchart which shows the series of processing by the determination unit 13 and the detection processing unit 14 in the modification.

以下、本開示の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.

図1は、物体検出システムの概略構成図である。物体検出システムは、空間90内で所定の検出対象の物体(以下「対象物体」ともいう)を検出するシステムであり、物体検出装置10と、TOF(Time-of-Flight)センサ81と、可視光カメラ82と、モニタ83とを有している。TOFセンサ81と可視光カメラ82は、対象物体の検出を行う空間90に設置される。空間90は、例えば、同一空間に多種類のエッジデバイスが併設されるマルチモーダル環境である。空間90内には物体の例として人物91、92が存在している。TOFセンサ81および可視光カメラ82は有線や無線の通信回線により物体検出装置10に接続される。 FIG. 1 is a schematic configuration diagram of an object detection system. The object detection system is a system that detects a predetermined object to be detected (hereinafter, also referred to as "object") in the space 90, and is visible to the object detection device 10, the TOF (Time-of-Flit) sensor 81, and the TOF (Time-of-Flit) sensor 81. It has an optical camera 82 and a monitor 83. The TOF sensor 81 and the visible light camera 82 are installed in the space 90 for detecting the target object. The space 90 is, for example, a multimodal environment in which many types of edge devices are installed in the same space. People 91 and 92 exist in the space 90 as examples of objects. The TOF sensor 81 and the visible light camera 82 are connected to the object detection device 10 by a wired or wireless communication line.

TOFセンサ81は、近赤外線の光源を備え、光源からの光が物体で反射した光を検出することにより、空間90内の画像(以下「近赤外線画像」ともいう)を撮影する撮像装置である。一例として、TOFセンサ81は、更に、画素毎の物体までの距離を示す画像(以下「距離画像」ともいう)も撮影する。なお、近赤外線画像を撮影するTOFセンサ81の代わりに、サーモグラフィカメラを用いてもよいサーモグラフィカメラは、物体から入射する遠赤外線の強度を検出し、画素毎に遠赤外線の強度すなわち物体の温度に応じた色を示す温度分布画像を撮影する。この温度分布画像を、TOFセンサ81による近赤外線画像の代わりに用いればよい。 The TOF sensor 81 is an imaging device provided with a near-infrared light source and captures an image in space 90 (hereinafter, also referred to as “near-infrared image”) by detecting light reflected by an object from the light source. .. As an example, the TOF sensor 81 also captures an image showing the distance to an object for each pixel (hereinafter, also referred to as a “distance image”). A thermography camera may be used instead of the TOF sensor 81 for capturing a near-infrared image. The thermography camera detects the intensity of far-infrared rays incident from an object and determines the intensity of far-infrared rays, that is, the temperature of the object for each pixel. Take a temperature distribution image showing the corresponding color. This temperature distribution image may be used instead of the near infrared image obtained by the TOF sensor 81.

可視光カメラ82は、物体から入射する可視光を検出することにより、空間90内の画像(以下「可視光画像」ともいう)を撮影する撮像装置である。 The visible light camera 82 is an image pickup device that captures an image in space 90 (hereinafter, also referred to as “visible light image”) by detecting visible light incident from an object.

物体検出装置10は、例えば、マルチモーダル環境の空間90で取得されるセンサデータから、好適なデータを自動的に取捨選択し、対象物体の良好な検出を実現する装置である。物体検出装置10は、近赤外線画像と可視光画像から、物体の検出に用いる画像(以下「利用画像」ともいう)を決定し、その利用画像に含まれる対象物体を検出する装置である。物体検出装置10は、例えば、近赤外線画像、可視光画像、および距離画像のいずれか1つあるいは複数に基づいて、利用画像を決定する。 The object detection device 10 is, for example, a device that automatically selects suitable data from sensor data acquired in a space 90 in a multimodal environment and realizes good detection of a target object. The object detection device 10 is a device that determines an image to be used for detecting an object (hereinafter, also referred to as a "utilized image") from a near-infrared image and a visible light image, and detects a target object included in the used image. The object detection device 10 determines the image to be used based on, for example, one or a plurality of a near-infrared image, a visible light image, and a distance image.

物体検出装置10は、一例として、コンピュータがソフトウェアプログラムを実行することにより実現される。コンピュータの構成および配置は特に限定されない。例えば、コンピュータは、ユーザ自身が所有し管理するエッジコンピュータであってもよいし、クラウド上に提供されるクラウドコンピュータであってもよい。物体検出装置10の構成および動作の詳細は後述する。 The object detection device 10 is realized by, for example, a computer executing a software program. The configuration and arrangement of the computer are not particularly limited. For example, the computer may be an edge computer owned and managed by the user himself / herself, or may be a cloud computer provided on the cloud. Details of the configuration and operation of the object detection device 10 will be described later.

モニタ83は、物体検出装置10による検出結果等を画面に表示する表示装置である。 The monitor 83 is a display device that displays the detection result or the like by the object detection device 10 on the screen.

図2は、物体検出装置のブロック図である。物体検出装置10は、近赤外線画像取得部11と、近赤外線画像取得部12と、判定部13と、検出処理部14と、ユーザインタフェース(UI)部15とを有している。 FIG. 2 is a block diagram of the object detection device. The object detection device 10 includes a near-infrared image acquisition unit 11, a near-infrared image acquisition unit 12, a determination unit 13, a detection processing unit 14, and a user interface (UI) unit 15.

近赤外線画像取得部11は、TOFセンサ81から近赤外線画像のデータを取得する。また、近赤外線画像取得部11は、TOFセンサ81から距離画像のデータも取得してよい。可視光画像取得部12は、可視光カメラ82から可視光画像のデータを取得する。 The near-infrared image acquisition unit 11 acquires near-infrared image data from the TOF sensor 81. The near-infrared image acquisition unit 11 may also acquire distance image data from the TOF sensor 81. The visible light image acquisition unit 12 acquires the data of the visible light image from the visible light camera 82.

判定部13は、近赤外線画像、可視光画像、距離画像のいずれか1つあるいは複数に基づいて、近赤外線画像と可視光画像から、利用画像を決定する。検出処理部14は、利用画像を分析し、利用画像内に含まれる対象物体を検出する。判定部13および検出処理部14による一連の処理の詳細は後述する。 The determination unit 13 determines the image to be used from the near-infrared image and the visible light image based on any one or a plurality of the near-infrared image, the visible light image, and the distance image. The detection processing unit 14 analyzes the used image and detects the target object included in the used image. Details of a series of processes by the determination unit 13 and the detection processing unit 14 will be described later.

ユーザインタフェース部15は、物体検出装置10が各種情報をユーザに提示し、またユーザから各種情報を取得するためのインタフェース部である。例えば、ユーザインタフェース部15は、タッチパネル式ディスプレイのモニタ83に表示する画面を生成し、モニタ83の画面に対するタッチ操作により入力された情報を取得するものであってよい。 The user interface unit 15 is an interface unit for the object detection device 10 to present various information to the user and to acquire various information from the user. For example, the user interface unit 15 may generate a screen to be displayed on the monitor 83 of the touch panel display and acquire information input by a touch operation on the screen of the monitor 83.

図3は、判定部13および検出処理部14による一連の処理を示すフローチャートである。まず、判定部13は、ステップ101にて、空間90の奥行を算出する。空間90の奥行を算出する手法は特に限定されないが、本実施形態では、距離画像に基づいて空間90の奥行を算出する。例えば、距離画像における最も大きな距離値(画素値)を空間90の奥行としてもよい。他の手法として、例えば、近赤外線画像を用い、TOFセンサ81の焦点位置と近赤外線画像のぼやけ具合とから距離(奥行き)を推定することにしてもよい。TOFセンサ81の代わりにサーモグラフィカメラを用いる場合には、距離画像が得られないので、本手法が有効である。なお、ここでいう奥行は、必ずしも水平方向の距離を意味するものではなく、例えば垂直方向など他の方向の距離であってもよい。次に、判定部13は、ステップ102にて、空間90の奥行が所定の閾値を超える値であるか否か判定する。閾値は任意に定めてよく、例えば5メートルとしてよい。 FIG. 3 is a flowchart showing a series of processes by the determination unit 13 and the detection processing unit 14. First, the determination unit 13 calculates the depth of the space 90 in step 101. The method for calculating the depth of the space 90 is not particularly limited, but in the present embodiment, the depth of the space 90 is calculated based on the distance image. For example, the largest distance value (pixel value) in the distance image may be the depth of the space 90. As another method, for example, a near-infrared image may be used to estimate the distance (depth) from the focal position of the TOF sensor 81 and the degree of blurring of the near-infrared image. When a thermography camera is used instead of the TOF sensor 81, a distance image cannot be obtained, so this method is effective. The depth referred to here does not necessarily mean a distance in the horizontal direction, and may be a distance in another direction such as a vertical direction. Next, in step 102, the determination unit 13 determines whether or not the depth of the space 90 exceeds a predetermined threshold value. The threshold value may be set arbitrarily, for example, 5 meters.

ステップ102の判定で空間90の奥行が閾値を超える値であれば、判定部13は、ステップ103にて、近赤外線画像を利用画像として決定する。続いて、検出処理部14は、ステップ104にて、ルールベース物体検出処理を実行することにより、空間90内の対象物体を検出する。ルールベース物体検出処理は、予め設定された規則に従って対象物体を検出する処理である。ルールベース物体検出処理は、学習データを準備し学習する必要が無く、後述する学習ベース物体検出処理に比べると比較的簡易的な手法である。ルールベース物体検出処理の詳細は後述する。 If the depth of the space 90 exceeds the threshold value in the determination in step 102, the determination unit 13 determines the near-infrared image as the image to be used in step 103. Subsequently, the detection processing unit 14 detects the target object in the space 90 by executing the rule-based object detection processing in step 104. The rule-based object detection process is a process of detecting an object according to a preset rule. The rule-based object detection process does not need to prepare and learn learning data, and is a relatively simple method as compared with the learning-based object detection process described later. The details of the rule-based object detection process will be described later.

一方、ステップ102の判定で空間の奥行が閾値以下であれば、判定部13は、ステップ105にて、可視光画像を利用画像として決定する。続いて、検出処理部14は、ステップ106にて、学習ベース物体検出処理を実行することにより、空間90内の対象物体を検出する。学習ベース物体検出処理では、予め収集された画像データを学習データとして、ディープラーニング等の学習を行い、予測モデルを生成しておき、検出処理部14は、その予測モデルに基づいて、利用画像から対象物体を検出する。 On the other hand, if the depth of the space is equal to or less than the threshold value in the determination in step 102, the determination unit 13 determines the visible light image as the image to be used in step 105. Subsequently, the detection processing unit 14 detects the target object in the space 90 by executing the learning-based object detection process in step 106. In the learning-based object detection process, learning such as deep learning is performed using the image data collected in advance as learning data to generate a prediction model, and the detection processing unit 14 is based on the prediction model from the used image. Detect the target object.

ステップ104の後またはステップ106の後、ユーザインタフェース部15は、ステップ107にて、検出処理部14による検出結果をモニタ83の画面に表示することにより、ユーザに提示する。 After step 104 or after step 106, the user interface unit 15 presents to the user in step 107 by displaying the detection result by the detection processing unit 14 on the screen of the monitor 83.

図4、図5は、ルールベース物体検出処理のフローチャートである。本実施形態による近赤外線画像は、複数のフレーム画像が時系列に連なる映像であるものとする。所定の初期画像とその後に連なる後続画像とに分けて異なる処理を行う。初期画像は1つである必要はなく、時間間隔を空けて繰り返し設けるといったように、任意に設けることができる。例えば、一定時間間隔で初期画像を設けてもよいし、30フレーム毎、60フレーム毎というように一定フレーム数間隔で初期画像を設けてもよい。 4 and 5 are flowcharts of the rule-based object detection process. The near-infrared image according to the present embodiment is assumed to be an image in which a plurality of frame images are connected in chronological order. Different processing is performed separately for a predetermined initial image and subsequent subsequent images. The initial image does not have to be one, and can be arbitrarily provided, such as being repeatedly provided at time intervals. For example, initial images may be provided at regular time intervals, or initial images may be provided at regular frame number intervals such as every 30 frames and every 60 frames.

図4に初期画像に対する処理が示され、図5に後続画像に対する処理が示されている。 FIG. 4 shows the processing for the initial image, and FIG. 5 shows the processing for the succeeding image.

図4を参照すると、検出処理部14は、ステップ201にて初期画像が入力すると、ステップ202にてその初期画像をグレースケールに変換する。続いて、検出処理部14は、ステップ203にて前処理を実行する。 Referring to FIG. 4, when the initial image is input in step 201, the detection processing unit 14 converts the initial image into gray scale in step 202. Subsequently, the detection processing unit 14 executes the preprocessing in step 203.

前処理は、ステップ204の領域分割処理と、ステップ205のラベリングとを含む。ステップ204の領域分割処理にて、検出処理部14は、初期画像における対象物体の領域を特定する。領域分割処理の詳細は後述する。ステップ205のラベリングにて、検出処理部14は、ステップ204で特定された対象物体の領域にその領域を識別する固有の識別番号を付与する。この前処理にて、特定され、識別番号が付与された対象物体の領域が、後続画像において追跡される追跡領域となる。 The preprocessing includes the area division process of step 204 and the labeling of step 205. In the area division process of step 204, the detection processing unit 14 identifies the area of the target object in the initial image. The details of the area division process will be described later. In the labeling of step 205, the detection processing unit 14 assigns a unique identification number for identifying the region of the target object identified in step 204. The area of the target object identified and given the identification number by this preprocessing becomes the tracking area to be tracked in the subsequent image.

その後、ステップ206にて、検出処理部14は、初期画像から特定された対象物体の領域の識別番号および特徴量を含むフレーム情報を保存する。領域の特徴量は、特に限定されないが、例えば、円形度、面積、濃淡、重心などであってよい。更に、ステップ207にて、ユーザインタフェース部15は、ステップ201~206の一連の処理により初期画像から得られた情報を出力する。 After that, in step 206, the detection processing unit 14 saves the frame information including the identification number and the feature amount of the region of the target object identified from the initial image. The feature amount of the region is not particularly limited, but may be, for example, circularity, area, shading, center of gravity, and the like. Further, in step 207, the user interface unit 15 outputs the information obtained from the initial image by the series of processes of steps 201 to 206.

図5を参照すると、検出処理部14は、ステップ301にて後続画像が入力すると、ステップ302にてその後続画像をグレースケールに変換する。続いて、検出処理部14は、ステップ303にて追跡処理を実行する。 Referring to FIG. 5, when the succeeding image is input in step 301, the detection processing unit 14 converts the succeeding image into gray scale in step 302. Subsequently, the detection processing unit 14 executes the tracking process in step 303.

追跡処理は、ステップ304の動きベクトル算出と、ステップ305の追跡領域毎の動きベクトルを算出とを含む。ステップ304の動きベクトル算出にて、検出処理部14は、処理の対象となっている後続画像の前の画像に対するブロック単位の移動量を表す動きベクトルを算出する。ステップ305の追跡領域毎の移動ベクトルを算出にて、検出処理部14は、ステップ304で算出された動きベクトルから、処理の対象となっている後続画像の前の画像に対する各追跡領域の移動量を表す動きベクトルを算出する。 The tracking process includes calculation of the motion vector in step 304 and calculation of the motion vector for each tracking area in step 305. In the motion vector calculation in step 304, the detection processing unit 14 calculates a motion vector representing the movement amount in block units with respect to the image before the succeeding image to be processed. In calculating the movement vector for each tracking area in step 305, the detection processing unit 14 uses the motion vector calculated in step 304 to move the movement amount of each tracking area with respect to the image before the succeeding image to be processed. Calculate the motion vector representing.

その後、ステップ306にて、検出処理部14は、後続画像における追跡領域の識別番号および動きベクトルを含むフレーム情報を保存する。更に、ステップ307にて、ユーザインタフェース部15は、ステップ301~306の一連の処理により後続画像から得られた情報を出力する。 After that, in step 306, the detection processing unit 14 saves the frame information including the identification number and the motion vector of the tracking area in the subsequent image. Further, in step 307, the user interface unit 15 outputs the information obtained from the subsequent image by the series of processes of steps 301 to 306.

図6は、領域分割処理のフローチャートである。なお、ここでは一例として対象物体の形状は直線的でないものとする。 FIG. 6 is a flowchart of the area division process. Here, as an example, it is assumed that the shape of the target object is not linear.

まず、検出処理部14は、ステップ401にて、上記したステップ202でグレースケールに変換された初期画像を取得する。検出処理部14は、続いてステップ402にて、グレースケールの初期画像に対してエッジ検出を行い、検出されたエッジを表す画像(以下「エッジ画像」という)を生成する。エッジは、濃淡の変化が大きい部分であり、物体の輪郭に生じやすい。更に、検出処理部14は、ステップ403にて、エッジ画像にハイパスフィルタを適用してノイズを除去し、ステップ404にて、ハイパスフィルタでノイズを除去したエッジ画像を2値化する。2値化したエッジ画像ではエッジが強調される。 First, in step 401, the detection processing unit 14 acquires the initial image converted to grayscale in step 202 described above. Subsequently, in step 402, the detection processing unit 14 performs edge detection on the grayscale initial image, and generates an image representing the detected edge (hereinafter referred to as “edge image”). The edge is a portion where the change in shade is large, and tends to occur in the contour of the object. Further, the detection processing unit 14 applies a high-pass filter to the edge image to remove noise in step 403, and binarizes the edge image from which noise has been removed by the high-pass filter in step 404. Edges are emphasized in the binarized edge image.

2値化したエッジ画像に対して、ステップ405~407の処理とステップ408~410の処理の2通りの処理が行われる。 The binarized edge image is subjected to two types of processing, steps 405 to 407 and steps 408 to 410.

ステップ405では、検出処理部14は、2値化したエッジ画像を、画素値によって区切られる領域に分割する。続いて、ステップ406では、検出処理部14は、ステップ405で得られた各領域の特徴量を抽出する。領域の特徴量は、特に限定されないが、例えば、円形度、面積、濃淡、重心などであってよい。更に、ステップ407にて、検出処理部14は、ステップ406で抽出された特徴量に基づき、ステップ405で得られた領域のうち対象物体と異なる特徴量を有する領域を除外し、対象物体の領域の候補を絞り込む。 In step 405, the detection processing unit 14 divides the binarized edge image into regions separated by pixel values. Subsequently, in step 406, the detection processing unit 14 extracts the feature amount of each region obtained in step 405. The feature amount of the region is not particularly limited, but may be, for example, circularity, area, shading, center of gravity, and the like. Further, in step 407, the detection processing unit 14 excludes a region having a feature quantity different from that of the target object from the region obtained in step 405 based on the feature quantity extracted in step 406, and the region of the target object. Narrow down the candidates.

一方、ステップ408では、検出処理部14は、2値化したエッジ画像から直線を検出する。続いて、ステップ409にて、検出処理部14は、2値化したエッジ画像から、ステップ409で検出された直線の領域(以下「直線領域」という)を分割する。更に、ステップ410にて、検出処理部14は、ステップ410で得られた直線領域の特徴量を抽出する。直線領域の特徴量は特に限定されないが、例えば、円形度、面積、濃淡、重心などであってよい。 On the other hand, in step 408, the detection processing unit 14 detects a straight line from the binarized edge image. Subsequently, in step 409, the detection processing unit 14 divides the linear region (hereinafter referred to as “straight line region”) detected in step 409 from the binarized edge image. Further, in step 410, the detection processing unit 14 extracts the feature amount of the linear region obtained in step 410. The feature amount in the linear region is not particularly limited, but may be, for example, circularity, area, shading, center of gravity, and the like.

2値化したエッジ画像に対する2通りの処理が終わった後、ステップ411にて、検出処理部14は、ステップ407で得られた領域のうちステップ410で得られた直線領域を除外し、残った領域を対象物体の領域とする。そして、ステップ412にて、検出処理部14は、ステップ401~411の一連の処理により得られた対象物体の領域の情報を出力する。 After the two processings for the binarized edge image are completed, in step 411, the detection processing unit 14 excludes the linear region obtained in step 410 from the regions obtained in step 407 and remains. The area is the area of the target object. Then, in step 412, the detection processing unit 14 outputs the information of the region of the target object obtained by the series of processing of steps 401 to 411.

なお、上述した学習ベース物体検出処理において、本実施形態による可視光画像は、複数のフレーム画像が時系列に連なる映像であるものとし、予測モデルにより検出された対象物体の領域に対して、ステップ303の追跡処理を行って対象物体の領域の動きベクトルを算出し、ステップ306と同様に、その動きベクトルをフレーム情報として保存することにしてもよい。 In the learning-based object detection process described above, the visible light image according to the present embodiment is assumed to be an image in which a plurality of frame images are continuous in time series, and a step is taken with respect to the region of the target object detected by the prediction model. The tracking process of 303 may be performed to calculate the motion vector of the region of the target object, and the motion vector may be saved as frame information in the same manner as in step 306.

図7は、物体検出システムの利用イメージを示す図である。図7には、リビングを監視するシステムが例示されている。物体監視システムはリビングへの不審者の侵入を検出すると、検出結果の情報を出力する。したがって、この場合、人物が対象物体である。パーソナルコンピュータやスマートフォンなどの端末装置で物体検出装置10に接続し、その画面により検出結果をリアルタイムで確認できる。 FIG. 7 is a diagram showing a usage image of the object detection system. FIG. 7 illustrates a system for monitoring the living room. When the object monitoring system detects the intrusion of a suspicious person into the living room, it outputs the information of the detection result. Therefore, in this case, the person is the target object. A terminal device such as a personal computer or a smartphone can be connected to the object detection device 10, and the detection result can be confirmed in real time on the screen.

TOFセンサ81および可視光カメラ82がリビングの空間90を撮影可能に設置され、物体検出装置10はクラウド上に構築されている。ユーザ93は、パーソナルコンピュータ84を用いて物体検出装置10に接続し、リアルタイムで検出結果を確認している。 The TOF sensor 81 and the visible light camera 82 are installed so as to be able to photograph the living space 90, and the object detection device 10 is constructed on the cloud. The user 93 connects to the object detection device 10 using the personal computer 84 and confirms the detection result in real time.

パーソナルコンピュータ84の画面には、監視場所85として、システムによって監視している場所がリビングルームであり、利用画像86として、可視光カメラ82により撮影される可視光画像が画像となっていることが表示されている。更に、画面には、異常検知レベル87としてレベル1と、近赤外線画像および可視光画像の時系列の物体検出精度88と、トータルでのリアルタイムの物体検出精度89とが示されている。また、パーソナルコンピュータ84の画面に、TOFセンサ81で撮影された近赤外線画像および可視光カメラ82で撮影された可視光画像を切り替え可能に表示できてもよい。 On the screen of the personal computer 84, the place monitored by the system as the monitoring place 85 is the living room, and the visible light image taken by the visible light camera 82 is the image as the used image 86. It is displayed. Further, the screen shows level 1 as the abnormality detection level 87, the time-series object detection accuracy 88 of the near-infrared image and the visible light image, and the total real-time object detection accuracy 89. Further, the near-infrared image taken by the TOF sensor 81 and the visible light image taken by the visible light camera 82 may be switchably displayed on the screen of the personal computer 84.

図8は、物体検出装置のハードウェア構成を示す図である。図8には、一例として、エッジコンピュータにより物体検出装置10のハードウェア構成が示されている。 FIG. 8 is a diagram showing a hardware configuration of the object detection device. FIG. 8 shows, as an example, the hardware configuration of the object detection device 10 by an edge computer.

物体検出装置10は、ハードウェアとして、プロセッサ31、メインメモリ32、記憶装置33、通信装置34、入力装置35、および表示装置36を有し、それらがバス37に接続されている。 The object detection device 10 has a processor 31, a main memory 32, a storage device 33, a communication device 34, an input device 35, and a display device 36 as hardware, and these are connected to the bus 37.

記憶装置33は、書込みおよび読み出しが可能にデータを記憶するものであって、この記憶装置33に各種データが記録される。プロセッサ31は、記憶装置33に記憶されたデータをメインメモリ32に読み出し、メインメモリ32を利用してソフトウェアプログラムの処理を実行する。プロセッサ31によって、図2に示した近赤外線画像取得部11、可視光画像取得部12、判定部13、検出処理部14、およびユーザインタフェース部15が実現される。通信装置34は、プロセッサ31にて処理された情報を有線または無線あるいはそれら両方を含む通信ネットワークを介して送信し、また通信ネットワークを介して受信した情報をプロセッサ31に伝達する。受信した情報はプロセッサ31にてソフトウェアの処理に利用される。入力装置35は、キーボードやマウスなどオペレータによる操作入力による情報を受け付ける装置であり、入力された情報はプロセッサ31にてソフトウェア処理に利用される。例えば、学習データは通信装置34や入力装置35を介して記憶装置33に入力される。表示装置36は、プロセッサ31によるソフトウェア処理に伴って画像やテキストの情報をディスプレイ画面に表示する装置である。 The storage device 33 stores data so that it can be written and read, and various data are recorded in the storage device 33. The processor 31 reads the data stored in the storage device 33 into the main memory 32, and executes the processing of the software program using the main memory 32. The processor 31 realizes the near-infrared image acquisition unit 11, the visible light image acquisition unit 12, the determination unit 13, the detection processing unit 14, and the user interface unit 15 shown in FIG. The communication device 34 transmits the information processed by the processor 31 via a communication network including wired, wireless, or both, and transmits the information received via the communication network to the processor 31. The received information is used by the processor 31 for software processing. The input device 35 is a device that receives information by operation input by an operator such as a keyboard and a mouse, and the input information is used for software processing by the processor 31. For example, the learning data is input to the storage device 33 via the communication device 34 and the input device 35. The display device 36 is a device that displays image or text information on a display screen as a result of software processing by the processor 31.

上述した本実施形態は、本開示の説明のための例示であり、発明の範囲をそれらの実施形態に限定する趣旨ではない。当業者は、発明の範囲を逸脱することなしに、他の様々な態様の実施が可能である。 The embodiments described above are examples for the purposes of the present disclosure and are not intended to limit the scope of the invention to those embodiments. One of ordinary skill in the art can implement various other embodiments without departing from the scope of the invention.

上述した実施形態では、物体検出装置10は、図3にも示した通り、空間90の奥行によって近赤外線画像か可視光画像のいずれかを利用画像として選択するものであった。しかし、変形例として、空間90の奥行ではなく、物体までの距離によって近赤外線画像か可視光画像のいずれかを利用画像として選択することにしてもよい。そして、その際、空間90内に複数の物体が存在する場合、近赤外線画像と可視光画像のいずれを利用画像とするかを物体毎あるいは空間90内の領域毎に選択してもよい。 In the above-described embodiment, as shown in FIG. 3, the object detection device 10 selects either a near-infrared image or a visible light image as a utilization image depending on the depth of the space 90. However, as a modification, either a near-infrared image or a visible light image may be selected as a utilization image depending on the distance to the object instead of the depth of the space 90. At that time, when a plurality of objects exist in the space 90, which of the near-infrared image and the visible light image should be used may be selected for each object or for each region in the space 90.

以下、変形例について説明する。変形例における物体検出システムおよび物体検出装置の構成は基本的に図1、図2にも示した本実施形態のものと同様である。 Hereinafter, a modified example will be described. The configurations of the object detection system and the object detection device in the modified example are basically the same as those of the present embodiment shown in FIGS. 1 and 2.

図9は、変形例における判定部13および検出処理部14による一連の処理を示すフローチャートである。まず、判定部13は、ステップ501にて、空間90に存在する物体までの距離を算出する。物体までの距離を算出する手法は特に限定されないが、本実施形態では、距離画像に基づいて物体までの距離を算出する。例えば、距離画像における、予め設定された奥行きよりも近い距離にある領域を物体とし、その距離(画素値)を物体までの距離としてもよい。物体は1つだけとは限らず、複数の物体があればそれぞれの物体までの距離を算出し、以下の処理をそれぞれの物体に対して実行してもよい。また、ここでいう距離は、必ずしも水平方向の距離を意味するものではなく、例えば垂直方向など他の方向の距離であってもよい。 FIG. 9 is a flowchart showing a series of processes by the determination unit 13 and the detection processing unit 14 in the modified example. First, the determination unit 13 calculates the distance to the object existing in the space 90 in step 501. The method for calculating the distance to the object is not particularly limited, but in the present embodiment, the distance to the object is calculated based on the distance image. For example, a region in a distance image that is closer than a preset depth may be used as an object, and the distance (pixel value) may be used as the distance to the object. The number of objects is not limited to one, and if there are a plurality of objects, the distance to each object may be calculated and the following processing may be executed for each object. Further, the distance here does not necessarily mean a distance in the horizontal direction, and may be a distance in another direction such as a vertical direction.

次に、判定部13は、ステップ502にて、物体までの距離が所定の閾値を超える値であるか否か判定する。 Next, in step 502, the determination unit 13 determines whether or not the distance to the object exceeds a predetermined threshold value.

ステップ502の判定で物体までの距離が閾値を超える値であれば、判定部13は、ステップ503にて、近赤外線画像を利用画像として決定する。続いて、検出処理部14は、ステップ504にて、ルールベース物体検出処理を実行することにより、空間90内の対象物体を検出する。ルールベース物体検出処理上述したものと同様である。 If the distance to the object exceeds the threshold value in the determination in step 502, the determination unit 13 determines the near-infrared image as the image to be used in step 503. Subsequently, the detection processing unit 14 detects the target object in the space 90 by executing the rule-based object detection processing in step 504. Rule-based object detection processing The same as described above.

一方、ステップ502の判定で物体までの距離が閾値以下であれば、判定部13は、ステップ505にて、可視光画像を利用画像として決定する。続いて、検出処理部14は、ステップ506にて、学習ベース物体検出処理を実行することにより、空間90内の対象物体を検出する。学習ベース物体検出処理は上述したものと同様である。 On the other hand, if the distance to the object is equal to or less than the threshold value in the determination in step 502, the determination unit 13 determines the visible light image as the image to be used in step 505. Subsequently, the detection processing unit 14 detects the target object in the space 90 by executing the learning-based object detection process in step 506. The learning-based object detection process is the same as described above.

ステップ504の後またはステップ506の後、ユーザインタフェース部15は、ステップ507にて、検出処理部14による検出結果をモニタ83の画面に表示することにより、ユーザに提示する。 After step 504 or after step 506, the user interface unit 15 presents to the user in step 507 by displaying the detection result by the detection processing unit 14 on the screen of the monitor 83.

以上説明したように、本実施形態による物体検出装置10は、第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置(TOFセンサ81)により所定の空間90を撮影した第1画像を取得する第1画像取得部(近赤外線画像取得部11)と、第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置(可視光カメラ82)により空間90を撮影した第2画像を取得する第2画像取得部(可視光画像取得部12)と、第1画像と第2画像から物体検出に用いる利用画像を決定する判定部13と、利用画像に含まれる検出対象である所定の対象物体を検出する検出処理部14と、を有する。これにより、性質の異なる第1画像と第2画像から利用画像を決定し、その利用画像から物体を検出するので、多様な環境における物体の良好な検出が可能になる。 As described above, the object detection device 10 according to the present embodiment captures a predetermined space 90 by a first imaging device (TOF sensor 81) that captures an image by detecting light from an object in the first wavelength band. A first image acquisition unit (near infrared image acquisition unit 11) that acquires the first image, and a second image pickup device that captures an image by detecting light from an object in a second wavelength band different from the first wavelength band. The second image acquisition unit (visible light image acquisition unit 12) that acquires the second image obtained by capturing the space 90 by the (visible light camera 82), and the image to be used for object detection are determined from the first image and the second image. It has a determination unit 13 and a detection processing unit 14 that detects a predetermined target object included in the image to be detected. As a result, the image to be used is determined from the first image and the second image having different properties, and the object is detected from the used image, so that good detection of the object in various environments becomes possible.

また、本実施形態では、物体検出装置10において、判定部13は、空間90の奥行または空間90にある物体までの距離を取得し、その奥行または距離に基づいて利用画像を決定する。これにより、検出対象の物体が置かれる環境に応じて第1画像または第2画像を利用するので、環境に適した画像により、物体の良好な検出が可能となる。 Further, in the present embodiment, in the object detection device 10, the determination unit 13 acquires the depth of the space 90 or the distance to the object in the space 90, and determines the image to be used based on the depth or the distance. As a result, the first image or the second image is used depending on the environment in which the object to be detected is placed, so that the image suitable for the environment enables good detection of the object.

また、本実施形態では、第1画像は所定の第1波長帯による画像であり、第2画像は、第1波長帯よりも短波長である第2波長帯による画像であり、判定部13は、空間90の奥行が所定の閾値以下であれば第1画像を選択し、空間90の奥行が閾値より大きければ第2画像を選択する。これにより、検出対象の物体が比較的近距離の位置に置かれる環境では比較的長波長の第1画像を用い、検出対象の物体が比較的遠距離の位置に置かれる可能性のある環境では比較的短波長の第2画像を用いるので、距離に応じて好適な波長帯の光による画像により、物体の良好な検出が可能となる。 Further, in the present embodiment, the first image is an image in a predetermined first wavelength band, the second image is an image in a second wavelength band having a shorter wavelength than the first wavelength band, and the determination unit 13 is used. If the depth of the space 90 is equal to or less than a predetermined threshold value, the first image is selected, and if the depth of the space 90 is larger than the threshold value, the second image is selected. As a result, the first image with a relatively long wavelength is used in an environment where the object to be detected is placed at a relatively short distance, and in an environment where the object to be detected may be placed at a relatively long distance. Since a second image having a relatively short wavelength is used, it is possible to detect an object well by using an image with light in a wavelength band suitable for a distance.

あるいは、本実施形態において、第1画像は所定の第1波長帯による画像であり、第2画像は、第1波長帯よりも短波長である第2波長帯による画像であり、判定部13は、物体までの距離が所定の閾値以下であれば第1画像を選択し、物体までの距離が閾値より大きければ第2画像を選択することにしてもよい。これにより、物体が比較的近距離の位置にある状況では比較的長波長の第1画像を用い、物体が比較的遠距離の位置にある状況では比較的短波長の第2画像を用いるので、状況応じた好適な波長帯の光による画像により、物体の良好な検出が可能となる。 Alternatively, in the present embodiment, the first image is an image in a predetermined first wavelength band, the second image is an image in a second wavelength band having a shorter wavelength than the first wavelength band, and the determination unit 13 is used. If the distance to the object is equal to or less than a predetermined threshold value, the first image may be selected, and if the distance to the object is larger than the threshold value, the second image may be selected. As a result, the first image with a relatively long wavelength is used when the object is located at a relatively short distance, and the second image with a relatively short wavelength is used when the object is located at a relatively long distance. An image with light in a suitable wavelength band according to the situation enables good detection of an object.

また、本実施形態の物体検出装置10では、検出処理部14は、第1画像が選択されたら、第1画像からルールベースで対象物体を検出し、第2画像が選択されたら、第2画像から学習ベースで対象物体を検出する。これにより、長波長で撮影した画像による比較的近距離にある物体の検出については比較的簡易的なルールベースにより物体の検出を行い、短波長で撮影した画像による比較的遠距離にある物体の検出については比較的緻密な学習ベースにより物体の検出を行うので、画像の種類に応じて所望の精度で物体を検出できる。 Further, in the object detection device 10 of the present embodiment, the detection processing unit 14 detects the target object from the first image on a rule basis when the first image is selected, and when the second image is selected, the second image. Detects the target object on a learning basis from. As a result, for the detection of objects at a relatively short distance from images taken at a long wavelength, the object is detected based on a relatively simple rule base, and objects at a relatively long distance from images taken at a short wavelength are detected. As for the detection, since the object is detected by a relatively precise learning base, the object can be detected with a desired accuracy according to the type of the image.

また、本実施形態の物体検出装置10では、第1画像は、時系列に連なる複数の画像であり、検出処理部14は、第1画像における所定の初期画像からエッジを検出し、エッジに基づく領域分割により、初期画像から対象物体の領域を特定し、初期画像の後に連なる後続画像において、対象物体の領域の動きベクトルを算出する。 Further, in the object detection device 10 of the present embodiment, the first image is a plurality of images connected in time series, and the detection processing unit 14 detects an edge from a predetermined initial image in the first image and is based on the edge. By region division, the region of the target object is specified from the initial image, and the motion vector of the region of the target object is calculated in the subsequent images connected after the initial image.

また、検出処理部14は、エッジに基づく領域分割により生じた領域から、対象物体が有する特徴量を有する領域を抽出し、対象物体が有しない特徴量を有する領域を除外することにより、対象物体の領域を特定する。これにより、対象物体が有する特徴量を有する領域を残し、対象物体が有しない特徴量を有する領域を除外するように、領域を絞り込むので、対象物体の領域を良好に特定することができる。 Further, the detection processing unit 14 extracts a region having a feature amount possessed by the target object from the region generated by the region division based on the edge, and excludes the region having the feature amount not possessed by the target object to exclude the target object. Identify the area of. As a result, the area is narrowed down so as to leave the area having the feature amount possessed by the target object and exclude the area having the feature amount not possessed by the target object, so that the area of the target object can be satisfactorily specified.

また、本実施形態の物体検出装置10では、第1画像が近赤外線による画像であり、第2画像が可視光による画像である。画像データが比較的少なく十分な学習データを収集するのが比較的困難な近赤外線画像についてはルールベースで物体の検出を行い、画像データが比較的豊富で学習データを比較的容易に収集できる可視光画像については学習ベースにより物体の検出を行うので、画像の種類に応じた好適な手法により、所望の精度で良好に物体の検出を行うことが可能となる。 Further, in the object detection device 10 of the present embodiment, the first image is an image by near infrared rays, and the second image is an image by visible light. For near-infrared images where the image data is relatively small and it is relatively difficult to collect sufficient training data, the object is detected on a rule basis, and the image data is relatively abundant and the training data can be collected relatively easily. Since the object is detected based on the learning base for the optical image, it is possible to detect the object satisfactorily with a desired accuracy by a suitable method according to the type of the image.

あるいは、本実施形態の物体検出装置10では、第1画像が遠赤外線による温度分布画像であり、第2画像が可視光による画像であるとしてもよい。この場合も、画像データが比較的少なく十分な学習データを収集するのが比較的困難な遠赤外線による温度分布画像についてはルールベースで物体の検出を行い、画像データが比較的豊富で学習データを比較的容易に収集できる可視光画像については学習ベースにより物体の検出を行うので、画像の種類に応じた好適な手法により、所望の精度で良好に物体の検出を行うことが可能となる。 Alternatively, in the object detection device 10 of the present embodiment, the first image may be a temperature distribution image by far infrared rays, and the second image may be an image by visible light. In this case as well, the temperature distribution image by far infrared rays, which has relatively little image data and is relatively difficult to collect sufficient training data, detects the object on a rule basis, and the image data is relatively abundant and the training data is collected. Since the visible light image that can be collected relatively easily is detected by the learning base, it is possible to detect the object satisfactorily with a desired accuracy by a suitable method according to the type of the image.

また、本実施形態の物体検出装置10では、利用画像が第1撮像装置により撮影された画像か第2撮像装置により撮影された画像かを示す画像属性情報と、第1撮像装置および第2撮像装置が設置された場所を示す観測場所情報と、利用画像とを画面に表示するユーザインタフェース部を更に有する。 Further, in the object detection device 10 of the present embodiment, image attribute information indicating whether the image to be used is an image taken by the first image pickup device or an image taken by the second image pickup device, and the first image pickup device and the second image pickup device. It also has a user interface unit that displays observation location information indicating the location where the device is installed and a usage image on the screen.

また、本実施形態の物体検出装置10では、第1撮像装置は、第1波長帯の光源を備え光源からの光が物体から反射した光を検出することにより第1画像を撮影するものであり、光源からの光が物体で反射して戻るまでの時間に基づいて画素毎の物体までの距離を表す距離画像を更に撮影し、第1画像取得部は、距離画像を更に取得し、判定部13は、距離画像に基づいて、第1画像と第2画像から利用画像を決定する。距離画像に基づいて利用画像を決定するので、多様な距離の物体の良好な検出が可能になる。 Further, in the object detection device 10 of the present embodiment, the first image pickup device includes a light source in the first wavelength band and captures the first image by detecting the light reflected from the object by the light from the light source. , A distance image showing the distance to the object for each pixel is further taken based on the time until the light from the light source is reflected by the object and returned, and the first image acquisition unit further acquires the distance image and the determination unit. 13 determines the image to be used from the first image and the second image based on the distance image. Since the image to be used is determined based on the distance image, good detection of objects at various distances becomes possible.

10…物体検出装置、11…近赤外線画像取得部、12…可視光画像取得部、13…判定部、14…検出処理部、15…ユーザインタフェース部、31…プロセッサ、32…メインメモリ、33…記憶装置、34…通信装置、35…入力装置、36…表示装置、37…バス、81…TOFセンサ、82…可視光カメラ、83…モニタ、84…パーソナルコンピュータ、85…監視場所、86…利用画像、87…異常検知レベル、88…物体検出精度、89…物体検出精度、90…空間、91、92…人物、93…ユーザ 10 ... Object detection device, 11 ... Near infrared image acquisition unit, 12 ... Visible light image acquisition unit, 13 ... Judgment unit, 14 ... Detection processing unit, 15 ... User interface unit, 31 ... Processor, 32 ... Main memory, 33 ... Storage device, 34 ... communication device, 35 ... input device, 36 ... display device, 37 ... bus, 81 ... TOF sensor, 82 ... visible light camera, 83 ... monitor, 84 ... personal computer, 85 ... monitoring location, 86 ... use Image, 87 ... Abnormality detection level, 88 ... Object detection accuracy, 89 ... Object detection accuracy, 90 ... Space, 91, 92 ... Person, 93 ... User

Claims (13)

所定の第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置により所定の空間を撮影した第1画像を取得する第1画像取得部と、
前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置により前記空間を撮影した第2画像を取得する第2画像取得部と、
前記第1画像と前記第2画像から物体検出に用いる利用画像を決定する判定部と、
前記利用画像に含まれる検出対象である所定の対象物体を検出する検出処理部と、
を有する物体検出装置。
A first image acquisition unit that acquires a first image captured in a predetermined space by a first image pickup device that captures an image by detecting light from an object in a predetermined first wavelength band.
A second image acquisition unit that acquires a second image of the space taken by a second image pickup device that captures an image by detecting light from an object in a second wavelength band different from the first wavelength band.
A determination unit that determines a usage image to be used for object detection from the first image and the second image,
A detection processing unit that detects a predetermined target object included in the image to be detected, and a detection processing unit.
Object detection device with.
前記判定部は、前記空間の奥行または前記空間にある物体までの距離を取得し、前記奥行または前記距離に基づいて前記利用画像を決定する、
請求項1に記載の物体検出装置。
The determination unit acquires the depth of the space or the distance to the object in the space, and determines the image to be used based on the depth or the distance.
The object detection device according to claim 1.
前記第1画像は所定の第1波長帯による画像であり、前記第2画像は、前記第1波長帯よりも短波長である第2波長帯による画像であり、
前記判定部は、前記空間の奥行が所定の閾値以下であれば前記第1画像を選択し、前記空間の奥行が前記閾値より大きければ前記第2画像を選択する、
請求項2に記載の物体検出装置。
The first image is an image in a predetermined first wavelength band, and the second image is an image in a second wavelength band having a shorter wavelength than the first wavelength band.
The determination unit selects the first image if the depth of the space is equal to or less than a predetermined threshold value, and selects the second image if the depth of the space is larger than the threshold value.
The object detection device according to claim 2.
前記第1画像は所定の第1波長帯による画像であり、前記第2画像は、前記第1波長帯よりも短波長である第2波長帯による画像であり、
前記判定部は、前記物体までの距離が所定の閾値以下であれば前記第1画像を選択し、前記物体までの距離が前記閾値より大きければ前記第2画像を選択する、
請求項2に記載の物体検出装置。
The first image is an image in a predetermined first wavelength band, and the second image is an image in a second wavelength band having a shorter wavelength than the first wavelength band.
The determination unit selects the first image if the distance to the object is equal to or less than a predetermined threshold value, and selects the second image if the distance to the object is larger than the threshold value.
The object detection device according to claim 2.
前記検出処理部は、前記第1画像が選択されたら、前記第1画像からルールベースで前記対象物体を検出し、前記第2画像が選択されたら、前記第2画像から学習ベースで前記対象物体を検出する、
請求項3または4に記載の物体検出装置。
When the first image is selected, the detection processing unit detects the target object from the first image on a rule basis, and when the second image is selected, the target object is learned from the second image. To detect,
The object detection device according to claim 3 or 4.
前記第1画像は、時系列に連なる複数の画像であり、
前記検出処理部は、
前記第1画像における所定の初期画像からエッジを検出し、前記エッジに基づく領域分割により、前記初期画像から対象物体の領域を特定し、
前記初期画像の後に連なる後続画像において、前記対象物体の領域の動きベクトルを算出する、
請求項5に記載の物体検出装置。
The first image is a plurality of images connected in chronological order, and is a plurality of images.
The detection processing unit
An edge is detected from a predetermined initial image in the first image, and a region of a target object is specified from the initial image by region division based on the edge.
In the subsequent images following the initial image, the motion vector of the region of the target object is calculated.
The object detection device according to claim 5.
前記検出処理部は、前記エッジに基づく領域分割により生じた領域から、前記対象物体が有する特徴量を有する領域を抽出し、前記対象物体が有しない特徴量を有する領域を除外することにより、前記対象物体の領域を特定する、
請求項6に記載の物体検出装置。
The detection processing unit extracts a region having a feature amount possessed by the target object from a region generated by the region division based on the edge, and excludes a region having a feature amount not possessed by the target object. Identify the area of the target object,
The object detection device according to claim 6.
前記第1画像が近赤外線による画像であり、前記第2画像が可視光による画像である、
請求項5に記載の物体検出装置。
The first image is an image by near infrared rays, and the second image is an image by visible light.
The object detection device according to claim 5.
前記第1画像が遠赤外線による温度分布画像であり、前記第2画像が可視光による画像である、
請求項5に記載の物体検出装置。
The first image is a temperature distribution image by far infrared rays, and the second image is an image by visible light.
The object detection device according to claim 5.
前記利用画像が前記第1撮像装置により撮影された画像か前記第2撮像装置により撮影された画像かを示す画像属性情報と、前記第1撮像装置および前記第2撮像装置が設置された場所を示す観測場所情報と、前記利用画像とを画面に表示するユーザインタフェース部を更に有する、
請求項1に記載の物体検出装置。
Image attribute information indicating whether the image to be used is an image taken by the first image pickup device or an image taken by the second image pickup device, and a place where the first image pickup device and the second image pickup device are installed. It further has a user interface unit that displays the observation location information to be shown and the used image on the screen.
The object detection device according to claim 1.
前記第1撮像装置は、前記第1波長帯の光源を備え該光源からの光が物体から反射した光を検出することにより前記第1画像を撮影するものであり、前記光源からの光が前記物体で反射して戻るまでの時間に基づいて画素毎の前記物体までの距離を表す距離画像を更に撮影し、
前記第1画像取得部は、前記距離画像を更に取得し、
前記判定部は、前記距離画像に基づいて、前記第1画像と前記第2画像から前記利用画像を決定する、
請求項1に記載の物体検出装置。
The first image pickup apparatus includes a light source in the first wavelength band, and captures the first image by detecting the light reflected from the object by the light from the light source, and the light from the light source is the light from the light source. Further, a distance image showing the distance to the object for each pixel is taken based on the time until the object reflects and returns.
The first image acquisition unit further acquires the distance image and obtains the distance image.
The determination unit determines the image to be used from the first image and the second image based on the distance image.
The object detection device according to claim 1.
所定の第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置と、
前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置と、
前記第1撮像装置により所定の空間を撮影した第1画像を取得し、前記第2撮像装置により前記空間を撮影した第2画像を取得し、前記第1画像と前記第2画像から物体検出に用いる利用画像を決定し、前記利用画像に含まれる検出対象である所定の対象物体を検出する物体検出装置と、
を有する物体検出システム。
A first image pickup device that captures an image by detecting light from an object in a predetermined first wavelength band.
A second imaging device that captures an image by detecting light from an object in a second wavelength band different from the first wavelength band.
The first image of a predetermined space is acquired by the first image pickup device, the second image of the space is captured by the second image pickup device, and the object is detected from the first image and the second image. An object detection device that determines a usage image to be used and detects a predetermined target object included in the usage image.
Object detection system with.
コンピュータが、
所定の第1波長帯における物体からの光を検出することにより画像を撮影する第1撮像装置により所定の空間を撮影した第1画像を取得し、
前記第1波長帯と異なる第2波長帯における物体からの光を検出することにより画像を撮影する第2撮像装置により前記空間を撮影した第2画像を取得し、
前記第1画像と前記第2画像から物体検出に用いる利用画像を決定し、
前記利用画像に含まれる検出対象である所定の対象物体を検出する、
ことを実行する物体検出方法。
The computer
An image is taken by detecting light from an object in a predetermined first wavelength band. A first image in which a predetermined space is photographed is acquired by a first image pickup device.
A second image of the space is acquired by a second image pickup device that captures an image by detecting light from an object in a second wavelength band different from the first wavelength band.
The image to be used for object detection is determined from the first image and the second image, and the image to be used is determined.
Detects a predetermined target object included in the used image, which is a detection target.
An object detection method that does that.
JP2020125153A 2020-07-22 2020-07-22 Object detection device, system, and method Pending JP2022021535A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020125153A JP2022021535A (en) 2020-07-22 2020-07-22 Object detection device, system, and method
PCT/JP2021/009387 WO2022018902A1 (en) 2020-07-22 2021-03-09 Object detection apparatus, system, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020125153A JP2022021535A (en) 2020-07-22 2020-07-22 Object detection device, system, and method

Publications (1)

Publication Number Publication Date
JP2022021535A true JP2022021535A (en) 2022-02-03

Family

ID=79729383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020125153A Pending JP2022021535A (en) 2020-07-22 2020-07-22 Object detection device, system, and method

Country Status (2)

Country Link
JP (1) JP2022021535A (en)
WO (1) WO2022018902A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162795A (en) * 2001-11-22 2003-06-06 Nec Corp Sensor selecting method using weather data and road traffic monitoring system using the same
JP4872245B2 (en) * 2005-06-06 2012-02-08 トヨタ自動車株式会社 Pedestrian recognition device
JP7094814B2 (en) * 2018-07-18 2022-07-04 株式会社日立製作所 Detection system and detection method

Also Published As

Publication number Publication date
WO2022018902A1 (en) 2022-01-27

Similar Documents

Publication Publication Date Title
US11710075B2 (en) Hazard recognition
JP6125188B2 (en) Video processing method and apparatus
JP6534499B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP6554169B2 (en) Object recognition device and object recognition system
JP6428266B2 (en) COLOR CORRECTION DEVICE, COLOR CORRECTION METHOD, AND COLOR CORRECTION PROGRAM
RU2607774C2 (en) Control method in image capture system, control apparatus and computer-readable storage medium
JP4689518B2 (en) Fire detection equipment
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
KR102199094B1 (en) Method and Apparatus for Learning Region of Interest for Detecting Object of Interest
JP4999794B2 (en) Still region detection method and apparatus, program and recording medium
JP7266599B2 (en) Devices, systems and methods for sensing patient body movement
JP7210890B2 (en) Behavior recognition device, behavior recognition method, its program, and computer-readable recording medium recording the program
JP7074174B2 (en) Discriminator learning device, discriminator learning method and computer program
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
KR101640527B1 (en) Method and Apparatus for Monitoring Video for Estimating Size of Single Object
WO2022018902A1 (en) Object detection apparatus, system, and method
JP6369058B2 (en) Image processing device
KR20150033047A (en) Method and Apparatus for Preprocessing Image for Detecting Objects
JP2018165966A (en) Object detection device
JP6124739B2 (en) Image sensor
Tupper et al. Pedestrian proximity detection using RGB-D data
JP2011237884A (en) Object detection size calculation system and object detection size calculation program
JP6780639B2 (en) Image analysis device, image analysis method, and image analysis program
JP6405651B2 (en) Image processing device
JP2015169628A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402