JP2011163921A - Detection device and method - Google Patents

Detection device and method Download PDF

Info

Publication number
JP2011163921A
JP2011163921A JP2010026812A JP2010026812A JP2011163921A JP 2011163921 A JP2011163921 A JP 2011163921A JP 2010026812 A JP2010026812 A JP 2010026812A JP 2010026812 A JP2010026812 A JP 2010026812A JP 2011163921 A JP2011163921 A JP 2011163921A
Authority
JP
Japan
Prior art keywords
detection
height
observation point
position information
peak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010026812A
Other languages
Japanese (ja)
Inventor
Kaoru Toba
薫 鳥羽
Shintaro Fujita
進太郎 藤田
Zenta Miyashita
善太 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010026812A priority Critical patent/JP2011163921A/en
Publication of JP2011163921A publication Critical patent/JP2011163921A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device for accurately detecting a detecting object. <P>SOLUTION: The detection device includes a selector for selecting, based on the value of height, positional information for detection used in detection processing from positional information of each observation point measured by a sensor installed downward at a predetermined height, a memory for previously storing a feature value of the detecting object set based on the shape of the detecting object, and a detector for detecting the detecting object from the positional information for detection based on the selected positional information for detection and the feature value of the detecting object stored in the memory. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、空間の中から特定の物体を検出するための技術に関する。   The present invention relates to a technique for detecting a specific object in a space.

従来、空間の中から人物の存在とその位置を検出する技術が提案されている。例えば、特許文献1に開示された技術は次の通りである。まず、一定の高さに設置された複数台のカメラで下方向の画像を取込む。各観測部は、対応するカメラが真下の人物を撮像したことに応じてその人物の位置情報を獲得し、他のカメラがその人物の側方を撮像したことに応じて顔や服装を同定するための情報を獲得し、特徴抽出処理を行なう。   Conventionally, a technique for detecting the presence and position of a person from a space has been proposed. For example, the technique disclosed in Patent Document 1 is as follows. First, a downward image is captured by a plurality of cameras installed at a certain height. Each observation unit acquires the position information of the person according to the corresponding camera capturing the person underneath, and identifies the face and clothes according to the other camera capturing the side of the person. Information is acquired, and feature extraction processing is performed.

また、特許文献2に開示された技術は次の通りである。まず、撮像画像から移動体の領域である対象領域と、当該移動体までの距離である対象距離とを検出する。次に、対象領域において、移動体を人物と仮定したときの、対象距離に対応した頭部領域を設定する。そして、人物の頭部領域に対応する所定サイズのサンプル画像を記憶しておき、撮像画像内の頭部領域を所定サイズに変換してサンプル画像と比較することで、移動体が人物であるか否かを判定する。   The technique disclosed in Patent Document 2 is as follows. First, a target area that is a region of a moving body and a target distance that is a distance to the moving body are detected from the captured image. Next, in the target area, a head area corresponding to the target distance when the moving body is assumed to be a person is set. Then, by storing a sample image of a predetermined size corresponding to the head region of the person, converting the head region in the captured image to a predetermined size and comparing it with the sample image, whether the moving body is a person Determine whether or not.

特開2002−218449号公報JP 2002-218449 A 特開2007−156939号公報JP 2007-156939 A

しかしながら、特許文献1に開示された技術では、検出対象以外の物体や床面等の模様による影響を受けやすく、検出精度が十分ではなかった。また、特許文献2に開示された技術では、検出対象(この場合は人物)が密集しているような環境では、検出対象の検出が困難になってしまうと言う問題があった。すなわち、検出対象が密集しているような環境では、カメラ(センサ)の視野内で検出対象同士が重なり合ってしまう。そのため、カメラから見て奥の方に位置する検出対象を検出することが困難となっていた。   However, the technique disclosed in Patent Literature 1 is easily influenced by patterns other than the detection target, such as an object and a floor surface, and the detection accuracy is not sufficient. Further, the technique disclosed in Patent Document 2 has a problem that it is difficult to detect a detection target in an environment where detection targets (in this case, people) are dense. That is, in an environment where the detection targets are densely packed, the detection targets overlap in the field of view of the camera (sensor). Therefore, it has been difficult to detect a detection target located in the back as viewed from the camera.

上記事情に鑑み、本発明は、検出対象を精度良く検出することを可能とする技術を提供することを目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique that enables a detection target to be detected with high accuracy.

本発明の一態様は、検出装置(例えば、実施形態における検出装置20)であって、所定の高さから下方に向けて設置されたセンサ(例えば、実施形態におけるセンサ10)によって測定された各観測点の位置情報から、検出処理で使用する検出用位置情報を、高さの値に基づいて選択する選択部(例えば、実施形態における選択部201)と、検出対象の形状に基づいて設定された検出対象特徴量を予め記憶する記憶部(例えば、実施形態における記憶部202)と、選択された前記検出用位置情報と、前記記憶部に記憶される前記検出対象特徴量とに基づいて、前記検出用位置情報から前記検出対象を検出する検出部(例えば、実施形態における検出部203)と、を備える。   One aspect of the present invention is a detection device (for example, the detection device 20 in the embodiment), which is measured by a sensor (for example, the sensor 10 in the embodiment) installed downward from a predetermined height. A selection unit (for example, the selection unit 201 in the embodiment) that selects detection position information to be used in the detection process from the position information of the observation point based on the height value, and is set based on the shape of the detection target. On the basis of the storage unit (for example, the storage unit 202 in the embodiment) that stores the detection target feature amount in advance, the selected position information for detection, and the detection target feature amount stored in the storage unit, A detection unit (for example, the detection unit 203 in the embodiment) that detects the detection target from the detection position information.

本発明の一態様は、上記の検出装置であって、前記検出対象の形状は、人型の形状であることを特徴とする。   One embodiment of the present invention is the above-described detection device, wherein the shape of the detection target is a humanoid shape.

本発明の一態様は、上記の検出装置であって、前記検出部は、選択された前記検出用位置情報を、各観測点の位置情報に基づいて1又は複数の集合に分類し、分類された各集合が前記検出対象であるか否かを判定することによって前記検出対象を検出することを特徴とする。   One aspect of the present invention is the above-described detection device, wherein the detection unit classifies the selected position information for detection into one or a plurality of sets based on the position information of each observation point. The detection target is detected by determining whether or not each set is the detection target.

本発明の一態様は、上記の検出装置であって、前記選択部は、床面からの高さが予め設定された第一高さ(例えば、実施形態における第一高さH1)及び第二高さ(例えば、実施形態における第二高さH2)の間に位置する観測点に対する位置情報を、前記検出用位置情報として選択することを特徴とする。   One aspect of the present invention is the above-described detection device, wherein the selection unit includes a first height (for example, a first height H1 in the embodiment) and a second height from which the height from the floor surface is set in advance. Position information with respect to observation points located between heights (for example, the second height H2 in the embodiment) is selected as the position information for detection.

本発明の一態様は、上記の検出装置であって、前記第一高さ及び第二高さは、検出対象の前記人型形状における略腰位置までの高さから略肩位置までの高さの間の値として予め設定されることを特徴とする。   One aspect of the present invention is the above-described detection device, wherein the first height and the second height are a height from a substantially waist position to a substantially shoulder position in the humanoid shape to be detected. It is characterized in that it is preset as a value between.

本発明の一態様は、上記の検出装置であって、前記選択部は、床面からの高さが予め設定された第三高さ(例えば、実施形態における第三高さH3)よりも高い観測点に対する位置情報を、前記検出用位置情報として選択することを特徴とする。   One aspect of the present invention is the above-described detection device, wherein the selection unit has a height from a floor surface higher than a preset third height (for example, the third height H3 in the embodiment). Position information with respect to the observation point is selected as the position information for detection.

本発明の一態様は、上記の検出装置であって、前記第一高さは、検出対象の前記人型形状における略肩位置までの高さの間の値として予め設定されることを特徴とする。   One aspect of the present invention is the above-described detection device, wherein the first height is preset as a value between a height to a substantially shoulder position in the humanoid shape to be detected. To do.

本発明の一態様は、上記の検出装置であって、前記選択部は、前記測定された位置情報から、床面からの高さが周囲に対してピーク値となる観測点を検出するピーク観測点検出部(例えば、実施形態におけるピーク観測点検出部2011)と、前記ピーク観測点検出部によって検出されたピーク観測点における床面からの高さに、予め定められたオフセット値を減算することによって減算値を算出し、前記ピーク値及び前記減算値に基づいて、前記ピーク観測点毎に相対第一高さ及び相対第二高さを算出する算出部(例えば、実施形態における算出部2012)と、前記ピーク観測点の周囲の所定範囲毎に、前記ピーク観測点に対応する前記相対第一高さ及び前記相対第二高さの間の位置する観測点に対する位置情報を、前記検出用位置情報として選択する決定部(例えば、実施形態における決定部2013)と、を備えることを特徴とする。   One aspect of the present invention is the above-described detection device, in which the selection unit detects peak observation points where the height from the floor surface is a peak value with respect to the surroundings based on the measured position information. A predetermined offset value is subtracted from the point detection unit (for example, the peak observation point detection unit 2011 in the embodiment) and the height from the floor at the peak observation point detected by the peak observation point detection unit. The calculation unit (for example, the calculation unit 2012 in the embodiment) that calculates the subtraction value by calculating the relative first height and the relative second height for each peak observation point based on the peak value and the subtraction value. And, for each predetermined range around the peak observation point, position information for the observation point located between the relative first height and the relative second height corresponding to the peak observation point, the detection position information Determination unit (for example, determination unit 2013 in the embodiment) for selecting as a, characterized in that it comprises a.

本発明の一態様は、上記の検出装置であって、前記選択部は、前記測定された位置情報から、床面からの高さが周囲に対してピーク値となる観測点を検出するピーク観測点検出部と、前記ピーク観測点検出部によって検出されたピーク観測点における床面からの高さに、予め定められたオフセット値を減算することによって減算値を算出し、前記ピーク値及び前記減算値に基づいて、前記ピーク観測点毎に相対第三高さを算出する算出部と、前記ピーク観測点の周囲の所定範囲毎に、前記ピーク観測点に対応する前記相対第三高さよりも高い観測点に対する位置情報を、前記検出用位置情報として選択する決定部と、を備えることを特徴とする。   One aspect of the present invention is the above-described detection device, in which the selection unit detects peak observation points where the height from the floor surface is a peak value with respect to the surroundings based on the measured position information. A subtraction value is calculated by subtracting a predetermined offset value from a point detection unit and a height from the floor surface at the peak observation point detected by the peak observation point detection unit, and the peak value and the subtraction are calculated. A calculation unit that calculates a relative third height for each peak observation point based on a value, and is higher than the relative third height corresponding to the peak observation point for each predetermined range around the peak observation point And a determining unit that selects position information for the observation point as the position information for detection.

本発明の一態様は、検出方法であって、検出対象の形状に基づいて設定された検出対象特徴量を予め記憶する記憶部、を備える検出装置が、所定の高さから下方に向けて設置されたセンサによって測定された位置情報から、検出処理で使用する検出用位置情報を、位置の値に基づいて選択する選択ステップと、前記検出装置が、選択された前記検出用位置情報と、前記記憶部に記憶される前記検出対象特徴量とに基づいて、前記検出用位置情報から前記検出対象を検出する検出ステップと、を備える。   One aspect of the present invention is a detection method, in which a detection device including a storage unit that stores in advance a detection target feature amount set based on a shape of a detection target is installed downward from a predetermined height A selection step of selecting, based on a position value, position information for detection to be used in detection processing from position information measured by the sensor, and the position information for detection selected by the detection device, And a detection step of detecting the detection target from the detection position information based on the detection target feature quantity stored in the storage unit.

本発明では、所定の高さから下方に向けて設置されたセンサによって測定された位置情報に基づいて検出対象を検出する。そのため、検出対象が密集しているような環境であっても、センサの視野内で検出対象同士が重なり合うことが少ないため、検出対象を精度良く検出することが可能となる。また、本発明では、位置情報に基づいて検出対象を検出するため、床面等の模様による影響を抑止し、検出対象を精度良く検出することが可能となる。   In the present invention, a detection target is detected based on position information measured by a sensor installed downward from a predetermined height. For this reason, even in an environment where detection targets are densely packed, the detection targets are unlikely to overlap each other within the field of view of the sensor, so that the detection targets can be detected with high accuracy. Further, in the present invention, since the detection target is detected based on the position information, it is possible to suppress the influence of the pattern such as the floor surface and detect the detection target with high accuracy.

また、選択部が、ピーク観測点検出部、算出部、決定部を備えるように構成された場合には、検出対象の高さに応じて、検出対象毎に相対第一高さ及び相対第二高さ、又は、相対第三高さが決定される。そのため、検出対象の身長や状態に拘わらず、精度良く検出対象を検出することが可能となる。   Further, when the selection unit is configured to include a peak observation point detection unit, a calculation unit, and a determination unit, the relative first height and the relative second height for each detection target according to the height of the detection target. A height or a relative third height is determined. Therefore, it becomes possible to detect the detection target with high accuracy regardless of the height and state of the detection target.

検出システムのシステム構成を表す図である。It is a figure showing the system configuration of a detection system. センサの設置例と選択部の処理の第一の具体例を表す図である。It is a figure showing the 1st specific example of the installation example of a sensor, and the process of a selection part. センサの設置例と選択部の処理の第二の具体例表す図である。It is a figure showing the installation example of a sensor, and the 2nd example of a process of a selection part. 選択部の処理の第三の具体例に対応した、選択部の機能構成を表す概略ブロック図である。It is a schematic block diagram showing the functional structure of the selection part corresponding to the 3rd specific example of the process of a selection part. 選択部の処理の第三の具体例の概略を表す図である。It is a figure showing the outline of the 3rd specific example of a process of a selection part. センサの設置例と選択部の処理の第三の具体例を表す図である。It is a figure showing the 3rd example of the installation example of a sensor, and the process of a selection part. センサの設置例と選択部の処理の第四の具体例を表す図である。It is a figure showing the 4th specific example of the example of installation of a sensor, and the process of a selection part. 検出対象特徴量の第一の具体例を表す図である。It is a figure showing the 1st specific example of a detection target feature-value. 検出部によるパターンマッチング処理の具体例を表す図である。It is a figure showing the specific example of the pattern matching process by a detection part. 検出対象特徴量の第二の具体例を表す図である。It is a figure showing the 2nd specific example of a detection target feature-value. 検出装置の処理の流れを表すフローチャートである。It is a flowchart showing the flow of a process of a detection apparatus. 変形例の検出部によるパターンマッチング処理の具体例を表す図である。It is a figure showing the specific example of the pattern matching process by the detection part of a modification.

図1は、検出システム1のシステム構成を表す図である。検出システム1は、2台以上のセンサ10、検出装置20を備える。図1では、センサ10は複数台記載されているが、センサ10は1台であっても良い。また、図1では、1台の検出装置20に複数台のセンサ10が接続されているが、1台の検出装置20毎に1台のセンサが接続されるように構成されても良い。   FIG. 1 is a diagram illustrating a system configuration of the detection system 1. The detection system 1 includes two or more sensors 10 and a detection device 20. In FIG. 1, a plurality of sensors 10 are illustrated, but one sensor 10 may be provided. In FIG. 1, a plurality of sensors 10 are connected to one detection device 20, but one sensor may be connected to each detection device 20.

センサ10は、所定の領域に存在する物体の表面における複数の観測点毎に三次元の位置座標を検出するセンサである。センサ10は、例えば距離を観測点毎に測距する距離センサと、距離センサによって測定された距離及び距離センサの設置位置に基づいて観測点毎の位置座標を算出する演算装置とを用いて構成されても良い。距離センサを所定の位置に設置し、いわゆるキャリブレーションを予め行うことによって、上記のように観測点毎の位置座標を算出することが可能である。   The sensor 10 is a sensor that detects a three-dimensional position coordinate for each of a plurality of observation points on the surface of an object existing in a predetermined region. The sensor 10 is configured using, for example, a distance sensor that measures a distance for each observation point, and an arithmetic device that calculates position coordinates for each observation point based on the distance measured by the distance sensor and the installation position of the distance sensor. May be. By installing the distance sensor at a predetermined position and performing so-called calibration in advance, the position coordinates for each observation point can be calculated as described above.

センサ10は、複数の観測点毎の位置座標を表す情報(以下、「位置情報」という。)を生成し、検出装置20に対して出力する。以下の説明では、位置座標はX軸、Y軸、Z軸の3軸における値により構成される。X軸及びY軸は水平面に沿って伸びる軸であり、Z軸は垂直方向に伸びる軸である。   The sensor 10 generates information representing the position coordinates for each of a plurality of observation points (hereinafter referred to as “position information”) and outputs the information to the detection device 20. In the following description, the position coordinates are constituted by values in three axes of the X axis, the Y axis, and the Z axis. The X axis and the Y axis are axes extending along a horizontal plane, and the Z axis is an axis extending in the vertical direction.

センサ10は、所定の高さから下方に向けて設置され、センサ10の下方の測定領域に位置する物体について、位置座標を検出する。後述するように、本実施形態における検出装置20は人を検出対象の一つとしている。そのため、センサ10は、少なくとも一般的な身長の人よりも高い位置に設置される。センサ10は、例えば屋内の天井部や柱の先や壁の高い位置などに設置される。   The sensor 10 is installed downward from a predetermined height, and detects position coordinates of an object located in a measurement region below the sensor 10. As will be described later, the detection device 20 in this embodiment uses a person as one of the detection targets. Therefore, the sensor 10 is installed at a position higher than at least a person having a general height. The sensor 10 is installed in, for example, an indoor ceiling, a column tip, or a high position on a wall.

検出装置20は、センサ10から位置情報を受け、位置情報に基づいてセンサ10の測定領域内に位置する検出対象を検出する。以下、検出対象が人型の形状である場合について説明する。なお、人型の形状である検出対象とは、例えば人や、人型ロボットなどである。   The detection device 20 receives position information from the sensor 10 and detects a detection target located in the measurement region of the sensor 10 based on the position information. Hereinafter, a case where the detection target has a humanoid shape will be described. The detection target having a humanoid shape is, for example, a person or a humanoid robot.

検出装置20は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、検出用プログラムを実行することによって選択部201、記憶部202、検出部203を備える装置として機能する。なお、検出装置20の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。   The detection device 20 includes a CPU (Central Processing Unit) connected via a bus, a memory, an auxiliary storage device, and the like, and functions as a device including a selection unit 201, a storage unit 202, and a detection unit 203 by executing a detection program. To do. All or some of the functions of the detection device 20 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA).

選択部201は、位置情報に含まれる各観測点の高さの値に基づいて、検出用位置情報を選択する。検出用位置情報とは、センサ10によって出力される位置情報の一部であり、検出部203における検出処理において使用される位置情報である。
記憶部202は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成され、検出対象特徴量を予め記憶する。検出対象特徴量とは、検出対象の形状に基づいて予め設定される特徴量である。本実施形態では、検出対象特徴量は、人型の形状に基づいて設定される。検出対象特徴量は、検出部203の検出処理に応じて、一般的な人のモデルに基づいて設定されても良い。また、検出対象特徴量は、検出部203の検出処理に応じて、複数人の実測値を教師データとした教師あり学習処理(例えばサポートベクタマシン:SVM)によって生成されても良い。
The selection unit 201 selects the position information for detection based on the height value of each observation point included in the position information. The position information for detection is a part of position information output by the sensor 10 and is position information used in the detection process in the detection unit 203.
The storage unit 202 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device, and stores a detection target feature amount in advance. The detection target feature amount is a feature amount set in advance based on the shape of the detection target. In the present embodiment, the detection target feature amount is set based on a humanoid shape. The detection target feature amount may be set based on a general human model according to the detection process of the detection unit 203. In addition, the detection target feature amount may be generated by supervised learning processing (for example, support vector machine: SVM) using actually measured values of a plurality of persons as teacher data in accordance with the detection processing of the detection unit 203.

検出部203は、選択部201によって選択された検出用位置情報と、検出対象特徴量とに基づいて、検出用位置情報から検出対象を検出する。
図2は、センサ10の設置例と選択部201の処理の第一の具体例を表す図である。図2では、床面31と天井面32とを有する空間において、天井面32に2台のセンサ10が設置されている。また、床面31上には、2人の人30が直立している。第一の具体例では、選択部201は、予め設定された第一高さH1及び第二高さH2の間に床面31からの高さが位置する観測点に対する位置情報を、検出用位置情報として選択する。第一高さH1及び第二高さH2の値は、選択部201が予め記憶している。なお、各観測点における位置座標の高さの値(Z値)が床面31からの高さの値と異なる場合は、選択部201は、予め位置座標の高さと床面31からの高さとの差を記憶しておく。そして、選択部201は、予め記憶している差の値に基づいて検出用位置情報を選択する。
The detection unit 203 detects a detection target from the detection position information based on the detection position information selected by the selection unit 201 and the detection target feature amount.
FIG. 2 is a diagram illustrating an installation example of the sensor 10 and a first specific example of processing of the selection unit 201. In FIG. 2, two sensors 10 are installed on the ceiling surface 32 in a space having a floor surface 31 and a ceiling surface 32. In addition, two people 30 stand upright on the floor 31. In the first specific example, the selection unit 201 obtains position information for the observation point where the height from the floor surface 31 is located between the preset first height H1 and second height H2 as the detection position. Select as information. The selection unit 201 stores the values of the first height H1 and the second height H2 in advance. Note that when the height value (Z value) of the position coordinates at each observation point is different from the height value from the floor surface 31, the selection unit 201 preliminarily calculates the height of the position coordinates and the height from the floor surface 31. Remember the difference. Then, the selection unit 201 selects the detection position information based on the difference value stored in advance.

図2の場合、第一高さH1は、一般的な人の肩の高さに設定される。また、第二高さH2は、一般的な人の腰の高さに設定される。第一高さH1及び第二高さH2は、それぞれ肩の高さ及び腰の高さに限定される必要はなく、略肩の高さから略腰の高さの間であれば、どの高さに設定されても良い。また、一般的な人のモデルは、検出対象となる人に応じて適宜設定される。例えば、検出システム1が小学校に設置される場合には、検出対象が小学生となるため、一般的な人のモデルは小学校の生徒の体格の平均値などの統計値を用いて表される。   In the case of FIG. 2, the first height H1 is set to the height of a general person's shoulder. The second height H2 is set to the height of a general human waist. The first height H1 and the second height H2 do not need to be limited to the shoulder height and the waist height, respectively, and any height between approximately the shoulder height and approximately the waist height. May be set. A general human model is appropriately set according to a person to be detected. For example, when the detection system 1 is installed in an elementary school, the detection target is an elementary school student, and thus a general human model is represented using statistical values such as the average value of the physique of elementary school students.

図3は、センサ10の設置例と選択部201の処理の第二の具体例表す図である。図3におけるセンサ10の設置場所は、図2の場合と同じである。第二の具体例では、選択部201は、予め定められた第三高さH3よりも床面31からの高さが高い観測点に対する位置情報を、検出用位置情報として選択する。第三高さH3の値は、選択部201が予め記憶している。なお、各観測点における位置座標の高さの値(Z値)が床面31からの高さの値と異なる場合は、選択部201は、予め位置座標の高さと床面31からの高さとの差を記憶しておく。そして、選択部201は、予め記憶している差の値に基づいて検出用位置情報を選択する。
図3の場合、第三高さH3は、一般的な人の肩の高さに設定される。第三高さH3は、肩の高さに限定される必要はなく、略肩の高さ程度の高さであれば、どの高さに設定されても良い。
FIG. 3 is a diagram illustrating a second specific example of the installation example of the sensor 10 and the processing of the selection unit 201. The installation location of the sensor 10 in FIG. 3 is the same as in FIG. In the second specific example, the selection unit 201 selects position information for an observation point whose height from the floor 31 is higher than a predetermined third height H3 as detection position information. The selection unit 201 stores the value of the third height H3 in advance. Note that when the height value (Z value) of the position coordinates at each observation point is different from the height value from the floor surface 31, the selection unit 201 preliminarily calculates the height of the position coordinates and the height from the floor surface 31. Remember the difference. Then, the selection unit 201 selects the detection position information based on the difference value stored in advance.
In the case of FIG. 3, the third height H3 is set to the height of a general person's shoulder. The third height H3 need not be limited to the height of the shoulder, and may be set to any height as long as it is approximately the height of the shoulder.

このように構成されることによって、肩から上の観測点における位置座標を検出用位置情報として選択することができる。人の肩から上の形状は、他の物体と比較して特徴的な形状をしている。また、胴体に比べて、人の肩から上の形状は、衣服によって覆われることが少ないため、変化することが少ない。そのため、人型の形状を検出する精度を向上させることが可能となる。   With this configuration, position coordinates at an observation point above the shoulder can be selected as detection position information. The shape above the human shoulder has a characteristic shape compared to other objects. In addition, the shape above the person's shoulder is less likely to change because it is less likely to be covered with clothes compared to the body. Therefore, it is possible to improve the accuracy of detecting a humanoid shape.

図4は、選択部201の処理の第三の具体例に対応した、選択部201の機能構成を表す概略ブロック図である。図4の場合、選択部201は、ピーク観測点検出部2011、算出部2012、決定部2013を備える。なお、前述のとおり、選択部201の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。   FIG. 4 is a schematic block diagram showing the functional configuration of the selection unit 201 corresponding to the third specific example of the processing of the selection unit 201. In the case of FIG. 4, the selection unit 201 includes a peak observation point detection unit 2011, a calculation unit 2012, and a determination unit 2013. As described above, all or some of the functions of the selection unit 201 may be realized using hardware such as ASIC, PLD, or FPGA.

図5は、選択部201の処理の第三の具体例の概略を表す図である。以下、選択部201の処理の第三の具体例について、図4に図示される各機能部の構成とともに説明する。
ピーク観測点検出部2011は、床面31からの高さが周囲に対してピーク値となる観測点(以下、「ピーク観測点」という。)を検出する。具体的には、ピーク観測点とは、水平面上で周囲に位置する観測点に対し、高さの値(Z値)が相対的にピーク(極大値)となる点である。図5において、横方向に伸びる軸はX軸及びY軸により表される水平面上の座標を表す軸であり、縦方向に伸びる軸はZ軸により表される高さを表す軸である。図5において、3つの点60がそれぞれピーク観測点である。
FIG. 5 is a diagram illustrating an outline of a third specific example of the process of the selection unit 201. Hereinafter, a third specific example of the processing of the selection unit 201 will be described together with the configuration of each functional unit illustrated in FIG.
The peak observation point detection unit 2011 detects an observation point whose height from the floor 31 is a peak value with respect to the surroundings (hereinafter referred to as “peak observation point”). Specifically, the peak observation point is a point where the height value (Z value) becomes a peak (maximum value) relative to the observation points located on the periphery in the horizontal plane. In FIG. 5, the axis extending in the horizontal direction is an axis representing coordinates on the horizontal plane represented by the X axis and the Y axis, and the axis extending in the vertical direction is an axis representing the height represented by the Z axis. In FIG. 5, three points 60 are peak observation points.

算出部2012は、予めオフセット値(Offset)を記憶している。算出部2012は、各ピーク観測点60のピーク値に対しオフセット値を減算することによって、ピーク観測点60毎に減算値V(V1〜V3)を算出する。そして、算出部2012は、ピーク値及び減算値Vに基づいて、ピーク観測点60毎に相対第一高さ及び相対第二高さを算出する。例えば、相対第一高さはピーク値に一致し、相対第二高さは減算値Vに一致しても良い。また、相対第一高さは、ピーク値と減算値Vとの幅の所定の割合の値(例えば90%など)を減算値Vに加算することによって算出されても良い。同様に、相対第二高さは、ピーク値と減算値Vとの幅の所定の割合の値(例えば10%など)を減算値Vに加算することによって算出されても良い。相対第一高さ及び相対第二高さの具体的な算出方法は他の方法であっても良い。   The calculation unit 2012 stores an offset value (Offset) in advance. The calculation unit 2012 calculates a subtraction value V (V1 to V3) for each peak observation point 60 by subtracting the offset value from the peak value of each peak observation point 60. Then, the calculation unit 2012 calculates the relative first height and the relative second height for each peak observation point 60 based on the peak value and the subtraction value V. For example, the relative first height may coincide with the peak value, and the relative second height may coincide with the subtraction value V. Further, the relative first height may be calculated by adding a value (for example, 90%) of a predetermined ratio of the width between the peak value and the subtraction value V to the subtraction value V. Similarly, the relative second height may be calculated by adding a value (for example, 10%) of a predetermined ratio of the width between the peak value and the subtraction value V to the subtraction value V. The specific calculation method of the relative first height and the relative second height may be another method.

決定部2013は、ピーク観測点60毎に所定範囲を設定し、各所定範囲内において高さの値が相対第一高さ及び相対第二高さとの間に位置する観測点の位置情報を、検出用位置情報として選択する。所定範囲とは、ピーク観測点60の水平面上の位置に基づいて設定される水平面上の範囲であり、例えばピーク観測点60を中心として半径R1の円内の範囲として設定される。図5において、水平面上に設定される範囲A1〜A3は、各ピーク観測点60を中心として半径R1の円内の範囲として設定された範囲である。   The determination unit 2013 sets a predetermined range for each peak observation point 60, and the position information of the observation point where the height value is located between the relative first height and the relative second height within each predetermined range, Select as detection position information. The predetermined range is a range on the horizontal plane set based on the position of the peak observation point 60 on the horizontal plane. For example, the predetermined range is set as a range within a circle having a radius R1 with the peak observation point 60 as the center. In FIG. 5, ranges A <b> 1 to A <b> 3 set on the horizontal plane are ranges set as ranges within a circle having a radius R <b> 1 with each peak observation point 60 as the center.

図6は、センサ10の設置例と選択部201の処理の第三の具体例を表す図である。図6におけるセンサ10の設置場所は、図2の場合と同じである。第三の具体例では、図5を用いて説明したように、選択部201は、ピーク観測点60に応じて検出用位置情報を選択する。   FIG. 6 is a diagram illustrating a third specific example of the installation example of the sensor 10 and the processing of the selection unit 201. The installation location of the sensor 10 in FIG. 6 is the same as in FIG. In the third specific example, as described with reference to FIG. 5, the selection unit 201 selects the position information for detection according to the peak observation point 60.

以下、図6を用いて選択部201の処理の第三の具体例についてさらに詳細に説明する。図6では、床面31上には、直立した大人30−1、屈んだ大人30−2、直立した子供30−3、直立した人型ロボット30−4、垂直方向に伸びるポール40−1がある。まず、ピーク観測点検出部2011が、ピーク観測点60−1〜60−5を検出する。次に、算出部2012が、ピーク観測点60−1〜60−5毎に、オフセット値(Offset)を減算し、減算値を算出する。そして、算出部2012が減算値及びピーク値に基づいて、ピーク観測点60−1〜60−5毎に、相対第一高さ及び相対第二高さを算出する。なお、図6の例では、相対第一高さはピーク値と同値であり、相対第二高さは減算値と同値である。そして、決定部2013が、ピーク観測点60−1〜60−5毎に、相対第一高さ及び相対第二高さに基づいて、検出用位置情報を選択する。   Hereinafter, the third specific example of the process of the selection unit 201 will be described in more detail with reference to FIG. In FIG. 6, on the floor surface 31, there are an upright adult 30-1, a bent adult 30-2, an upright child 30-3, an upright humanoid robot 30-4, and a pole 40-1 extending in the vertical direction. is there. First, the peak observation point detection unit 2011 detects the peak observation points 60-1 to 60-5. Next, the calculation part 2012 subtracts an offset value (Offset) for every peak observation point 60-1 to 60-5, and calculates a subtraction value. And the calculation part 2012 calculates a relative 1st height and a relative 2nd height for every peak observation point 60-1 to 60-5 based on a subtraction value and a peak value. In the example of FIG. 6, the relative first height is the same value as the peak value, and the relative second height is the same value as the subtraction value. And the determination part 2013 selects the positional information for a detection based on relative 1st height and relative 2nd height for every peak observation point 60-1 to 60-5.

図7は、センサ10の設置例と選択部201の処理の第四の具体例を表す図である。図7におけるセンサ10の設置場所は、図2の場合と同じである。第四の具体例では、選択部201は図5に示されるようにピーク観測点検出部2011、算出部2012、決定部2013を備える。ただし、第四の具体例では、算出部2012は、ピーク値及び減算値に基づいて相対第三高さH4−1〜H4−5を算出する。相対第三高さの具体的な算出方法は、相対第一高さ又は相対第二高さと同じであっても良いし、他の方法が採用されても良い。図7の例では、相対第三高さは、減算値と同値である。また、第四の具体例では、決定部2013は、相対第三高さよりも高い観測点に対する位置情報を、検出用位置情報として選択する。   FIG. 7 is a diagram illustrating a fourth specific example of the installation example of the sensor 10 and the processing of the selection unit 201. The installation location of the sensor 10 in FIG. 7 is the same as that in FIG. In the fourth specific example, the selection unit 201 includes a peak observation point detection unit 2011, a calculation unit 2012, and a determination unit 2013 as shown in FIG. However, in the fourth specific example, the calculation unit 2012 calculates the relative third heights H4-1 to H4-5 based on the peak value and the subtraction value. The specific calculation method of the relative third height may be the same as the relative first height or the relative second height, and other methods may be adopted. In the example of FIG. 7, the relative third height is the same value as the subtraction value. In the fourth specific example, the determination unit 2013 selects position information for an observation point higher than the relative third height as detection position information.

図8は、検出対象特徴量の第一の具体例を表す図である。図8は、人体の腰と肩との間の所定の高さにおける切断面と、その切断面の輪郭に位置する複数の点を表す。図8Aは、切断面の輪郭線及び複数の点を表し、図8Bは複数の点のみを表す。人体の腰と肩との間の所定の高さにおける切断面は、どの高さであってもほぼ同じであり、両腕の部分及び胴体の部分からなる。例えば、図8Bのように設定された複数の各点の座標が、検出対象特徴量として、予め記憶部202に記憶される。このような検出対象特徴量は、例えば予め一般的な人のモデルが生成され、生成されたモデルから切断面が生成され、切断面の輪郭線上に位置する複数の点が設定されることによって生成されても良い。また、複数人の形状の実測値毎に上記切断面の輪郭線上に位置する複数の点を設定し、これらを教師データとして検出部203の処理に応じた教師あり学習処理を行うことによって、検出対象特徴量が生成されても良い。   FIG. 8 is a diagram illustrating a first specific example of the detection target feature amount. FIG. 8 shows a cut surface at a predetermined height between the waist and shoulders of the human body and a plurality of points located on the contour of the cut surface. FIG. 8A represents the outline of the cut surface and a plurality of points, and FIG. 8B represents only the plurality of points. The cut surface at a predetermined height between the waist and shoulders of the human body is almost the same at any height, and consists of both arms and torso parts. For example, the coordinates of a plurality of points set as shown in FIG. 8B are stored in advance in the storage unit 202 as detection target feature amounts. Such a detection target feature amount is generated by, for example, generating a general human model in advance, generating a cut surface from the generated model, and setting a plurality of points positioned on the contour line of the cut surface May be. Further, detection is performed by setting a plurality of points positioned on the outline of the cut surface for each measured value of the shape of a plurality of people, and using these as teacher data for supervised learning processing according to the processing of the detection unit 203 A target feature amount may be generated.

この場合、検出部203は、選択部201によって選択された検出用位置情報をX−Y平面に射影し、検出対象特徴量とパターンマッチングする。図9は、検出部203によるパターンマッチング処理の具体例を表す図である。図9において、矩形200は、検出用位置情報をX−Y平面に射影することによって生成される2値のX−Y平面画像を表す。X−Y平面画像において、射影された観測点が存在する点には“1”が与えられ、観測点が存在しない点には“0”が与えられる。また、図9においてパターン202Aは、検出対象特徴量を表す。検出部203は、X−Y平面画像において、左上から検出対象特徴量を矢印50−1方向に所定幅でずらす。検出部203は、検出対象特徴量をずらす度に、X−Y平面画像との相違量を算出することによって、その位置に検出対象が位置するか否か判定する。そして、検出部203は、矢印50−1方向にずらして右端にパターン202Aが接した後は、所定幅でY軸方向にずれた行で、左端から矢印50−2方向にパターン202Aをずらし、同様の処理を行う。検出部203は、パターン202AがY軸の右下端に接するまで、上記の処理を繰り返し実行する。   In this case, the detection unit 203 projects the position information for detection selected by the selection unit 201 onto the XY plane, and performs pattern matching with the detection target feature amount. FIG. 9 is a diagram illustrating a specific example of pattern matching processing by the detection unit 203. In FIG. 9, a rectangle 200 represents a binary XY plane image generated by projecting the detection position information onto the XY plane. In the XY plane image, “1” is given to the point where the projected observation point exists, and “0” is given to the point where the observation point does not exist. In FIG. 9, a pattern 202A represents a detection target feature amount. In the XY plane image, the detection unit 203 shifts the detection target feature amount from the upper left in the arrow 50-1 direction by a predetermined width. Each time the detection target feature amount is shifted, the detection unit 203 calculates a difference amount from the XY plane image to determine whether or not the detection target is located at that position. Then, the detection unit 203 shifts the pattern 202A from the left end in the direction of the arrow 50-2 in the row shifted in the Y-axis direction with a predetermined width after the pattern 202A touches the right end by shifting in the direction of the arrow 50-1. Similar processing is performed. The detection unit 203 repeatedly executes the above processing until the pattern 202A touches the lower right end of the Y axis.

次に、検出部203がパターン202Aをずらす度に行う処理について説明する。検出部203は、X−Y平面画像において“1”を有する座標毎に、検出対象特徴量に含まれる各点のうち最も距離が近い点を対応付ける。次に、検出部203は、対応付けられた点同士の距離の合計値や平均値などの統計量を相違量として算出する。そして、検出部203は、予め設定されている閾値よりも相違量が小さい場合には、現在のパターン202Aの位置に検出対象が位置すると判定する。一方、相違量が閾値以上である場合には、検出部203は、パターン202Aの位置には検出対象が位置していないと判定する。   Next, a process performed each time the detection unit 203 shifts the pattern 202A will be described. The detection unit 203 associates the closest point among the points included in the detection target feature amount for each coordinate having “1” in the XY plane image. Next, the detection unit 203 calculates a statistic such as a total value or an average value of the distances between the associated points as a difference amount. Then, when the difference amount is smaller than a preset threshold value, the detection unit 203 determines that the detection target is located at the current position of the pattern 202A. On the other hand, when the difference amount is equal to or larger than the threshold, the detection unit 203 determines that the detection target is not located at the position of the pattern 202A.

図10は、検出対象特徴量の第二の具体例を表す図である。図10は、人体の肩付近から頭の先までの形状における所定の垂直面による切断面と、その切断面の輪郭に位置する複数の点を表す。図10Aは、切断面の輪郭線及び複数の点を表し、図10Bは複数の点のみを表す。例えば、図10Bのように設定された複数の各点の座標が、検出対象特徴量として、予め記憶部202に記憶される。このような検出対象特徴量は、例えば予め一般的な人のモデルが生成され、生成されたモデルから切断面が生成され、切断面の輪郭線上に位置する複数の点が設定されることによって生成されても良い。また、複数人の形状の実測値毎に上記切断面の輪郭線上に位置する複数の点を設定し、これらを教師データとして検出部203の処理に応じた教師あり学習処理を行うことによって、検出対象特徴量が生成されても良い。   FIG. 10 is a diagram illustrating a second specific example of the detection target feature amount. FIG. 10 shows a cut surface by a predetermined vertical plane in a shape from the vicinity of the shoulder of the human body to the tip of the head, and a plurality of points positioned on the outline of the cut surface. FIG. 10A shows the outline of the cut surface and a plurality of points, and FIG. 10B shows only the plurality of points. For example, the coordinates of a plurality of points set as shown in FIG. 10B are stored in advance in the storage unit 202 as detection target feature amounts. Such a detection target feature amount is generated by, for example, generating a general human model in advance, generating a cut surface from the generated model, and setting a plurality of points positioned on the contour line of the cut surface May be. Further, detection is performed by setting a plurality of points positioned on the outline of the cut surface for each measured value of the shape of a plurality of people, and using these as teacher data for supervised learning processing according to the processing of the detection unit 203 A target feature amount may be generated.

この場合、検出部203は、選択部201によって選択された検出用位置情報を、所定の垂直面に射影し、検出対象特徴量とパターンマッチングする。具体的には、検出部203は、垂直面上に設定された座標軸において、射影によって生成された輪郭線上に位置する各点の座標を抽出し、検出対象特徴量とパターンマッチングする。射影された検出用位置情報と検出対象特徴量とのパターンマッチングは、図9に示された処理と同様に行われる。
また、検出部203は、予め複数の垂直面のパラメータを記憶し、各垂直面に対して上記処理を行うように構成されても良い。このように構成されることによって、検出対象の向きに依存することなく、検出対象を精度良く検出することが可能となる。
In this case, the detection unit 203 projects the detection position information selected by the selection unit 201 onto a predetermined vertical plane, and performs pattern matching with the detection target feature amount. Specifically, the detection unit 203 extracts the coordinates of each point located on the contour line generated by projection on the coordinate axis set on the vertical plane, and performs pattern matching with the detection target feature amount. Pattern matching between the projected detection position information and the detection target feature amount is performed in the same manner as the processing shown in FIG.
In addition, the detection unit 203 may be configured to store a plurality of vertical plane parameters in advance and perform the above-described processing on each vertical plane. With this configuration, the detection target can be detected with high accuracy without depending on the direction of the detection target.

図11は、検出装置20の処理の流れを表すフローチャートである。まず、選択部201がセンサ10から位置情報を受信する(ステップS101)。次に、選択部201が、受信された位置情報から検出用位置情報を選択する(ステップS102)。次に、検出部203が、記憶部202から検出対象特徴量を読み出す(ステップS103)。そして、検出部203が、検出用位置情報と検出対象特徴量とのマッチングを開始する(ステップS104)。   FIG. 11 is a flowchart showing a process flow of the detection apparatus 20. First, the selection unit 201 receives position information from the sensor 10 (step S101). Next, the selection unit 201 selects detection position information from the received position information (step S102). Next, the detection unit 203 reads the detection target feature amount from the storage unit 202 (step S103). Then, the detection unit 203 starts matching between the detection position information and the detection target feature amount (step S104).

検出部203は、相違量を算出し、予め設定された閾値未満か否か判定する(ステップS105)。算出された相違量が閾値未満である場合には(ステップS105−YES)、検出部203は、現在のパターンの位置に検出対象が位置すると判定する(ステップS106)。一方、算出された相違量が閾値以上である場合には(ステップS105−NO)、検出部203は、現在のパターンの位置に検出対象が位置しないと判定する(ステップS107)。   The detection unit 203 calculates the difference amount and determines whether it is less than a preset threshold value (step S105). When the calculated difference amount is less than the threshold (step S105—YES), the detection unit 203 determines that the detection target is located at the current pattern position (step S106). On the other hand, when the calculated difference amount is equal to or greater than the threshold (step S105—NO), the detection unit 203 determines that the detection target is not located at the current pattern position (step S107).

次に、検出部203は、全ての位置においてステップS105の判定を行ったか否か判定する(ステップS108)。この処理は、図8の例の場合は、X−Y平面画像において左上端から右下端までパターン202Aをずらしたか否かで判定される。また、図10の例の場合は、全ての垂直面において、左上端から右下端までパターン202Aをずらしたか否かで判定される。判定済みでない場合(ステップS108−NO)、検出部203は、所定の幅でパターン202Aの位置をずらし(ステップS109)、S105の処理に戻る。一方、全ての位置で判定済みである場合(ステップS108−YES)、検出部203は、その時点までに繰り返し実行されたステップS106及びステップS107の判定結果を、検出結果として出力する(ステップS110)。   Next, the detection unit 203 determines whether or not the determination in step S105 has been performed at all positions (step S108). In the case of the example in FIG. 8, this process is determined based on whether or not the pattern 202A is shifted from the upper left end to the lower right end in the XY plane image. Further, in the case of the example in FIG. 10, the determination is made based on whether or not the pattern 202A is shifted from the upper left end to the lower right end in all vertical planes. If not determined (step S108—NO), the detection unit 203 shifts the position of the pattern 202A by a predetermined width (step S109), and returns to the process of S105. On the other hand, when the determination has been made at all positions (step S108—YES), the detection unit 203 outputs the determination results of step S106 and step S107 that have been repeatedly executed up to that point as detection results (step S110). .

このように構成された検出装置20では、所定の高さから下方に向けて設置されたセンサ10によって測定された位置情報に基づいて検出対象を検出する。そのため、検出対象が密集しているような環境であっても、センサ10の視野内で検出対象同士が重なり合うことが少ないため、検出対象を精度良く検出することが可能となる。
また、検出装置20では、位置情報に基づいて検出対象を検出するため、床面等の模様による影響を抑止し、検出対象を精度良く検出することが可能となる。
In the detection device 20 configured in this way, a detection target is detected based on position information measured by the sensor 10 installed downward from a predetermined height. For this reason, even in an environment where the detection targets are densely packed, the detection targets do not overlap each other within the field of view of the sensor 10, so that the detection targets can be detected with high accuracy.
In addition, since the detection device 20 detects the detection target based on the position information, it is possible to suppress the influence of the pattern such as the floor surface and detect the detection target with high accuracy.

また、選択部201が第三の具体例又は第四の具体例の処理によって選択を行う場合には、検出対象の身長や状態に拘わらず、精度良く検出対象を検出することが可能となる。具体的には、各物体のピーク観測点60に応じて、検出用位置情報の選択範囲が物体毎に設定される。そのため、例えば図6の場合には、直立した大人30−1であっても、屈んだ大人30−2であっても、身長が低い子供30−3であっても、人型ロボット30−4であっても、適切に検出用位置情報が選択される。   Further, when the selection unit 201 performs the selection by the process of the third specific example or the fourth specific example, it is possible to detect the detection target with high accuracy regardless of the height and state of the detection target. Specifically, the selection range of the position information for detection is set for each object according to the peak observation point 60 of each object. Therefore, for example, in the case of FIG. 6, the humanoid robot 30-4 may be an upright adult 30-1, a bent adult 30-2, or a short child 30-3. Even so, the detection position information is appropriately selected.

<変形例>
センサ10は、上記の距離センサ単体として構成されても良い。この場合、距離センサによって測定された距離及び距離センサの設置位置に基づいて観測点毎の位置情報を算出する演算装置は、センサ10とは別装置として設置されても良い。また、検出装置20が、上記演算装置に相当する処理を行う演算部をさらに備えるように構成されても良い。
<Modification>
The sensor 10 may be configured as the distance sensor alone. In this case, the arithmetic device that calculates the position information for each observation point based on the distance measured by the distance sensor and the installation position of the distance sensor may be installed as a separate device from the sensor 10. Further, the detection device 20 may be configured to further include a calculation unit that performs processing corresponding to the calculation device.

図8及び図10では、検出対象特徴量は、所定の切断面の輪郭に設定された点であったため、二次元座標により表される。しかしながら、検出対象特徴量は二次元座標により表されるものに限定される必要はなく、三次元座標により表されるように構成されても良い。その場合、検出部203は、検出用位置情報のX座標、Y座標、Z座標の三次元の値に基づいて、検出対象特徴量とのパターンマッチングを行う。   In FIG. 8 and FIG. 10, the detection target feature amount is a point set in the contour of a predetermined cut surface, and thus is represented by two-dimensional coordinates. However, the detection target feature amount need not be limited to that represented by two-dimensional coordinates, and may be configured to be represented by three-dimensional coordinates. In this case, the detection unit 203 performs pattern matching with the detection target feature amount based on the three-dimensional values of the X coordinate, the Y coordinate, and the Z coordinate of the detection position information.

図12は、変形例の検出部203によるパターンマッチング処理の具体例を表す図である。検出部203は、検出用位置情報を、各観測点の位置座標に基づいて、1又は複数の集合に分類するように構成されても良い。このような分類の処理は、既存のクラスタリング技術を適用することによって実現される。そして、検出部203は、集合毎に、検出対象特徴量とのパターンマッチングを行う。図12では、分類処理の結果、集合200−1と、集合200−2とが生成されている。この場合、検出部203は、図9に示すように左上端から右下端までパターン202Aを所定幅ずつずらしていくのではなく、分類された集合(200−1及び200−2)が位置する場所のみにおいてパターンマッチングを行う。このように構成されることによって、パターンマッチングに要する時間を削減することが可能となる。   FIG. 12 is a diagram illustrating a specific example of pattern matching processing performed by the detection unit 203 according to the modification. The detection unit 203 may be configured to classify the detection position information into one or a plurality of sets based on the position coordinates of each observation point. Such classification processing is realized by applying an existing clustering technique. Then, the detection unit 203 performs pattern matching with the detection target feature amount for each set. In FIG. 12, a set 200-1 and a set 200-2 are generated as a result of the classification process. In this case, the detection unit 203 does not shift the pattern 202A by a predetermined width from the upper left end to the lower right end as shown in FIG. 9, but the place where the classified sets (200-1 and 200-2) are located. Pattern matching only in With this configuration, the time required for pattern matching can be reduced.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

10…センサ, 20…検出装置, 201…選択部, 202…記憶部, 203…検出部, 2011…ピーク観測点検出部, 2012…算出部, 2013…決定部 DESCRIPTION OF SYMBOLS 10 ... Sensor, 20 ... Detection apparatus, 201 ... Selection part, 202 ... Memory | storage part, 203 ... Detection part, 2011 ... Peak observation point detection part, 2012 ... Calculation part, 2013 ... Determination part

Claims (10)

所定の高さから下方に向けて設置されたセンサによって測定された各観測点の位置情報から、検出処理で使用する検出用位置情報を、高さの値に基づいて選択する選択部と、
検出対象の形状に基づいて設定された検出対象特徴量を予め記憶する記憶部と、
選択された前記検出用位置情報と、前記記憶部に記憶される前記検出対象特徴量とに基づいて、前記検出用位置情報から前記検出対象を検出する検出部と、
を備える検出装置。
From the position information of each observation point measured by a sensor installed downward from a predetermined height, a selection unit that selects detection position information used in the detection process based on the height value;
A storage unit that stores in advance a detection target feature amount set based on the shape of the detection target;
A detection unit that detects the detection target from the detection position information based on the selected detection position information and the detection target feature quantity stored in the storage unit;
A detection device comprising:
前記検出対象の形状は、人型の形状であることを特徴とする請求項1に記載の検出装置。   The detection apparatus according to claim 1, wherein the shape of the detection target is a human shape. 前記検出部は、選択された前記検出用位置情報を、各観測点の位置情報に基づいて1又は複数の集合に分類し、分類された各集合が前記検出対象であるか否かを判定することによって前記検出対象を検出する
ことを特徴とする請求項2に記載の検出装置。
The detection unit classifies the selected position information for detection into one or a plurality of sets based on the position information of each observation point, and determines whether each classified set is the detection target. The detection apparatus according to claim 2, wherein the detection target is detected by the detection.
前記選択部は、床面からの高さが予め設定された第一高さ及び第二高さの間に位置する観測点に対する位置情報を、前記検出用位置情報として選択することを特徴とする請求項2又は3に記載の検出装置。   The selection unit selects, as the detection position information, position information with respect to an observation point located between a first height and a second height whose height from the floor is set in advance. The detection device according to claim 2 or 3. 前記第一高さ及び第二高さは、検出対象の前記人型形状における略腰位置までの高さから略肩位置までの高さの間の値として予め設定されることを特徴とする請求項4に記載の検出装置。   The first height and the second height are preset as values between a height from a substantially waist position to a substantially shoulder position in the humanoid shape to be detected. Item 5. The detection device according to Item 4. 前記選択部は、床面からの高さが予め設定された第三高さよりも高い観測点に対する位置情報を、前記検出用位置情報として選択することを特徴とする請求項2又は3に記載の検出装置。   The said selection part selects the positional information with respect to the observation point whose height from a floor surface is higher than preset 3rd height as said positional information for a detection. Detection device. 前記第一高さは、検出対象の前記人型形状における略肩位置までの高さの間の値として予め設定されることを特徴とする請求項6に記載の検出装置。   The detection device according to claim 6, wherein the first height is set in advance as a value between a height to a substantially shoulder position in the humanoid shape to be detected. 前記選択部は、
前記測定された位置情報から、床面からの高さが周囲に対してピーク値となる観測点を検出するピーク観測点検出部と、
前記ピーク観測点検出部によって検出されたピーク観測点における床面からの高さに、予め定められたオフセット値を減算することによって減算値を算出し、前記ピーク値及び前記減算値に基づいて、前記ピーク観測点毎に相対第一高さ及び相対第二高さを算出する算出部と、
前記ピーク観測点の周囲の所定範囲毎に、前記ピーク観測点に対応する前記相対第一高さ及び前記相対第二高さの間の位置する観測点に対する位置情報を、前記検出用位置情報として選択する決定部と、
を備えることを特徴とする請求項2又は3に記載の検出装置。
The selection unit includes:
From the measured position information, a peak observation point detection unit for detecting an observation point whose height from the floor is a peak value with respect to the surroundings;
By calculating a subtraction value by subtracting a predetermined offset value to the height from the floor at the peak observation point detected by the peak observation point detection unit, based on the peak value and the subtraction value, A calculation unit for calculating a relative first height and a relative second height for each peak observation point;
For each predetermined range around the peak observation point, position information for the observation point located between the relative first height and the relative second height corresponding to the peak observation point is used as the detection position information. A decision unit to select;
The detection apparatus according to claim 2, further comprising:
前記選択部は、
前記測定された位置情報から、床面からの高さが周囲に対してピーク値となる観測点を検出するピーク観測点検出部と、
前記ピーク観測点検出部によって検出されたピーク観測点における床面からの高さに、予め定められたオフセット値を減算することによって減算値を算出し、前記ピーク値及び前記減算値に基づいて、前記ピーク観測点毎に相対第三高さを算出する算出部と、
前記ピーク観測点の周囲の所定範囲毎に、前記ピーク観測点に対応する前記相対第三高さよりも高い観測点に対する位置情報を、前記検出用位置情報として選択する決定部と、
を備えることを特徴とする請求項2又は3に記載の検出装置。
The selection unit includes:
From the measured position information, a peak observation point detection unit for detecting an observation point whose height from the floor is a peak value with respect to the surroundings;
By calculating a subtraction value by subtracting a predetermined offset value to the height from the floor at the peak observation point detected by the peak observation point detection unit, based on the peak value and the subtraction value, A calculation unit for calculating a relative third height for each peak observation point;
For each predetermined range around the peak observation point, a determination unit that selects position information for an observation point higher than the relative third height corresponding to the peak observation point as the detection position information;
The detection apparatus according to claim 2, further comprising:
検出対象の形状に基づいて設定された検出対象特徴量を予め記憶する記憶部、を備える検出装置が、所定の高さから下方に向けて設置されたセンサによって測定された位置情報から、検出処理で使用する検出用位置情報を、位置の値に基づいて選択する選択ステップと、
前記検出装置が、選択された前記検出用位置情報と、前記記憶部に記憶される前記検出対象特徴量とに基づいて、前記検出用位置情報から前記検出対象を検出する検出ステップと、
を備える検出方法。
A detection device including a storage unit that stores in advance a detection target feature amount set based on the shape of the detection target is detected from position information measured by a sensor installed downward from a predetermined height. A selection step for selecting the position information for detection used in the step based on the position value;
A detection step in which the detection device detects the detection target from the detection position information based on the selected detection position information and the detection target feature quantity stored in the storage unit;
A detection method comprising:
JP2010026812A 2010-02-09 2010-02-09 Detection device and method Pending JP2011163921A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010026812A JP2011163921A (en) 2010-02-09 2010-02-09 Detection device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010026812A JP2011163921A (en) 2010-02-09 2010-02-09 Detection device and method

Publications (1)

Publication Number Publication Date
JP2011163921A true JP2011163921A (en) 2011-08-25

Family

ID=44594774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010026812A Pending JP2011163921A (en) 2010-02-09 2010-02-09 Detection device and method

Country Status (1)

Country Link
JP (1) JP2011163921A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015519687A (en) * 2012-04-20 2015-07-09 レンセレイアー ポリテクニック インスティテュート Sensing lighting system and method for characterizing an illumination space

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015519687A (en) * 2012-04-20 2015-07-09 レンセレイアー ポリテクニック インスティテュート Sensing lighting system and method for characterizing an illumination space
JP2018018829A (en) * 2012-04-20 2018-02-01 レンセレイアー ポリテクニック インスティテュート Detection lighting system and method for characterizing lighting space
JP2020038845A (en) * 2012-04-20 2020-03-12 レンセレイアー ポリテクニック インスティテュート Detection lighting system and method for characterizing lighting space
JP2021153073A (en) * 2012-04-20 2021-09-30 レンセレイアー ポリテクニック インスティテュート Detection lighting system and method for performing characteristic evaluation of lighting space
JP7462231B2 (en) 2012-04-20 2024-04-05 レンセレイアー ポリテクニック インスティテュート Sensing lighting system and method for characterizing a lighting space - Patents.com

Similar Documents

Publication Publication Date Title
EP2544149A1 (en) Moving-body detection device, moving-body detection method, moving-body detection program, moving-body tracking device, moving-body tracking method, and moving-body tracking program
JP5493108B2 (en) Human body identification method and human body identification device using range image camera
JP2013101045A (en) Recognition device and recognition method of three-dimensional position posture of article
JP6632208B2 (en) Information processing apparatus, information processing method, and program
CN105091885B (en) Robot and self-position estimate method
KR20160003776A (en) Posture estimation method and robot
JP2012108785A (en) Person counting device, person counting method, and person counting program
KR20140133773A (en) Three-dimensional object modelling fitting & tracking
CN108140291A (en) Mist detecting device, method and image processing equipment
JP2014127208A (en) Method and apparatus for detecting object
KR101515597B1 (en) Method and apparatus for surveillance by using 3-dimension image data
US20180247150A1 (en) Information processing device, information processing method, and article manufacturing method
JP2012123667A (en) Attitude estimation device and attitude estimation method
JP5417645B2 (en) Plane estimation method and range image camera in range image
KR20100090401A (en) Method and system for spatial interaction in augmented reality system
US10902610B2 (en) Moving object controller, landmark, and moving object control method
JP2008225784A (en) Vanishing point extraction device
JP2013149228A (en) Position detector and position detection program
JP2017167974A (en) Estimation apparatus, method and program
JP2011163921A (en) Detection device and method
Ukida et al. Human motion capture system using color markers and silhouette
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP2010009236A (en) Plane area estimation device and program
CN115578457A (en) Dynamic box body detection method applied to unordered grabbing
WO2019016879A1 (en) Object detection device and object detection method