JP2021076948A - Person detection device, person detection system, and person detection method - Google Patents

Person detection device, person detection system, and person detection method Download PDF

Info

Publication number
JP2021076948A
JP2021076948A JP2019201138A JP2019201138A JP2021076948A JP 2021076948 A JP2021076948 A JP 2021076948A JP 2019201138 A JP2019201138 A JP 2019201138A JP 2019201138 A JP2019201138 A JP 2019201138A JP 2021076948 A JP2021076948 A JP 2021076948A
Authority
JP
Japan
Prior art keywords
person
point cloud
person detection
group
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019201138A
Other languages
Japanese (ja)
Inventor
佳一 三谷
Yoshikazu Mitani
佳一 三谷
昭信 渡邊
Akinobu Watanabe
昭信 渡邊
敦 根尾
Atsushi Neo
敦 根尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi LG Data Storage Inc
Original Assignee
Hitachi LG Data Storage Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi LG Data Storage Inc filed Critical Hitachi LG Data Storage Inc
Priority to JP2019201138A priority Critical patent/JP2021076948A/en
Publication of JP2021076948A publication Critical patent/JP2021076948A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a person detection device that detects a person with high accuracy even when a plurality of persons overlap and a part of the person behind cannot be seen or when a plurality of persons are close to each other.SOLUTION: In a person detection system 1, a person detection device 10 includes: a first person detection unit 107 that detects a person included in an RGB image acquired from an RGB camera 101; a point cloud clustering unit 108 that acquires a point cloud group by spatially grouping point clouds included in point cloud data generated from a point cloud image acquired from a ToF sensor 102; a person point cloud cluster association unit 109 that associates a person detection area in which the first person detection unit 107 detected the person in the RGB image with the point cloud group grouped by the point cloud clustering unit 108; and a second person detection unit 112 that determines whether or not a non-corresponding point cloud group is a person according to a first feature quantity of the non-corresponding point cloud group of the point cloud group that is not associated with the person detection area by the person point cloud cluster association unit 109.SELECTED DRAWING: Figure 1

Description

本発明は、画像内に含まれる人を検出する技術に関する。 The present invention relates to a technique for detecting a person included in an image.

画像を用いた監視技術においては、画像内に含まれる人を検出する場合がある。本技術分野における従来技術として特許文献1、特許文献2、特許文献3がある。 In the surveillance technology using an image, a person included in the image may be detected. Patent Document 1, Patent Document 2, and Patent Document 3 are prior arts in the present technical field.

下記特許文献1は、『所定の範囲に対して距離の測定を行う距離測定部と、前記距離測定部によって測定された距離の分布に基づいて人を検出する人処理部と、前記人処理部によって検出された人毎に識別子を付与するトラッキング部と、人に対して挙手の開始と終了を促すことにより設定される第1期間において、測定された距離に含まれる高さ方向の値である人データ高さに基づいて、人の反応を推定する状況推定部と、を備え、前記状況推定部は、前記トラッキング部によって識別子を付与された人毎の前記人データ高さを前記第1期間に複数回測定し、複数の前記人データ高さが所定の範囲内にある識別子を抽出し、抽出された識別子に対応する人の反応を推定する動作推定装置』という技術を開示している(請求項1参照)。 The following Patent Document 1 describes, "A distance measuring unit that measures a distance with respect to a predetermined range, a human processing unit that detects a person based on the distribution of the distance measured by the distance measuring unit, and the human processing unit. It is a value in the height direction included in the measured distance in the tracking unit that assigns an identifier to each person detected by and the first period set by urging the person to start and end raising his / her hand. A situation estimation unit that estimates a person's reaction based on a person data height is provided, and the situation estimation unit sets the person data height for each person assigned an identifier by the tracking unit for the first period. Discloses a technique called "motion estimation device" that measures a plurality of times, extracts a plurality of identifiers whose data heights are within a predetermined range, and estimates the reaction of a person corresponding to the extracted identifiers. See claim 1).

下記特許文献2は、『通行人の足のレーザセンサからの距離を示す距離データを受信する距離データ受信手段と、複数の前記レーザセンサによって取得された前記距離データを複数用いて、同時刻における空間平面上のレーザセンサの検出位置を示すセンシング画像データを生成するセンシング画像データ生成手段と、前記センシング画像データにおける複数の前記検出位置をクラスタリングするクラスタリング手段と、前記クラスタリング結果から一人の通行人の足に対応するクラスタを特定する通行人特定手段と、前記特定した通行人のクラスタから、当該通行人の足のポイントの位置、歩行方向、歩幅、歩行周期、歩行位相とからなるパラメータを決定するパラメータ決定手段と、前記パラメータとParticle filterアルゴリズムを用いて通行人の軌跡を解析する軌跡解析処理手段と、を備えることを特徴とする通行人行動解析装置』という技術を開示している(請求項1参照)。 The following Patent Document 2 describes, "A distance data receiving means for receiving distance data indicating a distance from a passerby's foot from a laser sensor and a plurality of the distance data acquired by the plurality of laser sensors are used at the same time. Sensing image data generation means that generates sensing image data indicating the detection position of the laser sensor on the spatial plane, clustering means that clusters a plurality of the detection positions in the sensing image data, and one passerby from the clustering result. From the passerby identification means for specifying the cluster corresponding to the foot and the specified passerby cluster, parameters including the position of the point of the passerby's foot, walking direction, stride length, walking cycle, and walking phase are determined. A technique called a "passerby behavior analysis device" comprising a parameter determining means and a locus analysis processing means for analyzing the locus of a passerby using the parameters and a particle filter algorithm is disclosed (claim). 1).

下記特許文献3は、『画像の範囲ごとに群衆の移動ベクトルを取得する取得手段と、前記取得手段により取得された移動ベクトルに基づいて人流クラスタを生成する生成手段と、前記生成手段により生成された人流クラスタを正常な人流クラスタと異常な人流クラスタとに分類する分類手段と、前記正常な人流クラスタと前記異常な人流クラスタとを視覚的に判別可能な形で前記画像に重畳して表示する表示手段と、を有する画像処理装置』という技術を開示している(請求項1参照)。 The following Patent Document 3 describes, "A acquisition means for acquiring a movement vector of a crowd for each range of an image, a generation means for generating a human flow cluster based on the movement vector acquired by the acquisition means, and a generation means generated by the generation means. A classification means for classifying a normal human flow cluster into a normal human flow cluster and an abnormal human flow cluster, and displaying the normal human flow cluster and the abnormal human flow cluster superimposed on the image in a visually distinguishable form. It discloses a technique called "an image processing device having a display means" (see claim 1).

特開2016−218610号公報Japanese Unexamined Patent Publication No. 2016-218610 特開2009−110185号公報Japanese Unexamined Patent Publication No. 2009-110185 特開2019−067208号公報JP-A-2019-067208

従来技術を用いることにより、被撮影領域内にいる人を検出できる。しかし人が多くなるに連れ、複数人が重なって後方の人の一部が見えなくなることにより後方の人が検出されなくなる場合や、複数人が近接することにより複数人が1人として検出されてしまう場合が増える。 By using the prior art, it is possible to detect a person in the area to be photographed. However, as the number of people increases, there are cases where multiple people overlap and some of the people behind are not visible, so the people behind are not detected, or when multiple people are close to each other, multiple people are detected as one person. There are more cases where it ends up.

本発明は、上記のような課題に鑑みてなされたものであり、複数人が重なって後方の人の一部が見えなくなる場合や、複数人が近接する場合においても、高精度に人を検出することができる人検出装置を提供することを目的とする。 The present invention has been made in view of the above problems, and can detect a person with high accuracy even when a plurality of people overlap and a part of the person behind cannot be seen or when a plurality of people are close to each other. It is an object of the present invention to provide a person detection device capable of performing.

本発明に係る人検出装置は、RGB画像に含まれる人領域を検出した後、点群クラスタのなかで前記人領域に対応していない未対応点群グループの特徴量を算出し、その特徴量にしたがって、前記未対応点群グループが人であるか否かを判断する。 The person detection device according to the present invention detects a human area included in an RGB image, then calculates a feature amount of an uncorresponding point group group that does not correspond to the human area in the point group cluster, and calculates the feature amount. Therefore, it is determined whether or not the uncorresponding point group is a person.

本発明に係る人検出装置によれば、複数人が重なって後方の人の一部が見えなくなる場合や、複数人が近接する場合においても、高精度に人を検出できる。上記した以外の課題、構成、効果は、以下の実施形態の説明により明らかにされる。 According to the person detection device according to the present invention, a person can be detected with high accuracy even when a plurality of people overlap and a part of the person behind cannot be seen or when a plurality of people are close to each other. Issues, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

実施形態1に係る人検出システム1の構成図である。It is a block diagram of the person detection system 1 which concerns on Embodiment 1. RGBカメラ101とToFセンサ102によって同じ1組のマーカを撮影する状況を示している。It shows the situation where the same set of markers is photographed by the RGB camera 101 and the ToF sensor 102. 人検出システム1が画像内の人を検出する処理を説明するフローチャートである。It is a flowchart explaining the process which the person detection system 1 detects a person in an image. 撮影環境の1例である。This is an example of a shooting environment. 図3のフローチャートにしたがって図4Aにおける被写体405Aと406Aを検出する手順を示す処理フロー図である。It is a processing flow diagram which shows the procedure of detecting the subject 405A and 406A in FIG. 4A according to the flowchart of FIG. 実施形態2に係る人検出システム1の構成図である。It is a block diagram of the person detection system 1 which concerns on Embodiment 2. 人クラスタ形状特徴量抽出部502と、点群クラスタフィッティング部504と、第2人検出部112が実施する処理の詳細を説明する概念図である。It is a conceptual diagram explaining the details of the processing performed by the person cluster shape feature amount extraction unit 502, the point cloud cluster fitting unit 504, and the second person detection unit 112. 実施形態2における人検出システム1が画像内の人を検出する処理を説明するフローチャートである。It is a flowchart explaining the process which the person detection system 1 in Embodiment 2 detects a person in an image. ステップS703の詳細を説明するフローチャートである。It is a flowchart explaining the detail of step S703. 実施形態3に係る人検出システム1の構成図である。It is a block diagram of the person detection system 1 which concerns on Embodiment 3. 点群密度極大値検出部802と第2人検出部112による人検出方法の詳細を説明する図である。It is a figure explaining the detail of the person detection method by the point cloud density maximum value detection unit 802 and the second person detection unit 112. 実施形態3における人検出システム1が画像内の人を検出する処理を説明するフローチャートである。It is a flowchart explaining the process which the person detection system 1 in Embodiment 3 detects a person in an image.

実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。また、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、「Aからなる」、「Aよりなる」、「Aを有する」、「Aを含む」と言うときは、特にその要素のみである旨明示した場合等を除き、それ以外の要素を排除するものでないことは言うまでもない。同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合および原理的に明らかにそうでないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。 In all the drawings for explaining the embodiment, the same members are, in principle, given the same reference numerals, and the repeated description thereof will be omitted. Further, in the following embodiments, the components (including element steps and the like) are not necessarily essential unless otherwise specified or clearly considered to be essential in principle. Needless to say. In addition, when saying "consisting of A", "consisting of A", "having A", and "including A", other elements are excluded unless it is clearly stated that it is only that element. It goes without saying that it is not something to do. Similarly, in the following embodiments, when referring to the shape, positional relationship, etc. of a component or the like, the shape is substantially the same unless otherwise specified or when it is considered that it is not apparent in principle. Etc., etc. shall be included.

本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。 The notations such as "first", "second", and "third" in the present specification and the like are attached to identify the components, and do not necessarily limit the number, order, or contents thereof. is not it. In addition, numbers for identifying components are used for each context, and numbers used in one context do not always indicate the same composition in other contexts. Further, it does not prevent the component identified by a certain number from having the function of the component identified by another number.

図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。 The position, size, shape, range, etc. of each configuration shown in the drawings and the like may not represent the actual position, size, shape, range, etc. in order to facilitate understanding of the invention. Therefore, the present invention is not necessarily limited to the position, size, shape, range, etc. disclosed in the drawings and the like.

<実施の形態1>
図1は、本発明の実施形態1に係る人検出システム1の構成図である。人検出システム1は、画像内に含まれる人を検出するシステムである。人検出システム1は、撮影処理部11、第1情報処理部12、第2情報処理部13を備える。第1情報処理部12と第2情報処理部13は、人検出装置10を構成することができる(実施形態2以降においても同様)。
<Embodiment 1>
FIG. 1 is a configuration diagram of a person detection system 1 according to the first embodiment of the present invention. The person detection system 1 is a system for detecting a person included in an image. The human detection system 1 includes a photographing processing unit 11, a first information processing unit 12, and a second information processing unit 13. The first information processing unit 12 and the second information processing unit 13 can configure the person detection device 10 (the same applies to the second and subsequent embodiments).

撮影処理部11は、RGBカメラ101とToF(Time of Flight)センサ102を有する。RGBカメラ101は、各画素が一般的な階調情報(RGBなど)を持つ画像(以降、RGB画像と呼ぶ)を取得しRGB画像取得部103へ出力する。ToFセンサ102は、各画素が距離情報を持つ距離画像を取得し、距離画像取得部104へ出力する。距離画像における各画素は、座標変換によって3次元座標に変換でき、それら変換後の3次元座標が示す点の集団を点群と呼ぶ。 The photographing processing unit 11 has an RGB camera 101 and a ToF (Time of Flight) sensor 102. The RGB camera 101 acquires an image (hereinafter referred to as an RGB image) in which each pixel has general gradation information (RGB or the like) and outputs the image to the RGB image acquisition unit 103. The ToF sensor 102 acquires a distance image in which each pixel has distance information and outputs the distance image to the distance image acquisition unit 104. Each pixel in the distance image can be converted into three-dimensional coordinates by coordinate conversion, and the group of points indicated by the three-dimensional coordinates after the conversion is called a point cloud.

第1情報処理部12は、RGB画像取得部103、距離画像取得部104、ピクセル同期部105、同期情報保持部106、第1人検出部107、点群クラスタリング部108、人点群クラスタ対応付け部109、人クラスタ除去部110を有する。 The first information processing unit 12 includes an RGB image acquisition unit 103, a distance image acquisition unit 104, a pixel synchronization unit 105, a synchronization information holding unit 106, a first person detection unit 107, a point cloud clustering unit 108, and a point cloud cluster association. It has a unit 109 and a person cluster removing unit 110.

RGB画像取得部103は、RGBカメラ101からRGB画像を取得し、ピクセル同期部105と第1人検出部107へ出力する。距離画像取得部104は、ToFセンサ102から距離画像を取得し、ピクセル同期部105と点群クラスタリング部108へ出力する。 The RGB image acquisition unit 103 acquires an RGB image from the RGB camera 101 and outputs it to the pixel synchronization unit 105 and the first person detection unit 107. The distance image acquisition unit 104 acquires a distance image from the ToF sensor 102 and outputs it to the pixel synchronization unit 105 and the point cloud clustering unit 108.

ピクセル同期部105は、RGB画像取得部103から取得したRGB画像と距離画像取得部104から取得した距離画像の各画素の位置を同期させ、両画像における各画素の対応関係(以下、ピクセル同期情報と呼ぶ)を同期情報保持部106へ出力する。この同期処理はRGB画像と距離画像を取得する度に実施してもよいし、RGB画像と距離画像を初めに取得した時のみ実施してもよく、ピクセル同期部105の処理頻度は限定されない。同期処理の詳細は後述する。 The pixel synchronization unit 105 synchronizes the positions of each pixel of the RGB image acquired from the RGB image acquisition unit 103 and the distance image acquired from the distance image acquisition unit 104, and the correspondence relationship of each pixel in both images (hereinafter, pixel synchronization information). Is output to the synchronization information holding unit 106. This synchronization processing may be performed each time the RGB image and the distance image are acquired, or may be performed only when the RGB image and the distance image are first acquired, and the processing frequency of the pixel synchronization unit 105 is not limited. The details of the synchronization process will be described later.

同期情報保持部106は、ピクセル同期部105から取得したピクセル同期情報を保持し、人点群クラスタ対応付け部109へピクセル同期情報を出力する。 The synchronization information holding unit 106 holds the pixel synchronization information acquired from the pixel synchronization unit 105, and outputs the pixel synchronization information to the person point cloud cluster association unit 109.

第1人検出部107は、RGB画像取得部103から取得したRGB画像に対して人検出を実施し、人検出数と人検出領域情報を人点群クラスタ対応付け部109と第2人検出部112へ出力する。例えば、CNN(Convolutional Neural Network)を用いた画像認識アルゴリズムにより人の全身や顔部分を検出し、検出した人の数と位置をそれぞれ示す人検出数と人検出領域情報を人点群クラスタ対応付け部109と第2人検出部112へ出力する。人検出数が0の場合、検出数は0として人検出領域情報は出力しない。 The first person detection unit 107 performs human detection on the RGB image acquired from the RGB image acquisition unit 103, and transmits the number of people detected and the person detection area information to the person point cloud cluster association unit 109 and the second person detection unit. Output to 112. For example, an image recognition algorithm using CNN (Convolutional Neural Network) is used to detect the whole body and face of a person, and the number of people detected and the person detection area information indicating the number and position of the detected people are associated with a point cloud cluster. Output to unit 109 and second person detection unit 112. When the number of detected persons is 0, the number of detected persons is set to 0 and the person detection area information is not output.

点群クラスタリング部108は、距離画像取得部104から取得した距離画像を点群へ変換し、点群を幾つかの塊(以下、点群クラスタと呼ぶ)として一定密度以上の値で密集する点群を空間的にグルーピングする。点群をグルーピングするその他の手法としては、例えば、点群の分布をGMM(Gaussian Mixture Model)によって再現したときの、各点群座標に対するGauss分布モデルの尤度にしたがってグルーピングすることができる。その他適当なグルーピング手法を用いてもよい。点群クラスタリング部108は、グルーピングした点群クラスタを人点群クラスタ対応付け部109へ出力する。このグルーピング処理のことをクラスタリングとも呼ぶ。 The point cloud clustering unit 108 converts the distance image acquired from the distance image acquisition unit 104 into a point cloud, and the point cloud is densely packed with a value of a certain density or more as a number of agglomerates (hereinafter, referred to as a point cloud cluster). Group the groups spatially. As another method for grouping the point cloud, for example, the distribution of the point cloud can be grouped according to the likelihood of the Gauss distribution model with respect to the coordinates of each point cloud when the distribution of the point cloud is reproduced by GMM (Gaussian Mixture Model). Other suitable grouping methods may be used. The point cloud clustering unit 108 outputs the grouped point cloud clusters to the human point cloud cluster association unit 109. This grouping process is also called clustering.

人点群クラスタ対応付け部109は、同期情報保持部106から読み出したピクセル同期情報に基づいて、第1人検出部107から取得した人検出領域情報を点群クラスタリング部108から取得した点群クラスタに対応付け(この点群クラスタを領域対応点群クラスタと呼ぶ)、人クラスタ除去部110へ出力する。このとき領域対応点群クラスタには、人検出領域情報が対応付けられた人対応点群クラスタと人検出領域が対応付けられていない人未対応点群クラスタが混在する。第1人検出部107から取得した人検出数が0の場合は、点群クラスタに対して対応付け処理は実施しない。このとき、人クラスタ除去部110へ出力される点群クラスタは人未対応点群クラスタと等しい。 The point cloud cluster association unit 109 acquires the person detection area information acquired from the first person detection unit 107 from the point cloud clustering unit 108 based on the pixel synchronization information read from the synchronization information holding unit 106. (This point cloud cluster is called a region-corresponding point cloud cluster) and is output to the human cluster removal unit 110. At this time, the area-corresponding point cloud cluster includes a person-corresponding point cloud cluster to which the person detection area information is associated and a person-unsupported point cloud cluster to which the person detection area is not associated. When the number of detected persons acquired from the first person detection unit 107 is 0, the association processing is not performed on the point cloud cluster. At this time, the point cloud cluster output to the human cluster removal unit 110 is equal to the human unsupported point cloud cluster.

人クラスタ除去部110は、人点群クラスタ対応付け部109から取得した領域対応点群クラスタから、人対応点群クラスタを除去し、動体検出部111へ人未対応点群クラスタを出力する。 The human cluster removal unit 110 removes the human-corresponding point cloud from the area-corresponding point cloud cluster acquired from the human-point group cluster mapping unit 109, and outputs the non-human-corresponding point cloud to the moving object detection unit 111.

第2情報処理部13は、動体検出部111と第2人検出部112を含む。 The second information processing unit 13 includes a moving object detection unit 111 and a second person detection unit 112.

動体検出部111は、人クラスタ除去部110から取得した人未対応点群クラスタの移動動作を表すパラメータを取得する。例えば人未対応点群クラスタの移動量(例えば、最初に除去した位置からの移動距離)や速度などをそのパラメータとして検出し、その情報を第2人検出部112へ出力する。 The moving object detection unit 111 acquires a parameter representing the movement operation of the human uncorresponding point cloud cluster acquired from the human cluster removal unit 110. For example, the movement amount (for example, the movement distance from the first removed position) and the speed of the unsupported point cloud cluster are detected as the parameters, and the information is output to the second person detection unit 112.

第2人検出部112は、動体検出部111から取得した人未対応点群クラスタの移動量や速度などの情報が人相当の値であるかどうかを閾値にしたがって判断し、その判断結果を第1人検出部107から取得した人検出数と人検出領域情報へ統合することにより、改めて人検出数と人検出領域情報を生成する。この判断基準としては、例えば、(a)移動距離が50cmを超えていれば人として判断する、(b)速度が一般的な人の歩行速度(4km/h)程度であれば人として判断する、などが考えられる。一度、人未対応点群クラスタを人として検出すれば、RGBカメラ101とToFセンサ102の視野領域を外れない限り、止まっていても追従する。 The second person detection unit 112 determines whether or not the information such as the movement amount and the speed of the human uncorresponding point cloud cluster acquired from the moving object detection unit 111 is a value equivalent to a person, and determines the determination result according to the threshold value. By integrating the number of people detected and the person detection area information acquired from the one person detection unit 107, the number of people detected and the person detection area information are generated again. As the judgment criteria, for example, (a) if the moving distance exceeds 50 cm, it is judged as a person, and (b) if the speed is about a general walking speed (4 km / h), it is judged as a person. , Etc. can be considered. Once the non-human point cloud cluster is detected as a human, it follows even if it is stopped, as long as it does not deviate from the visual field region of the RGB camera 101 and the ToF sensor 102.

図2は、RGBカメラ101とToFセンサ102によって同じ1組のマーカを撮影する状況を示している。図2を用いて、ピクセル同期部105が実施する同期処理の詳細を述べる。RGBカメラ101とToFセンサ102がそれぞれ撮影する画像のスケールは等しく、互いに歪曲していないものとする。 FIG. 2 shows a situation in which the same set of markers is photographed by the RGB camera 101 and the ToF sensor 102. The details of the synchronization processing performed by the pixel synchronization unit 105 will be described with reference to FIG. It is assumed that the scales of the images captured by the RGB camera 101 and the ToF sensor 102 are the same and are not distorted from each other.

処理フロー21は、RGBカメラ101が撮影したマーカについて2つの画素位置を検出している処理を示す。処理フロー22は、ToFセンサ102が撮影したマーカついて2つの頂点の画素位置を検出している処理を示す。処理フロー23は、同期に必要な情報を検出している処理を示す。 The processing flow 21 shows a process of detecting two pixel positions of the marker photographed by the RGB camera 101. The processing flow 22 shows a process of detecting the pixel positions of two vertices of the marker photographed by the ToF sensor 102. The processing flow 23 indicates a process of detecting information necessary for synchronization.

RGB画像201は、RGB画像取得部103がRGBカメラ101から取得するRGB画像である。距離画像202は、距離画像取得部104がToFセンサ102から取得する距離画像である。マーカ203と204は、RGB画像201上のマーカである。マーカ205と206は、距離画像202上のマーカである。 The RGB image 201 is an RGB image acquired by the RGB image acquisition unit 103 from the RGB camera 101. The distance image 202 is a distance image acquired by the distance image acquisition unit 104 from the ToF sensor 102. The markers 203 and 204 are markers on the RGB image 201. The markers 205 and 206 are markers on the distance image 202.

RGB画像201上の2つのピクセル座標(x11,y11)において見えるマーカ203とピクセル座標(x12,y12)において見えるマーカ204は、距離画像202上の2つのピクセル座標(x21,y21)と(x22,y22)においても見える(マーカ205と206)。このときの、RGB画像201と距離画像202の間でマーカの同じ部位を参照するための画素間の位置関係(ピクセル同期情報)を求めればよい。例えば、マーカ203と204がマーカ205と206に重なるようにオフセット(gx,gy)と回転角φを設定し、数1と数2を導出する。数1と数2を連立して解くことにより、オフセット(gx,gy)が数3と数4で求まり、回転角φは数5において逆正接関数から求まる。算出したオフセット(gx,gy)と回転角φを数6に適用することにより、RGB画像201上の任意のピクセル座標(xRGB,yRGB)を距離画像202上のピクセル座標(xToF,yToF)に対応付けることができる。 The marker 203 visible at the two pixel coordinates (x11, y11) on the RGB image 201 and the marker 204 visible at the pixel coordinates (x12, y12) are the two pixel coordinates (x21, y21) and (x22, x22, on the distance image 202). It is also visible in y22) (markers 205 and 206). At this time, the positional relationship (pixel synchronization information) between the pixels for referencing the same portion of the marker between the RGB image 201 and the distance image 202 may be obtained. For example, the offset (gx, gy) and the rotation angle φ are set so that the markers 203 and 204 overlap the markers 205 and 206, and the numbers 1 and 2 are derived. By solving the equations 1 and 2 simultaneously, the offset (gx, gy) can be obtained by the equations 3 and 4, and the angle of rotation φ can be obtained by the inverse trigonometric function in the equation 5. By applying the calculated offset (gx, gy) and rotation angle φ to Equation 6, any pixel coordinates (xRGB, yRGB) on the RGB image 201 are associated with the pixel coordinates (xToF, yToF) on the distance image 202. be able to.

Figure 2021076948
Figure 2021076948

Figure 2021076948
Figure 2021076948

Figure 2021076948
Figure 2021076948

Figure 2021076948
Figure 2021076948

Figure 2021076948
Figure 2021076948

Figure 2021076948
Figure 2021076948

同期情報保持部106は、座標(gx,gy)と回転角φを保持しておく。人点群クラスタ対応付け部109は、数6にしたがって人検出領域の各画素の位置を点群クラスタへ対応付ける際に、座標(gx,gy)と回転角φを参照する。 The synchronization information holding unit 106 holds the coordinates (gx, gy) and the rotation angle φ. The point cloud cluster association unit 109 refers to the coordinates (gx, gy) and the angle of rotation φ when associating the position of each pixel in the person detection region with the point cloud cluster according to Equation 6.

同期処理は、人検出システム1を設置するとき1度だけ手動などで実施してもよいし、RGB画像201と距離画像202を取得する度に、取得した画像内の任意の形状に関するテンプレートマッチング手法を用いて自動的に画素間の関係を算出し、得られた座標(gx,gy)と回転角φを任意のタイミング(例えば1時間に1度)で同期情報保持部106へ格納してもよい。 The synchronization process may be performed manually only once when the person detection system 1 is installed, or a template matching method for an arbitrary shape in the acquired image each time the RGB image 201 and the distance image 202 are acquired. Even if the relationship between the pixels is automatically calculated using the above and the obtained coordinates (gx, gy) and the rotation angle φ are stored in the synchronization information holding unit 106 at an arbitrary timing (for example, once an hour). Good.

RGBカメラ101とToFセンサ102が撮影した両画像のスケールが互いに異なる場合は、アフィン変換によってマーカ検出領域のサイズが等しくなるような等倍変換をした後に同期処理を実施すればよい。RGBカメラ101が撮影した画像が歪曲している場合は、あらかじめ様々な視点から撮影しておいたチェスボードを複数枚用いて歪み補正処理をした後に同期処理を実施すればよい。上記のどちらの場合も起こった場合は、各対処を組み合わせればよい。 When the scales of the two images captured by the RGB camera 101 and the ToF sensor 102 are different from each other, the synchronization process may be performed after performing the same magnification conversion so that the size of the marker detection area becomes the same by the affine transformation. When the image captured by the RGB camera 101 is distorted, the distortion correction process may be performed using a plurality of chess boards captured from various viewpoints in advance, and then the synchronization process may be performed. If either of the above cases occurs, each countermeasure may be combined.

図3は、人検出システム1が画像内の人を検出する処理を説明するフローチャートである。以下図3の各ステップについて説明する。 FIG. 3 is a flowchart illustrating a process in which the human detection system 1 detects a person in an image. Each step of FIG. 3 will be described below.

(図3:ステップS301〜S303)
RGB画像取得部103は、RGBカメラ101からRGB画像を取得する(S301)。距離画像取得部104は、ToFセンサ102から距離画像を取得し、取得した距離画像から点群を生成する(S302)。ピクセル同期部105は、図2で例示した手法により、RGB画像の画素位置と距離画像の画素位置を同期することにより、座標(gx,gy)と回転角φを算出する(S303)。
(FIG. 3: Steps S301 to S303)
The RGB image acquisition unit 103 acquires an RGB image from the RGB camera 101 (S301). The distance image acquisition unit 104 acquires a distance image from the ToF sensor 102 and generates a point cloud from the acquired distance image (S302). The pixel synchronization unit 105 calculates the coordinates (gx, gy) and the angle of rotation φ by synchronizing the pixel positions of the RGB image and the pixel positions of the distance image by the method illustrated in FIG. 2 (S303).

(図3:ステップS304〜S305)
第1人検出部107は、RGB画像に対して人検出処理を実施することにより、人検出領域情報と人検出数を生成する(S304)。点群クラスタリング部108は、点群に対してクラスタリング処理を実施することにより、点群クラスタを生成する(S305)。
(FIG. 3: Steps S304 to S305)
The first person detection unit 107 generates the person detection area information and the number of people detected by performing the person detection process on the RGB image (S304). The point cloud clustering unit 108 generates a point cloud cluster by performing a clustering process on the point cloud (S305).

(図3:ステップS306)
ステップS304において生成した人検出数が0より大きければステップS307へ進み、ステップS304にて生成した人検出数が0の場合はステップS310へスキップする。
(FIG. 3: Step S306)
If the number of detected persons generated in step S304 is larger than 0, the process proceeds to step S307, and if the number of detected persons generated in step S304 is 0, the process skips to step S310.

(図3:ステップS307)
人点群クラスタ対応付け部109は、ステップS304において検出した人検出領域情報を、ステップS305においてクラスタリングした点群クラスタへ対応付けることにより、人対応点群クラスタと人未対応点群クラスタに分類する。
(FIG. 3: Step S307)
The person point cloud cluster association unit 109 classifies the person corresponding point cloud cluster and the person unsupported point cloud cluster by associating the person detection area information detected in step S304 with the point cloud cluster clustered in step S305.

(図3:ステップS308)
人クラスタ除去部110はステップS307にて人検出領域情報を対応付けた人対応点群クラスタを除去する。本ステップは、人未対応点群クラスタを明確に識別するための便宜上のものであり、人未対応点群クラスタを識別できるのであれば必ずしも実施しなくともよい。
(Fig. 3: Step S308)
In step S307, the person cluster removing unit 110 removes the person corresponding point cloud cluster associated with the person detection area information. This step is for convenience to clearly identify the unsupported point cloud cluster, and does not necessarily have to be performed as long as the unsupported point cloud cluster can be identified.

(図3:ステップS309〜S310)
動体検出部111は、ステップS308後に残った人未対応点群クラスタを検出する(S309)。動体検出部111は、ステップS309において検出した人未対応点群クラスタの移動動作パラメータ(例えば移動量、速度など)を検出する(S310)。
(FIG. 3: Steps S309 to S310)
The moving object detection unit 111 detects the human unsupported point cloud cluster remaining after step S308 (S309). The moving object detection unit 111 detects the movement operation parameters (for example, movement amount, speed, etc.) of the human unsupported point cloud cluster detected in step S309 (S310).

(図3:ステップS311)
第2人検出部112は、ステップS310において検出した移動動作パラメータが人相当であるかどうかを判断する。第2人検出部112は、その判断結果を、第1人検出部107から取得した人検出数と人検出領域情報へ統合することにより、改めて人検出数と人検出領域情報を生成する。
(Fig. 3: Step S311)
The second person detection unit 112 determines whether or not the movement operation parameter detected in step S310 is equivalent to a person. The second person detection unit 112 regenerates the number of people detected and the person detection area information by integrating the determination result into the number of people detected and the person detection area information acquired from the first person detection unit 107.

(図3:ステップS312)
人検出システム1は、終了コマンドが発生したか否かを確認する。終了コマンドの例としては、内部から例外処理などによる終了コードが発生した、外部から手動によって終了コマンドが入力された、などの例が挙げられる。終了コマンドがあれば本フローチャートを終了し、それ以外であればステップS301に戻って同じ処理を繰り返す。
(Fig. 3: Step S312)
The human detection system 1 confirms whether or not a termination command has occurred. Examples of the exit command include an exit code generated by exception handling from the inside, and an exit command manually input from the outside. If there is an end command, this flowchart is ended, otherwise the process returns to step S301 and the same process is repeated.

図4Aは、撮影環境の1例である。図4Aにおいて、2人が重なり後方の人の一部が前方の人に隠れている。したがってRGB画像に対する人検出処理のみを用いた場合は後方の人が検出できず、距離画像のみを用いた場合は2人が一塊としてクラスタリングされてしまう。このような状況において、図3のフローチャートにより2人を検出できることを説明する。 FIG. 4A is an example of a shooting environment. In FIG. 4A, two people overlap and a part of the person behind is hidden by the person in front. Therefore, when only the person detection process for the RGB image is used, the person behind cannot be detected, and when only the distance image is used, two people are clustered as a lump. In such a situation, it will be described that two people can be detected by the flowchart of FIG.

RGB画像401Aは、RGB画像取得部103がRGBカメラから取得するRGB画像である。距離画像402Aは、距離画像取得部104がToFセンサ102から取得する距離画像である。視野領域403Aは、RGBカメラ101の視野領域である。視野領域404Aは、ToFセンサ102の視野領域である。被写体405Aと被写体406Aは、視野領域403Aと視野領域404Aの範囲内に存在する人物である。被写体407Aと被写体408Aは、各々RGBカメラ101で撮影し取得したRGB画像401A上の被写体405Aと406Aである。被写体409Aと410Aは、各々ToFセンサ102で撮影し取得した距離画像402A上の被写体405Aと406Aである。 The RGB image 401A is an RGB image acquired by the RGB image acquisition unit 103 from the RGB camera. The distance image 402A is a distance image acquired by the distance image acquisition unit 104 from the ToF sensor 102. The field of view area 403A is the field of view area of the RGB camera 101. The visual field region 404A is the visual field region of the ToF sensor 102. The subject 405A and the subject 406A are persons who exist within the range of the visual field area 403A and the visual field area 404A. The subject 407A and the subject 408A are the subjects 405A and 406A on the RGB image 401A captured and acquired by the RGB camera 101, respectively. The subjects 409A and 410A are the subjects 405A and 406A on the distance image 402A captured and acquired by the ToF sensor 102, respectively.

図4Bは、図3のフローチャートにしたがって図4Aにおける被写体405Aと406Aを検出する手順を示す処理フロー図である。以下図4Bにしたがって、2人の被写体405Aと406Aを識別する処理を説明する。 FIG. 4B is a processing flow diagram showing a procedure for detecting the subjects 405A and 406A in FIG. 4A according to the flowchart of FIG. Hereinafter, a process of distinguishing two subjects 405A and 406A will be described with reference to FIG. 4B.

処理フロー41Bは、図4AにおいてRGBカメラ101とToFセンサ102から取得した画像に対する処理を示す。RGBカメラ101とToFセンサ102の視点においては、後ろの被写体408Aと410Aの一部が前の被写体407Aと409Aに隠れており、ステップS301とステップS302において取得したRGB画像と距離画像はこれを反映している。RGB画像上においては、前方の被写体407Aのみが検出され人検出領域情報401Bのみが出力される(ステップS304)。距離画像上においては、被写体409Aと410Aが一塊の点群クラスタ402Bとしてクラスタリングされる(ステップS305)。人検出領域情報401Bを点群クラスタ402Bへ対応付けると(ステップS307)、人対応点群クラスタ403Bと人未対応点群クラスタ404Bに分かれる。人対応点群クラスタ403Bを除去し(ステップS308)、人未対応点群クラスタ404Bを検出し(ステップS309)、検出点群領域405Bを出力する。 The processing flow 41B shows the processing for the image acquired from the RGB camera 101 and the ToF sensor 102 in FIG. 4A. From the viewpoint of the RGB camera 101 and the ToF sensor 102, a part of the rear subjects 408A and 410A is hidden by the front subjects 407A and 409A, and the RGB images and the distance images acquired in steps S301 and S302 reflect this. doing. On the RGB image, only the subject 407A in front is detected and only the person detection area information 401B is output (step S304). On the distance image, the subjects 409A and 410A are clustered as a single point cloud cluster 402B (step S305). When the person detection area information 401B is associated with the point cloud cluster 402B (step S307), it is divided into a person corresponding point group cluster 403B and a person unsupported point group cluster 404B. The human-corresponding point cloud cluster 403B is removed (step S308), the unhumanized point cloud cluster 404B is detected (step S309), and the detection point group region 405B is output.

処理フロー42Bは、処理フロー41Bから1フレーム分の時間ステップを経てRGBカメラ101とToFセンサ102から取得した画像に対する処理を示す。人検出領域情報401Bは、処理フロー41Bにおいて、ステップS304によって検出した被写体407Aの検出情報である。点群クラスタ402Bは、処理フロー41Bにおいて、ステップS305によって被写体409Aと410Aが一塊にクラスタリングされたものである。検出点群領域405Bは、処理フロー41Bにおける、人未対応点群クラスタ404Bの検出結果を表す情報である。人未対応点群クラスタ406Bは、処理フロー42Bにおいて、処理フロー41Bの時点での人未対応点群クラスタ404Bが移動したものである。検出点群領域407Bは、処理フロー42Bにおいて、人未対応点群クラスタ406Bの検出結果を表す情報である。 The processing flow 42B shows processing for an image acquired from the RGB camera 101 and the ToF sensor 102 after a time step of one frame from the processing flow 41B. The person detection area information 401B is the detection information of the subject 407A detected in step S304 in the processing flow 41B. In the point cloud cluster 402B, the subjects 409A and 410A are clustered together by step S305 in the processing flow 41B. The detection point group area 405B is information representing the detection result of the human unsupported point cloud cluster 404B in the processing flow 41B. The unhumanized point cloud cluster 406B is a movement of the unhumanized point cloud cluster 404B at the time of the processing flow 41B in the processing flow 42B. The detection point group region 407B is information representing the detection result of the human unsupported point cloud cluster 406B in the processing flow 42B.

処理フロー42Bにおいて、処理フロー41Bと同様の処理を経て、人未対応点群クラスタ404Bは1フレーム分の時間ステップを経たことにより、移動して人未対応点群クラスタ406Bとなる。これを検出することにより検出点群領域407Bを出力する。ステップS310において、検出点群領域405Bと407Bの間の移動動作パラメータ408B(移動量または速度)を検出する。 In the processing flow 42B, after undergoing the same processing as in the processing flow 41B, the unsupported point cloud cluster 404B moves to become the unsupported human point cloud cluster 406B after undergoing a time step for one frame. By detecting this, the detection point group area 407B is output. In step S310, the movement operation parameter 408B (movement amount or velocity) between the detection point group regions 405B and 407B is detected.

<実施の形態1:まとめ>
本実施形態1に係る人検出システム1は、RGB画像において検出した人検出領域を点群クラスタと対応付けることにより、人未対応点群クラスタを識別し、人未対応点群クラスタの移動動作パラメータにしたがって、日と未対応点群クラスタが人であるか否かを判断する。これにより、複数の人が密接しており、RGB画像に対する人検出処理のみでは後方の人を検出できず、点群に対する点群クラスタリング処理では複数の人を一塊としてクラスタリングしてしまう状況であっても、正確に複数の人を検出できる。
<Embodiment 1: Summary>
The person detection system 1 according to the first embodiment identifies the unsupported point cloud cluster by associating the detected human detection area in the RGB image with the point cloud cluster, and sets it as a movement operation parameter of the unsupported point cloud cluster. Therefore, it is determined whether or not the day and the unpaired point cloud cluster are humans. As a result, a plurality of people are in close contact with each other, and the person behind the RGB image cannot be detected only by the person detection process, and the point cloud clustering process for the point cloud clusters the plurality of people as a group. However, it can accurately detect multiple people.

<実施の形態2>
本発明の実施形態2では、人未対応点群クラスタの移動動作パラメータに代えて、点群クラスタの形状に関する特徴量にしたがって人を検出する構成例を説明する。その他構成は実施形態1と同様であるので、以下では主に差異点について説明する。
<Embodiment 2>
In the second embodiment of the present invention, a configuration example in which a person is detected according to a feature amount related to the shape of the point cloud cluster will be described instead of the movement operation parameter of the point cloud cluster that does not correspond to a person. Since other configurations are the same as those in the first embodiment, the differences will be mainly described below.

図5は、本実施形態2に係る人検出システム1の構成図である。本実施形態2において第2情報処理部13は、動体検出部111に代えて点群クラスタフィッティング部504を備える。第2情報処理部13はさらに、人クラスタ形状特徴量抽出部502と特徴量保持部503と点群クラスタフィッティング部504を備える。 FIG. 5 is a configuration diagram of the person detection system 1 according to the second embodiment. In the second embodiment, the second information processing unit 13 includes a point cloud cluster fitting unit 504 instead of the moving object detection unit 111. The second information processing unit 13 further includes a human cluster shape feature amount extraction unit 502, a feature amount holding unit 503, and a point cloud cluster fitting unit 504.

人点群クラスタ対応付け部109は、実施形態1で説明した処理に加え、人クラスタ形状特徴量抽出部502に対して人対応点群クラスタを出力する。人クラスタ形状特徴量抽出部502は、人点群クラスタ対応付け部109から取得した人対応点群クラスタの形状に関する特徴量を抽出し、特徴量保持部503へ出力する。 In addition to the processing described in the first embodiment, the person point cloud cluster association unit 109 outputs the person correspondence point group cluster to the person cluster shape feature amount extraction unit 502. The person cluster shape feature amount extraction unit 502 extracts the feature amount related to the shape of the person correspondence point group cluster acquired from the person point cloud cluster association unit 109 and outputs the feature amount to the feature amount holding unit 503.

特徴量保持部503は、人クラスタ形状特徴量抽出部502から特徴量を取得し、取得した特徴量や以前保持した特徴量に応じて、取得した特徴量を保持し、保持した特徴量を点群クラスタフィッティング部504へ出力する。一定期間の周期で、人クラスタ形状特徴量抽出部502から取得した特徴量を保持してもよいし、人クラスタ形状特徴量抽出部502から特徴量を取得する度に保持してもよい。あるいは、人クラスタ形状特徴量抽出部502から取得した特徴量が特徴量保持部503内に保持する特徴量のいずれとも大きく異なる場合に、人クラスタ形状特徴量抽出部502から取得した特徴量を逐次保持してもよいし、人クラスタ形状特徴量抽出部502から取得した特徴量をそのまま出力してもよい。保持されている特徴量をランダムに1つ以上出力してもよい。出力の規則はランダムに限るものではない。 The feature amount holding unit 503 acquires the feature amount from the human cluster shape feature amount extracting unit 502, holds the acquired feature amount according to the acquired feature amount and the previously held feature amount, and points the retained feature amount. Output to the group cluster fitting unit 504. The feature amount acquired from the human cluster shape feature amount extraction unit 502 may be retained in a cycle of a certain period, or may be retained every time the feature amount is acquired from the human cluster shape feature amount extraction unit 502. Alternatively, when the feature amount acquired from the human cluster shape feature amount extraction unit 502 is significantly different from any of the feature amounts held in the feature amount holding unit 503, the feature amount acquired from the human cluster shape feature amount extraction unit 502 is sequentially added. It may be retained, or the feature amount acquired from the human cluster shape feature amount extraction unit 502 may be output as it is. One or more retained features may be output at random. Output rules are not limited to random.

点群クラスタフィッティング部504は、特徴量保持部503から取得した特徴量にしたがって、人クラスタ除去部110から取得した人未対応点群クラスタに対して特徴量を計算してフィッティング処理を実施し、第2人検出部に対してフィッティング結果を出力する。 The point cloud cluster fitting unit 504 calculates the feature amount for the unsupported point cloud cluster acquired from the person cluster removal unit 110 according to the feature amount acquired from the feature amount holding unit 503, and performs the fitting process. The fitting result is output to the second person detection unit.

第2人検出部112は、点群クラスタフィッティング部504から取得したフィッティング結果に基づいて、フィッティングが十分であるかどうかを判断する。フィッティングが十分であれば、第1人検出部107から取得した人検出数と人検出領域情報をそのフィテッィング結果と統合することにより、改めて人検出数と人検出領域情報を生成する。 The second person detection unit 112 determines whether or not the fitting is sufficient based on the fitting result obtained from the point cloud cluster fitting unit 504. If the fitting is sufficient, the number of people detected and the person detection area information are generated again by integrating the number of people detected and the person detection area information acquired from the first person detection unit 107 with the fitting result.

図6は、人クラスタ形状特徴量抽出部502と、点群クラスタフィッティング部504と、第2人検出部112が実施する処理の詳細を説明する概念図である。ここでは人の顔部分を球体(図6の符号601と606)によって模式的に表した例を用いて、人対応点群クラスタと人未対応点群クラスタを対応付ける処理を説明する。 FIG. 6 is a conceptual diagram illustrating details of the processing performed by the human cluster shape feature amount extraction unit 502, the point cloud cluster fitting unit 504, and the second person detection unit 112. Here, a process of associating a human-corresponding point cloud cluster with a human-uncorresponding point group cluster will be described using an example in which a human face portion is schematically represented by spheres (reference numerals 601 and 606 in FIG. 6).

人対応点群クラスタ601は、人点群クラスタ対応付け部109から取得した人対応点群クラスタである。代表点602は、それぞれ人対応点群クラスタ601のなかのある一点である。例えば、人対応点群クラスタ601の点群を等間隔に間引いた後に残った点を代表点602として採用すればよい。参照球603は、代表点602を中心としたある半径の球である。法線ベクトル604は、代表点602から参照球603内の各点へのベクトルに基づき生成した共分散行列の固有ベクトルのうち、固有値が最小となるベクトルである。 The person-corresponding point cloud cluster 601 is a person-corresponding point cloud cluster acquired from the person-point cloud cluster association unit 109. Each of the representative points 602 is a certain point in the person-corresponding point cloud cluster 601. For example, the points remaining after thinning out the point clouds of the human-corresponding point cloud cluster 601 at equal intervals may be adopted as the representative points 602. The reference sphere 603 is a sphere having a certain radius centered on the representative point 602. The normal vector 604 is a vector having the smallest eigenvalue among the eigenvectors of the covariance matrix generated based on the vector from the representative point 602 to each point in the reference sphere 603.

人特徴量605は、代表点602から参照球603内の各点へのベクトルと、法線ベクトル604との間の内角についての度数分布である。この度数分布は、人対応点群クラスタ601(すなわち人の顔)の表面形状を表している。人未対応点群クラスタ内にも人の顔が存在するのであれば、人未対応点群クラスタも類似する形状の度数分布を有していると考えられる。 The human feature amount 605 is a frequency distribution for the internal angle between the vector from the representative point 602 to each point in the reference sphere 603 and the normal vector 604. This frequency distribution represents the surface shape of the human-corresponding point cloud cluster 601 (that is, the human face). If a human face also exists in the human uncorresponding point cloud cluster, it is considered that the human uncorresponding point cloud cluster also has a frequency distribution having a similar shape.

人特徴量605を求める手法として、この他にも例えば、FPFH(Fast Point Feature Histogram)特徴量やSHOT(Signature of Histograms of OrienTations)特徴量などの抽出手法を用いることができる。 As a method for obtaining the human feature amount 605, for example, an extraction method such as an FPFH (Fast Point Histogram) feature amount or a SHOT (Signature of Histograms of Origin States) feature amount can be used.

人未対応点群クラスタ606は、人クラスタ除去部110から取得した人未対応点群クラスタである。代表点607、610、613は、人未対応点群クラスタ606のなかのある一点である。法線ベクトル609、612、615は、参照球608、611、614それぞれの法線ベクトルである。各法線ベクトルは、参照球603において法線ベクトル604を求める手法と同様に得ることができる。人未対応特徴量616、617、618は、代表点607、610、613について人特徴量605と同様にして得られる。 The human unsupported point cloud cluster 606 is a human unsupported point cloud cluster acquired from the human cluster removal unit 110. The representative points 607, 610, and 613 are one point in the unsupported point cloud cluster 606. The normal vectors 609, 612, and 615 are normal vectors of the reference spheres 608, 611, and 614, respectively. Each normal vector can be obtained in the same manner as the method for obtaining the normal vector 604 in the reference sphere 603. The human feature amounts 616, 617, and 618 are obtained for the representative points 607, 610, and 613 in the same manner as the human feature amount 605.

人クラスタ形状特徴量抽出部502は、人対応点群クラスタ601の代表点602において、参照球603を設定して法線ベクトル604を計算することにより、人特徴量605を求める。 The human cluster shape feature amount extraction unit 502 obtains the human feature amount 605 by setting the reference sphere 603 and calculating the normal vector 604 at the representative point 602 of the human correspondence point group cluster 601.

点群クラスタフィッティング部504は、人未対応点群クラスタ606に対して上記と同様の方法で人未対応点群クラスタ606の代表点全てについて人未対応特徴量を計算する。具体的には、代表点607、610、613について、参照球608、611、614を設定して法線ベクトル609、612、615を計算することにより、人未対応特徴量616〜618を求める。 The point cloud cluster fitting unit 504 calculates the unhumanized feature amount for all the representative points of the unhumanized point cloud cluster 606 with respect to the unhumanized point cloud cluster 606 in the same manner as described above. Specifically, for the representative points 607, 610, and 613, the reference spheres 608, 611, and 614 are set and the normal vectors 609, 612, and 615 are calculated to obtain the human-unsupported feature amounts 616 to 618.

点群クラスタフィッティング部504は、人未対応特徴量616〜618のうち人特徴量605と最も類似するものを探索する。探索によって得られた人未対応特徴量を対応特徴量とする。探索手法としては例えば、人未対応特徴量616〜620それぞれと人特徴量605との間の平均2乗誤差を求め、これが最小となる人未対応特徴量を探索すればよい。この他にも、例えば、RANSAC(RANdom SAmple Consensus)によるフィッティング処理を用いてもよい。図6においては、人特徴量605の対応特徴量は人未対応特徴量616である。 The point cloud cluster fitting unit 504 searches for the one most similar to the human feature amount 605 among the unsupported feature amounts 616 to 618. Let the unsupported feature amount obtained by the search be the corresponding feature amount. As a search method, for example, the average square error between each of the human feature quantities 616 to 620 and the human feature quantity 605 may be obtained, and the human uncorresponding feature quantity that minimizes this may be searched. In addition to this, for example, a fitting process by RANSAC (RANdom Sample Consensus) may be used. In FIG. 6, the corresponding feature amount of the human feature amount 605 is the non-human feature amount 616.

以上の手順により、人未対応点群クラスタ606において代表点602に対応するのは代表点607であることが分かる。人未対応点群クラスタ606が人の顔であれば、人特徴量605と人未対応特徴量616との間の平均2乗誤差は十分小さく、人の顔でなければ大きいと想定される。 From the above procedure, it can be seen that the representative point 607 corresponds to the representative point 602 in the unsupported point cloud cluster 606. If the unhumanized point cloud cluster 606 is a human face, the average square error between the human feature amount 605 and the unhumanized feature amount 616 is assumed to be sufficiently small, and if it is not a human face, it is assumed to be large.

第2人検出部112は、点群クラスタフィッティング部504から取得したフィッティング結果に対して、平均2乗誤差が閾値未満であればフィッティングが十分である(すなわち人未対応点群クラスタ606は人である)と判断し、第1人検出部107から取得した人検出数と人検出領域情報に対してフィッティング結果を統合することにより、改めて人検出数と人検出領域情報を生成する。 The second person detection unit 112 has sufficient fitting if the average square error is less than the threshold value with respect to the fitting result acquired from the point group cluster fitting unit 504 (that is, the person unsupported point group cluster 606 is a person). By integrating the fitting result with the number of people detected and the person detection area information acquired from the first person detection unit 107, the number of people detected and the person detection area information are generated again.

図6においては、人対応点群クラスタ601の代表点として代表点602を挙げたが、代表点は1点に限らない。人対応点群クラスタ601内の代表点が複数ある場合、代表点ごとに人未対応点群クラスタ606内の対応する代表点を探索する。また、人未対応点群クラスタ606の代表点として代表点607、610、613を挙げたが、代表点は3点に限らない。人対応点群クラスタ内の代表点が複数ある場合、その代表点ごとに両クラスタの間の最小平均2乗誤差を取得し、それらの平均値をフィテッィング結果とすればよい。後述する図7A〜図7Bにおいても同様である。 In FIG. 6, the representative point 602 is mentioned as the representative point of the human correspondence point cloud cluster 601 but the representative point is not limited to one point. When there are a plurality of representative points in the person correspondence point cloud cluster 601, the corresponding representative points in the person uncorresponding point group cluster 606 are searched for each representative point. In addition, the representative points 607, 610, and 613 are mentioned as the representative points of the human unsupported point cloud cluster 606, but the representative points are not limited to three points. When there are a plurality of representative points in the human-corresponding point cloud cluster, the minimum average squared error between the two clusters may be acquired for each representative point, and the average value thereof may be used as the fitting result. The same applies to FIGS. 7A to 7B described later.

図7Aは、本実施形態2における人検出システム1が画像内の人を検出する処理を説明するフローチャートである。図3と比較すると、ステップS701からS705が新設され、ステップS309からS311が除去された。以下図3とは異なるステップについて主に説明する。 FIG. 7A is a flowchart illustrating a process in which the person detection system 1 in the second embodiment detects a person in an image. Compared with FIG. 3, steps S701 to S705 were newly established, and steps S309 to S311 were removed. Hereinafter, steps different from those in FIG. 3 will be mainly described.

(図7A:ステップS701〜S702)
人クラスタ形状特徴量抽出部501は、人対応点群クラスタの人対応特徴量を抽出する(S701)。特徴量保持部503は、ステップS701において抽出した人対応特徴量を保持する(S702)。
(FIG. 7A: steps S701 to S702)
The human cluster shape feature amount extraction unit 501 extracts the human correspondence feature amount of the human correspondence point group cluster (S701). The feature amount holding unit 503 holds the feature amount corresponding to the person extracted in step S701 (S702).

(図7A:ステップS703)
点群クラスタフィッティング部504は、図6で説明した手順にしたがって、人対応点群クラスタと人未対応点群クラスタを対応付けることにより、両クラスタの間の最小平均2乗誤差をフィテッィング結果として取得する。
(FIG. 7A: step S703)
The point cloud cluster fitting unit 504 acquires the minimum average squared error between both clusters as a fitting result by associating the point cloud clusters corresponding to humans with the point cloud clusters not corresponding to humans according to the procedure described with reference to FIG. ..

(図7A:ステップS704)
第2人検出部112は、点群クラスタフィッティング部504から取得したフィッティング結果に基づいて、フィッティングが十分であるかどうかを判断する。フィッティングが十分であれば、そのフィッティング結果を、第1人検出部107から取得した人検出数と人検出領域情報へ統合することにより、改めて人検出数と人検出領域情報を生成する。
(FIG. 7A: step S704)
The second person detection unit 112 determines whether or not the fitting is sufficient based on the fitting result obtained from the point cloud cluster fitting unit 504. If the fitting is sufficient, the number of people detected and the person detection area information are generated again by integrating the fitting result into the number of people detected and the person detection area information acquired from the first person detection unit 107.

(図7A:ステップS705)
点群クラスタフィッティング部504は、特徴量保持部503が保持する人対応特徴量を読み出し、ステップS703を実行する。
(FIG. 7A: step S705)
The point cloud cluster fitting unit 504 reads out the human-compatible feature amount held by the feature amount holding unit 503, and executes step S703.

図7Bは、ステップS703の詳細を説明するフローチャートである。ステップS70301〜S70305は、人対応点群クラスタ内の1つの代表点について、これに対応する人未対応点群クラスタ内の代表点を探索する処理である。ステップS70306は、同様の処理を人対応点群クラスタ内の各代表点について実施するためのループ処理である。以下図7Bの各ステップを説明する。 FIG. 7B is a flowchart illustrating the details of step S703. Steps S70301 to S70305 are processes for searching for a representative point in the person-corresponding point cloud cluster corresponding to one representative point in the person-corresponding point cloud cluster. Step S70306 is a loop process for carrying out the same process for each representative point in the human correspondence point cloud cluster. Each step of FIG. 7B will be described below.

(図7B:ステップS70301〜S70303)
点群クラスタフィッティング部504は、特徴量保持部503から取得した人対応特徴量のなかからいずれか1つを選択する(S70301)。点群クラスタフィッティング部504は、人未対応点群クラスタのなかのいずれかの代表点を選び、その代表点に基づき人未対応特徴量を計算する(S70302)。点群クラスタフィッティング部504は、人特徴量と人未対応特徴量との間の平均2乗誤差を計算する(S70303)。
(FIG. 7B: Steps S70301-S70303)
The point cloud cluster fitting unit 504 selects any one of the human-compatible feature quantities acquired from the feature quantity holding unit 503 (S7031). The point cloud cluster fitting unit 504 selects one of the representative points in the unsupported point cloud cluster, and calculates the unsupported feature amount for humans based on the representative points (S70302). The point cloud cluster fitting unit 504 calculates the average squared error between the human feature amount and the unhumanized feature amount (S70303).

(図7B:ステップS70304)
点群クラスタフィッティング部504は、ステップS70302とステップS70303を人未対応点群クラスタの全ての人未対応特徴量(すなわち全ての代表点)について実施したかどうかを判断する。全ての人未対応特徴量について実施完了したならばステップS70305へ進み、完了していなければ、まだ選択していない人未対応特徴量についてステップS70302に戻って同様の処理を繰り返す。
(FIG. 7B: step S70304)
The point cloud cluster fitting unit 504 determines whether or not step S70302 and step S70303 have been performed for all the unhumanized feature quantities (that is, all the representative points) of the unhumanized point cloud cluster. If the implementation is completed for all the unsupported features, the process proceeds to step S70305. If not, the process returns to step S70302 for the unselected features that have not been selected, and the same process is repeated.

(図7B:ステップS70305)
点群クラスタフィッティング部504は、S70303において計算した各平均2乗誤差のなかで最小値を探索する。本ステップは、人未対応点群クラスタの代表点のなかで、S70301において選択した代表点に対応するものを探索することに相当する。
(FIG. 7B: step S70305)
The point cloud cluster fitting unit 504 searches for the minimum value among the average squared errors calculated in S70303. This step corresponds to searching for a representative point corresponding to the representative point selected in S7031 among the representative points of the human uncorresponding point cloud cluster.

(図7B:ステップS70306)
点群クラスタフィッティング部504は、ステップS70302からステップS70305を人対応点群クラスタの全ての人特徴量(すなわち全ての代表点)について実施したかどうかを判断する。全ての人特徴量について実施完了したならばステップS70307へ進み、完了していなければ、まだ選択していない人特徴量(すなわち人対応点群クラスタのなかでまだ選択していない代表点)について、ステップS70301に戻って同様の処理を繰り返す。
(FIG. 7B: step S70306)
The point cloud cluster fitting unit 504 determines whether or not steps S70302 to S70305 have been performed for all human features (that is, all representative points) of the human-corresponding point cloud cluster. If the implementation is completed for all human features, the process proceeds to step S70307, and if not completed, the human features that have not yet been selected (that is, the representative points that have not yet been selected in the human correspondence point cloud cluster) are The process returns to step S70301 and the same process is repeated.

(図7B:ステップS70307)
点群クラスタフィッティング部504は、人対応点群クラスタにおける全ての人特徴量について最小平均2乗誤差を取得し、それらの平均値を計算する。第2人検出部112は、この平均値をフィッティング結果として用いることができる。
(FIG. 7B: step S70307)
The point cloud cluster fitting unit 504 acquires the minimum average squared error for all the human features in the point cloud cluster corresponding to humans, and calculates the average value thereof. The second person detection unit 112 can use this average value as the fitting result.

<実施の形態2:まとめ>
本実施形態2に係る人検出システム1は、人対応点群クラスタの形状特徴量に対応する部分を、人未対応点群クラスタ内において探索することにより、人未対応点群クラスタが人であるか否かを判断する。これにより実施形態1と同様に、複数の人が密接している場合であっても、正確に複数の人を検出できる。また移動動作パラメータを用いないので、人が移動していない場合であっても人を検出できる利点がある。
<Embodiment 2: Summary>
In the person detection system 1 according to the second embodiment, the human-unsupported point cloud cluster is a person by searching the part corresponding to the shape feature amount of the human-compatible point cloud cluster in the human-unsupported point cloud cluster. Judge whether or not. As a result, as in the first embodiment, even when a plurality of people are in close contact with each other, the plurality of people can be accurately detected. Moreover, since the movement operation parameter is not used, there is an advantage that a person can be detected even when the person is not moving.

<実施の形態3>
本発明の実施形態2では、人未対応点群クラスタの移動動作パラメータに代えて、点群クラスタの高さにしたがって人を検出する構成例を説明する。その他構成は実施形態1と同様であるので、以下では主に差異点について説明する。
<Embodiment 3>
In the second embodiment of the present invention, a configuration example in which a person is detected according to the height of the point cloud cluster will be described instead of the movement operation parameter of the point cloud cluster that does not correspond to a person. Since other configurations are the same as those in the first embodiment, the differences will be mainly described below.

図8は、本実施形態3に係る人検出システム1の構成図である。本実施形態3において第2情報処理部13は、動体検出部111に代えて高さフィルタリング部801と点群密度極大値検出部802を備える。 FIG. 8 is a configuration diagram of the person detection system 1 according to the third embodiment. In the third embodiment, the second information processing unit 13 includes a height filtering unit 801 and a point cloud density maximum value detecting unit 802 instead of the moving object detecting unit 111.

高さフィルタリング部801は、人クラスタ除去部110から取得した人未対応点群クラスタに対して一定の高さ未満の領域を除去したものを、点群密度極大値検出部802へ出力する。点群密度極大値検出部802は、高さフィルタリング部801から取得した人未対応点群クラスタにおいて、点群の密度が極大値となる高さを探索し、その高さと密度を第2人検出部112へ出力する。 The height filtering unit 801 removes a region less than a certain height from the human uncorresponding point cloud cluster acquired from the human cluster removing unit 110, and outputs the removed region to the point cloud density maximum value detecting unit 802. The point cloud density maximum value detection unit 802 searches for the height at which the density of the point cloud becomes the maximum value in the unsupported point cloud cluster acquired from the height filtering unit 801 and detects the height and density of the second person. Output to unit 112.

第2人検出部112は、点群密度極大値検出部802から取得した高さと密度が人相当の値であるかどうか判断し、その判断結果を、第1人検出部107から取得した人検出数と人検出領域情報に統合することにより、改めて人検出数と人検出領域情報を生成する。 The second person detection unit 112 determines whether or not the height and density acquired from the point cloud density maximum value detection unit 802 are values equivalent to a person, and the determination result is obtained from the first person detection unit 107. By integrating the number and the person detection area information, the number of people detected and the person detection area information are generated again.

図9は、点群密度極大値検出部802と第2人検出部112による人検出方法の詳細を説明する図である。密度分布91は、ある高さにおける人未対応点群クラスタの点群の密度についての度数分布である。閾値901は、高さフィルタリング部801が点群をフィルタリングする際の閾値である。検出点902は、密度分布91において極大値を示す点であり、高さと密度の値を有している。 FIG. 9 is a diagram illustrating details of a person detection method by the point cloud density maximum value detection unit 802 and the second person detection unit 112. The density distribution 91 is a frequency distribution for the density of the point cloud of the unsupported point cloud cluster at a certain height. The threshold value 901 is a threshold value when the height filtering unit 801 filters the point cloud. The detection point 902 is a point showing a maximum value in the density distribution 91, and has height and density values.

点群密度極大値検出部802は、高さフィルタリング部801が閾値901にしたがって除去した人未対応点群クラスタを取得し、密度分布91を計算する。点群密度極大値検出部802は、密度分布91において極大値を探索することにより検出点902を検出する。点群密度極大値検出部802は、検出点902を第2人検出部112へ出力する。第2人検出部112は、点群密度極大値検出部802から取得した検出点902が、所定の高さ範囲内かつ所定密度以上であれば人と検出する。一般に、ToFセンサ102の設置位置によって点群の高さに対する密度は変化するので、高さを関数とした密度を判断基準にしてもよい。 The point cloud density maximum value detection unit 802 acquires the unsupported point cloud clusters removed by the height filtering unit 801 according to the threshold value 901, and calculates the density distribution 91. The point cloud density maximum value detection unit 802 detects the detection point 902 by searching for the maximum value in the density distribution 91. The point cloud density maximum value detection unit 802 outputs the detection point 902 to the second person detection unit 112. The second person detection unit 112 detects a person if the detection points 902 acquired from the point cloud density maximum value detection unit 802 are within a predetermined height range and equal to or higher than a predetermined density. In general, the density with respect to the height of the point cloud changes depending on the installation position of the ToF sensor 102, so the density using the height as a function may be used as a criterion.

図10は、本実施形態3における人検出システム1が画像内の人を検出する処理を説明するフローチャートである。図3と比較すると、ステップS1001〜S1003が新設され、ステップS309〜S311が除去された。以下図3とは異なるステップについて主に説明する。 FIG. 10 is a flowchart illustrating a process in which the person detection system 1 in the third embodiment detects a person in an image. Compared with FIG. 3, steps S1001 to S1003 were newly established, and steps S309 to S311 were removed. Hereinafter, steps different from those in FIG. 3 will be mainly described.

(図10:ステップS1001)
高さフィルタリング部801は、ステップS307において人検出領域を対応付けた人未対応点群クラスタから閾値901未満の領域を除去することにより、人未対応点群クラスタを生成する。
(FIG. 10: Step S1001)
The height filtering unit 801 generates a human uncorresponding point cloud cluster by removing the region less than the threshold value 901 from the human uncorresponding point cloud cluster associated with the human detection region in step S307.

(図10:ステップS1002)
点群密度極大値検出部802は、ステップS1001において生成した人未対応点群クラスタのなかで、点群の密度が極大値となる高さとその高さにおける密度を検出する。
(FIG. 10: Step S1002)
The point cloud density maximum value detection unit 802 detects the height at which the density of the point cloud becomes the maximum value and the density at that height in the unsupported point cloud cluster generated in step S1001.

(図10:ステップS1003)
第2人検出部112は、ステップS1002において検出した高さと密度が人相当の値であるかどうか判断する。人であると判断した場合は、その判断結果を第1人検出部107から取得した人検出数と人検出領域情報へ統合することにより、改めて人検出数と人検出領域情報を生成する。
(FIG. 10: Step S1003)
The second person detection unit 112 determines whether or not the height and density detected in step S1002 are values equivalent to a person. When it is determined that the person is a person, the number of people detected and the person detection area information are generated again by integrating the determination result into the number of people detected and the person detection area information acquired from the first person detection unit 107.

(図10:ステップS1002〜S1003:補足)
密度分布91における極大値が複数ある場合、各極大値がそれぞれ人である可能性もある。したがって点群密度極大値検出部802と第2人検出部112は、極大値ごとに人であるか否かを判断してもよい。判断手順は図9で説明したものと同様である。
(FIG. 10: Steps S1002 to S1003: Supplement)
When there are a plurality of maximum values in the density distribution 91, each maximum value may be a person. Therefore, the point cloud density maximum value detection unit 802 and the second person detection unit 112 may determine whether or not the person is a person for each maximum value. The determination procedure is the same as that described with reference to FIG.

<実施の形態3:まとめ>
本実施形態3に係る人検出システム1は、人未対応点群クラスタの高さをフィルタリングした上で、高さ分布の極大値が所定範囲内の高さにあるか否かに基づき、人未対応点群クラスタが人であるか否かを判断する。これにより実施形態1と同様に、複数の人が密接している場合であっても、正確に複数の人を検出できる。また移動動作パラメータを用いないので、人が移動していない場合であっても人を検出できる利点がある。さらに、高さについての密度分布は点群を一度走査するだけで計算できるので、計算コストを抑制した上で正確に複数の人を検出できる。
<Embodiment 3: Summary>
The person detection system 1 according to the third embodiment filters the height of the unsupported point cloud cluster, and then determines whether or not the maximum value of the height distribution is within a predetermined range. Correspondence point group Determine if the cluster is a person. As a result, as in the first embodiment, even when a plurality of people are in close contact with each other, the plurality of people can be accurately detected. Moreover, since the movement operation parameter is not used, there is an advantage that a person can be detected even when the person is not moving. Furthermore, since the density distribution for height can be calculated by scanning the point cloud only once, it is possible to accurately detect a plurality of people while suppressing the calculation cost.

<本発明の変形例について>
本発明は、前述した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
<About a modified example of the present invention>
The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

以上の実施形態において、第1人検出部107は、顔RGB画像上で検出を実施することにより、人の顔領域を検出することができる。第2人検出部112は、点群クラスタのうち各顔領域の下方において人の身体が存在すると想定される領域を、人とみなすこともできる。例えば顔領域下方の所定サイズの円柱領域を、人とみなしてもよい。これにより複数の人が顔以外の領域において重なり合っている場合であれば、簡易的な処理で人を検出できる。 In the above embodiment, the first person detection unit 107 can detect the human face region by performing the detection on the face RGB image. The second person detection unit 112 can also consider the area of the point cloud cluster in which the human body is assumed to exist below each face area as a person. For example, a cylindrical region of a predetermined size below the face region may be regarded as a person. As a result, if a plurality of people overlap in an area other than the face, the person can be detected by a simple process.

以上の実施形態において、同期情報保持部106は、座標(gx,gy)と回転角φを記憶する記憶装置によって構成することができる。第1情報処理部12と第2情報処理部13は、これらの機能を実装した回路デバイスなどのハードウェアを用いて構成することもできるし、これらの機能を実装したソフトウェアをCPU(Central Processing Unit)などの演算装置が実行することにより構成することもできる。第1情報処理部12と第2情報処理部13が備える各機能部も同様である。 In the above embodiment, the synchronization information holding unit 106 can be configured by a storage device that stores the coordinates (gx, gy) and the rotation angle φ. The first information processing unit 12 and the second information processing unit 13 can be configured by using hardware such as a circuit device that implements these functions, and software that implements these functions is provided by a CPU (Central Processing Unit). ) And other arithmetic units can be executed. The same applies to each functional unit included in the first information processing unit 12 and the second information processing unit 13.

1:人検出システム
10:人検出装置
11:撮影処理部
101:RGBカメラ
102…ToFセンサ
12:第1情報処理部
103:RGB画像取得部
104:距離画像取得部
105:ピクセル同期部
106:同期情報保持部
107:第1人検出部
108:点群クラスタリング部
109:人点群クラスタ対応付け部
110:人クラスタ除去部
13:第2情報処理部
111:動体検出部
112:第2人検出部
502:人クラスタ形状特徴量抽出部
503:特徴量保持部
504:点群クラスタフィッティング部
801:高さフィルタリング部
802:点群密度極大値検出部
1: Person detection system 10: Person detection device 11: Imaging processing unit 101: RGB camera 102 ... ToF sensor 12: First information processing unit 103: RGB image acquisition unit 104: Distance image acquisition unit 105: Pixel synchronization unit 106: Synchronization Information holding unit 107: First person detection unit 108: Point cloud clustering unit 109: Point cloud cluster association unit 110: Person cluster removal unit 13: Second information processing unit 111: Moving object detection unit 112: Second person detection unit 502: Human cluster shape feature amount extraction unit 503: Feature amount holding unit 504: Point cloud cluster fitting unit 801: Height filtering unit 802: Point cloud density maximum value detection unit

Claims (12)

画像に含まれる人を検出する人検出装置であって、
RGBカメラから取得したRGB画像に含まれる人を検出する第1人検出部、
ToFセンサから取得した点群画像より生成した点群データに含まれる点群を空間的にグルーピングすることによって点群グループを取得する点群グルーピング部、
前記第1人検出部が前記RGB画像内において人を検出した人検出領域を、前記点群グルーピング部がグルーピングした前記点群グループに対応付ける対応付け処理部、
前記点群グループのうち前記対応付け処理部が前記人検出領域と対応付けていない未対応点群グループの第1特徴量にしたがって、前記未対応点群グループが人であるか否かを判断する、第2人検出部、
を備えることを特徴とする人検出装置。
A person detection device that detects people included in an image.
First person detection unit that detects people included in the RGB image acquired from the RGB camera,
A point cloud grouping unit that acquires a point cloud group by spatially grouping the point clouds included in the point cloud data generated from the point cloud image acquired from the ToF sensor.
A mapping processing unit that associates a person detection region in which a person is detected in the RGB image by the first person detection unit with the point cloud group grouped by the point cloud grouping unit.
Among the point group groups, the association processing unit determines whether or not the uncorresponding point group group is a person according to the first feature amount of the uncorresponding point group group that is not associated with the person detection area. , Second person detector,
A person detection device comprising.
前記人検出装置はさらに、前記RGB画像の画素位置と前記点群画像の画素位置との間の差分を表す同期データを算出する同期処理部を備え、
前記点群グルーピング部は、前記同期データにしたがって前記RGB画像と前記点群画像との間で位置合わせを実施した上で、前記点群画像から前記点群グループを取得する
ことを特徴とする請求項1記載の人検出装置。
The person detection device further includes a synchronization processing unit that calculates synchronization data representing a difference between the pixel position of the RGB image and the pixel position of the point cloud image.
The point cloud grouping unit is characterized in that the RGB image and the point cloud image are aligned according to the synchronization data, and then the point cloud group is acquired from the point cloud image. Item 1. The person detection device according to item 1.
前記同期処理部は、前記同期データを周期的に算出することにより、前記RGB画像の画素位置と前記点群画像の画素位置との間の差分を、周期的に更新する
ことを特徴とする請求項2記載の人検出装置。
The synchronization processing unit periodically updates the difference between the pixel position of the RGB image and the pixel position of the point cloud image by periodically calculating the synchronization data. Item 2. The person detection device according to item 2.
前記第2人検出部は、前記第1特徴量として、前記未対応点群グループの移動動作を記述するパラメータを算出し、
前記第2人検出部は、前記移動動作を表すパラメータと、人の移動動作を表す閾値とを比較することにより、前記未対応点群グループが人であるか否かを判断する
ことを特徴とする請求項1記載の人検出装置。
The second person detection unit calculates a parameter describing the movement operation of the uncorresponding point group group as the first feature amount, and calculates the parameter.
The second person detection unit is characterized in that it determines whether or not the uncorresponding point group group is a person by comparing a parameter representing the movement movement with a threshold value representing the movement movement of a person. The person detection device according to claim 1.
前記人検出装置はさらに、前記未対応点群グループの形状を表す特徴量を前記第1特徴量として算出する第1特徴量算出部を備え、
前記人検出装置はさらに、前記対応付け処理部が前記人検出領域と対応付けた前記点群グループの形状を表すパラメータを、第2特徴量として算出する、第2特徴量算出部を備え、
前記第2人検出部は、前記第1特徴量と前記第2特徴量を比較することにより、前記未対応点群グループが人であるか否かを判断する
ことを特徴とする請求項1記載の人検出装置。
The person detection device further includes a first feature amount calculation unit that calculates a feature amount representing the shape of the uncorresponding point group group as the first feature amount.
The person detection device further includes a second feature amount calculation unit in which the association processing unit calculates a parameter representing the shape of the point cloud group associated with the person detection region as a second feature amount.
The second person detection unit according to claim 1, wherein the second person detection unit determines whether or not the uncorresponding point group is a person by comparing the first feature amount with the second feature amount. Person detection device.
前記第1特徴量算出部は、前記未対応点群グループの表面の法線ベクトルが、基準角度との間で形成する角度の第1ヒストグラムを、前記第1特徴量として算出し、
前記第2特徴量算出部は、前記対応付け処理部が前記人検出領域と対応付けた前記点群グループの表面の法線ベクトルが、基準角度との間で形成する角度の第2ヒストグラムを、前記第2特徴量として作成し、
前記第2人検出部は、前記第1ヒストグラムと前記第2ヒストグラムとの間の差分が閾値未満であるか否かにしたがって、前記未対応点群グループが人であるか否かを判断する
ことを特徴とする請求項5記載の人検出装置。
The first feature amount calculation unit calculates a first histogram of the angle formed by the normal vector of the surface of the uncorresponding point group group with the reference angle as the first feature amount.
The second feature amount calculation unit obtains a second histogram of the angle formed by the normal vector of the surface of the point cloud group associated with the person detection region by the association processing unit with respect to the reference angle. Created as the second feature amount,
The second person detection unit determines whether or not the uncorresponding point cloud group is a person according to whether or not the difference between the first histogram and the second histogram is less than the threshold value. 5. The person detection device according to claim 5.
前記人検出装置はさらに、前記未対応点群グループに含まれる点群のうち高さが閾値未満のものをフィルタリングする高さフィルタリングを備え、
前記人検出装置はさらに、前記フィルタリングした後の前記未対応点群グループに含まれる点群の高さの度数分布を表す高さヒストグラムを作成する高さヒストグラム作成部を備え、
前記第2人検出部は、前記高さヒストグラムが人検出条件を満たすか否かにしたがって、前記未対応点群グループが人であるか否かを判断する
ことを特徴とする請求項1記載の人検出装置。
The person detection device further includes height filtering for filtering point groups whose height is less than a threshold value among the point groups included in the uncorresponding point group group.
The person detection device further includes a height histogram creating unit that creates a height histogram representing the frequency distribution of the heights of the point groups included in the uncorresponding point group after the filtering.
The second person detection unit according to claim 1, wherein the second person detection unit determines whether or not the uncorresponding point cloud group is a person according to whether or not the height histogram satisfies the person detection condition. Human detector.
前記人検出条件は、前記高さヒストグラムの頻度値の極大値が所定範囲内でありかつ点群の密度が所定値以上であれば前記未対応点群グループを人とみなし、それ以外であれば前記未対応点群グループは人ではないとみなすように構成されている
ことを特徴とする請求項7記載の人検出装置。
In the person detection condition, if the maximum value of the frequency value of the height histogram is within the predetermined range and the density of the point group is equal to or more than the predetermined value, the uncorresponding point group group is regarded as a person, otherwise. The person detection device according to claim 7, wherein the non-corresponding point group group is configured to be regarded as not a person.
前記第2人検出部は、前記人検出条件を満たすか否かを、前記極大値ごとに判断することにより、前記未対応点群グループが人であるか否かを前記極大値ごとに判断する
ことを特徴とする請求項8記載の人検出装置。
The second person detection unit determines whether or not the person detection condition is satisfied for each of the maximum values, thereby determining whether or not the uncorresponding point group group is a person for each of the maximum values. 8. The person detection device according to claim 8.
前記第1人検出部は、前記RGB画像に対して顔検出を実施することにより、前記RGB画像のなかに含まれる人の顔領域を検出し、
前記第2人検出部は、前記未対応点群グループのうち前記顔領域の下方の所定範囲内に存在する点群を、その顔領域に対応する人であるとみなす
ことを特徴とする請求項1記載の人検出装置。
The first person detection unit detects a person's face region included in the RGB image by performing face detection on the RGB image.
The second person detection unit is characterized in that, among the uncorresponding point group groups, a point cloud existing in a predetermined range below the face region is regarded as a person corresponding to the face region. 1. The person detection device according to 1.
画像に含まれる人を検出する人検出システムであって、
RGBカメラ、
ToFセンサ、
人検出装置、
を備え、
前記人検出装置は、
前記RGBカメラから取得したRGB画像に含まれる人を検出する第1人検出部、
前記ToFセンサから取得した点群画像より生成した点群データに含まれる点群を空間的にグルーピングすることによって点群グループを取得する点群グルーピング部、
前記第1人検出部が前記RGB画像内において人を検出した人検出領域を、前記点群グルーピング部がグルーピングした前記点群グループに対応付ける対応付け処理部、
前記点群グループのうち前記対応付け処理部が前記人検出領域と対応付けていない未対応点群グループの第1特徴量にしたがって、前記未対応点群グループが人であるか否かを判断する、第2人検出部、
を備える
ことを特徴とする人検出システム。
It is a person detection system that detects people included in images.
RGB camera,
ToF sensor,
Human detector,
With
The person detection device is
A first person detection unit that detects a person included in an RGB image acquired from the RGB camera,
A point cloud grouping unit that acquires a point cloud group by spatially grouping the point clouds included in the point cloud data generated from the point cloud image acquired from the ToF sensor.
A mapping processing unit that associates a person detection region in which a person is detected in the RGB image by the first person detection unit with the point cloud group grouped by the point cloud grouping unit.
Among the point group groups, the association processing unit determines whether or not the uncorresponding point group group is a person according to the first feature amount of the uncorresponding point group group that is not associated with the person detection area. , Second person detector,
A person detection system characterized by being equipped with.
画像に含まれる人を検出する人検出方法であって、
RGBカメラから取得したRGB画像に含まれる人を検出するステップ、
ToFセンサから取得した点群画像より生成した点群データに含まれる点群を空間的にグルーピングすることによって点群グループを取得するステップ、
前記RGB画像内において人を検出した人検出領域を、前記グルーピングした前記点群グループに対応付けるステップ、
前記点群グループのうち前記対応付けるステップにおいて前記人検出領域と対応付けていない未対応点群グループの第1特徴量にしたがって、前記未対応点群グループが人であるか否かを判断する、ステップ、
を有することを特徴とする人検出方法。
It is a person detection method that detects people included in the image.
Steps to detect people included in an RGB image acquired from an RGB camera,
A step of acquiring a point cloud group by spatially grouping the point clouds included in the point cloud data generated from the point cloud image acquired from the ToF sensor.
A step of associating a person detection region in which a person is detected in the RGB image with the grouped point cloud group.
A step of determining whether or not the uncorresponding point group is a person according to the first feature amount of the uncorresponding point group that is not associated with the person detection region in the associating step of the point group. ,
A person detection method characterized by having.
JP2019201138A 2019-11-06 2019-11-06 Person detection device, person detection system, and person detection method Pending JP2021076948A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019201138A JP2021076948A (en) 2019-11-06 2019-11-06 Person detection device, person detection system, and person detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019201138A JP2021076948A (en) 2019-11-06 2019-11-06 Person detection device, person detection system, and person detection method

Publications (1)

Publication Number Publication Date
JP2021076948A true JP2021076948A (en) 2021-05-20

Family

ID=75900076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019201138A Pending JP2021076948A (en) 2019-11-06 2019-11-06 Person detection device, person detection system, and person detection method

Country Status (1)

Country Link
JP (1) JP2021076948A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210201570A1 (en) * 2019-12-26 2021-07-01 Electronics And Telecommunications Research Institute Method and apparatus for generating digital surface model using satellite imagery

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210201570A1 (en) * 2019-12-26 2021-07-01 Electronics And Telecommunications Research Institute Method and apparatus for generating digital surface model using satellite imagery

Similar Documents

Publication Publication Date Title
US20200279121A1 (en) Method and system for determining at least one property related to at least part of a real environment
JP6125188B2 (en) Video processing method and apparatus
CN108629946B (en) Human body falling detection method based on RGBD sensor
US10212324B2 (en) Position detection device, position detection method, and storage medium
KR101618814B1 (en) Method and Apparatus for Monitoring Video for Estimating Gradient of Single Object
US8179440B2 (en) Method and system for object surveillance and real time activity recognition
CN107657244B (en) Human body falling behavior detection system based on multiple cameras and detection method thereof
US11398049B2 (en) Object tracking device, object tracking method, and object tracking program
JP6590609B2 (en) Image analysis apparatus and image analysis method
JP2011174879A (en) Apparatus and method of estimating position and orientation
CN106919806A (en) A kind of human body monitoring method, device and system and computer readable storage devices
US10043279B1 (en) Robust detection and classification of body parts in a depth map
CN109035307B (en) Set area target tracking method and system based on natural light binocular vision
CN111091025B (en) Image processing method, device and equipment
CN105934757A (en) Method and apparatus for detecting incorrect associations between keypoints of first image and keypoints of second image
CN111127556B (en) Target object identification and pose estimation method and device based on 3D vision
KR20180092591A (en) Detect algorithm for structure shape change using UAV image matching technology
US9924865B2 (en) Apparatus and method for estimating gaze from un-calibrated eye measurement points
JP2011198244A (en) Object recognition system, monitoring system using the same, and watching system
JP2021076948A (en) Person detection device, person detection system, and person detection method
Hadi et al. Fusion of thermal and depth images for occlusion handling for human detection from mobile robot
Walczak et al. Locating occupants in preschool classrooms using a multiple RGB-D sensor system
Lo et al. Vanishing point-based line sampling for real-time people localization
JP6606340B2 (en) Image detection apparatus, image detection method, and program
JP2018185623A (en) Object detection device