JP2020516910A - 人体認識方法および人体認識センサ - Google Patents

人体認識方法および人体認識センサ Download PDF

Info

Publication number
JP2020516910A
JP2020516910A JP2020504443A JP2020504443A JP2020516910A JP 2020516910 A JP2020516910 A JP 2020516910A JP 2020504443 A JP2020504443 A JP 2020504443A JP 2020504443 A JP2020504443 A JP 2020504443A JP 2020516910 A JP2020516910 A JP 2020516910A
Authority
JP
Japan
Prior art keywords
evaluation
human body
width
laser
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020504443A
Other languages
English (en)
Other versions
JP7054951B2 (ja
Inventor
ラダーメッカー ゴーティエー
ラダーメッカー ゴーティエー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BEA SA
Original Assignee
BEA SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEA SA filed Critical BEA SA
Publication of JP2020516910A publication Critical patent/JP2020516910A/ja
Application granted granted Critical
Publication of JP7054951B2 publication Critical patent/JP7054951B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Abstract

本発明は、レーザスキャナ(12)を用いて、監視領域内の検出物体(P)を分析し、検出物体が人であるか否かを判定する人体認識方法に関する。レーザスキャナ(12)は、パルス光の飛行時間測定によってレーザスキャナ位置に対する反射点の距離を導出するために、複数のパルス光によって少なくとも1つのレーザカーテン(22、32、34)を生成する。反射点の距離とパルス光の方向との組み合わせにより、監視領域内の所定の検出ゾーン内の位置を特定し、検出物体について特定された反射点を、高さに関するZ軸と、Z軸に垂直であってレーザカーテン(22、32、34)の横方向における幅に関する幅軸とを有する評価面(EP)に、評価対象物(O1、O2)として投影する。当該方法は、評価面(EP)を、Z軸に沿った反射点の密度分布に基づいて分析し、分析結果を、人体計測パラメータと比較することを特徴とする。【選択図】図1

Description

本発明は、監視領域内の物体を検出し、検出物体が人体であるか否かを判定する人体認識方法および人体認識センサに関する。
EP2741263B1は、侵入検出のための人認識センサを開示しており、このセンサは、検出物体の反射点を判定する距離取得部と、物体の推定された幅および高さに応じて、検出物体が人体であるかどうかを判定する人体判定部とを備える。
アカマツシュンイチ他,“3Dレーザスキャナを用いた人計数システムの開発”,2014年 ロボットおよびバイオミメティックに関するIEEE国際会議,IEEE,2014年12月5日,第1983〜1988頁には、人を計数するための3Dレーザスキャナが開示されている。3Dレーザスキャナは、検出された点の3Dクラウドを作成する。3Dクラウドの点は、グループ化アルゴリズムに従ってグループ化される。次に、分類されたグループの物体高さが、クラウドの最高点(z値)から最低点(z値)を差し引くことによって算出される。さらに、物体領域は、矩形近似が行われて、物体の点のx−y突出長さを算出することによって判定される。矩形の長辺が物体の幅として判定され、矩形の短辺が物体の奥行きとして判定される。物体が人であるか否かの判定は、物体の高さ、物体の奥行き、物体の幅の絶対値の比較に基づいて行われる。
また、国際公開第2012/042043号パンフレットは、レーザスキャナに基づくアクセス制御システムに適用される人検出部を開示している。検出部は、基本的に、センサ領域に複数の人が存在する状況があるかどうかを判定(評価)する。これは、高さ輪郭を導出(評価)することによって行われる。高さ輪郭は、基本的に、輪郭の最大値および最小値を判定することによって導出される。
本発明の目的は、制御目的のための人検出センサの精度を改善することである。
本発明は、レーザスキャナを用いて、監視領域内の検出物体を分析し、検出物体が人体であるか否かを判定する方法に関する。この方法は、次のステップを含む。レーザスキャナは、パルス光の飛行時間測定によってレーザスキャナ位置に対する反射点の距離を導出するために、複数のパルス光によって少なくとも1つのレーザカーテンを生成する。また、反射点の距離とパルス光の方向との組み合わせによって、監視領域内の所定の検出ゾーン内の位置が特定される。検出物体について特定された反射点の位置は、高さに関するZ軸と、Z軸に垂直であってレーザカーテンの横方向における幅に関する幅軸とを有する評価面(評価平面)に、投影される。
本発明に従えば、評価面は、Z軸に沿った反射点の密度分布に基づいて分析(評価)され、分析結果が、人体計測パラメータと比較される。
監視領域は、レーザカーテンによって画定され、垂直高さ方向と、2つの横方向すなわち奥行き方向および幅方向とを有し、これらはすべて互いに垂直である。単一の垂直レーザカーテンの場合、監視領域の奥行きは、レーザカーテンの奥行きに等しい。
評価面は、垂直面の垂直軸に一致するZ軸、および/または、監視領域の幅に一致する評価幅範囲を有していてもよい。なお、Z軸は、例えば、垂直方向に対して傾斜したレーザカーテンに沿って定められてもよいが、この場合であっても、幅は、依然としてレーザカーテンの幅に相当していてもよい。
本発明による人体計測パラメータは、人体計測値および/または人体比率である。
人体計測パラメータは、特に、高さ、幅、肩幅、肩高さ、頭部幅、人体の全体高さに関するパラメータである。
評価部は、評価面内の密度分布に基づいて、密度分布が人体の密度分布に対応しているか否かを判定する。
検出物体が人体であるかどうかを判定するために、検出物体の高さを表すZ軸に沿った密度分布が算出される。人体に対応する密度分布は、2つのピークを含む。1つのピークは、ほぼ頭の頂部にあり、もう一つのピークは、ほぼ肩の頂部にある。
上記判定において、好ましくは、肩高さに対する頭高さの比率を判定(算出)する。頭と肩の高さの比は、全ての人間に対して本質的に等しく、とりわけ絶対的な高さに依存しない人体計測パラメータであるので、密度分布の判定(評価)によって、信頼性高く、人の識別を行うことができる。
密度分布に加えて、評価部は、さらなるステップにおいて物体の幅を判定(算出)してもよい。この場合、評価部は、評価面において対象物に帰属し、密度分布のピークの位置にある反射点を解析し、人体の頭部および肩の有効幅を判定する。
この情報を統合することにより、より正確な方法で(人体か否かの)判定を行うことが可能となる。有効な頭部および肩の幅の比率を予め定め、密度分布の判定から導出される結果と一致するかどうかチェックしてもよい。その結果を密度判定の結果と比較することができる。両方の判定が肯定的である場合、検出物体は人体である可能性が非常に高い。
また、評価部は、密度分布判定によるピークゾーン内の反射点の数をカウントしてもよい。カウント数が所定の数よりも小さい場合、計測は無視される。
人体の移動は、移動方向に行われ、ここで、移動方向は、基本的に、幅および奥行きのベクトルである。特にドア用途では、移動方向は幅方向に垂直であり、したがって、人体の肩の向きは、通常、幅方向に揃えられる。
本発明によれば、評価面の全ての反射点の中から個々の評価対象物を識別することができる。また、反射点の部分集合(サブセット)が評価対象物ごとに生成され、この部分集合が、密度分布解析に供される。
これによって、評価対象物ごとに、それが人体に相当するか否かを判定することが可能となる。その結果、検出センサは、検出物体が人体であるか否かの情報に基づいて、ドアまたは照明を制御することが可能となる。
個々の評価対象物の判定は、評価部によって行われる。平面の上部から下部までに位置する隣接ゾーンによって、全ての反射点を含む評価面が解析される。1つまたは複数の反射点が隣接ゾーンに新たに存在すると、隣接ゾーン内のすべての反射点が考慮され、新たに存在する反射点が評価対象物に割り当てられる。隣接ゾーン内において新たに存在する点の上に他の点がない場合には、新たに存在する反射点は、新たな評価対象物に割り当てられる。あるいは(そうでなければ)、その数学的重心との距離が最小となる既存の評価対象物に割り当てられる。
この手順によれば、全ての反射点は、評価対象物に帰属する反射点の部分集合(サブセット)にグループ化される。
この評価によれば、レーザカーテンを通って平行に歩いている2人以上の人であっても識別することができる。
本発明の更なる改良によれば、反射点は、評価面上で時間積分されてもよい。これにより、反射点の密度が高くなるので、評価対象物をより良好に識別することができ、検出物体をより信頼性の高い方法で分類することができる。
時間積分は、検出物体の最初の検出が発生した後、固定の時間間隔に基づいて行うことができる。
本発明のさらなる改良によれば、時間積分は、反射点の部分集合を時間オブジェクトに割り当てる方法で実行される。これは、反射点の高さが無視される幅−時間平面に、反射点を投影することによって行われる。幅軸は、所定の蓄積/積分時間に応じて延びる。
時間幅平面に投影された反射点は、時間オブジェクトに帰属する部分集合(サブセット)としてクラスタリングされる。各時間オブジェクトは、評価面を生成するための反射点の主要な集合である。評価面では、反射点の時間成分は無視されるが、その高さが考慮される。
この手順によれば、時間オブジェクトの区切りに関するより正確な判定が可能である。したがって、取得された情報は、連続して通過する人の量に関してより正確である。
時間オブジェクトのクラスタリングは、好ましくは、DBSCANアルゴリズムを用いて行われる。
好ましくは、スキャナは、互いに対して傾斜する複数のレーザカーテンを生成する。いくつかのレーザカーテンにより、より正確な像を得ることができ、物体の運動方向を把握することができる。
スキャナは、好ましくは、複数のレーザカーテンを連続的に評価(走査)および/または生成する。
互いに対して傾斜する少なくとも2つのカーテンを用いることによって、走査平面の幅に垂直な2つの奥行き位置を判定することができる。2つの平面が連続して走査(スキャン)されることにより、検出物体の移動方向に沿って、走査時間の重心が時間幅図において変化するので、人の移動方向を検出することができる。
複数のレーザカーテンを用いることによって、時間積分のための所定の蓄積時間は、センサが現在のレーザカーテンを走査するのに必要な時間よりも長くなるか、またはそれに等しくなる。
評価部は、背景の影響を明らかに受ける反射点を受け入れないようにしてもよい。これにより、この段階で背景雑音を低減することができる。
本発明はさらに、監視領域内の物体を分析し、物体が人体であるか否かを判定するための人認識センサに関している。このセンサは、レーザスキャナと、上述の方法を実行可能な評価部とを備える。
本発明のさらなる態様は、垂直軸に対して45°未満に傾斜した少なくとも1つのレーザカーテンを生成するセンサに関する。これにより、頭上走査が可能になるので、人体がセンサの下を通過するときに人体を認識することができる。
人認識センサは、上述の方法を実行する演算部(演算処理部)を含んでもよい。演算部は、好ましくは、評価部がソフトウェアプログラムとして実装されたマイクロプロセッサ、マイクロコントローラ、またはFPGAにより実現される。
本発明のさらなる利点、特徴、および潜在的な用途は、図面に示される実施形態と併せて、以下の説明から推測される得る。
説明、特許請求の範囲および図面を通して、用語および関連する参照符号は、添付された参照符号のリストから注目すべきものとして使用される。
本発明に係るレーザスキャナの概略図である。 1つの走査カーテンを有する人認識センサの第1の実施形態を示す図である。 図1のセンサによる人認識の方法を示す図である。 2つの走査カーテンを有する人認識センサの第2の実施形態を示す図である。 評価部が時間オブジェクトを生成する第1ステップを記載した評価部の動作原理を示す図である。 生成された時間オブジェクトの拡大図である。 (a)は評価面における図4bの時間オブジェクトの図であり、(b)は人物オブジェクト(対象物)の分離後の時間オブジェクトの図である。 (a)は図5bの分離された人物オブジェクトを示す図であり、(b)は図6aの人物オブジェクトの密度分布を示す図である。 (a)は第1の走査カーテンについての図4bの時間オブジェクトの時間幅平面を示す図であり、(b)は第2のカーテンについての図4bの時間オブジェクトの時間幅平面を示す図である。
図1は、本発明に従った人認識センサ10の第1の実施形態を示す。人認識センサ10は、レーザスキャナ12と、処理部(演算処理部)14とを備え、処理部14は、評価部16を含む。処理部14は、レーザスキャナ12に接続されるとともに、人の認識結果に関する情報を含む情報が供給され得る出力ポート18に接続されている。
図1による実施形態のレーザスキャナは、反射点の導出のために評価(走査)される少なくとも1つのレーザカーテンを用いる。反射点は、光パルスによって導出される(飛行時間(TOF)が測定される)。この飛行時間の測定およびパルス光の方向に応じて、レーザスキャナに対する反射点の位置が導き出される。この導出処理は、処理部14によって行うことができる。処理部14において、反射点が判定され、それらの位置が、本発明による方法を実行する評価部16に入力される。この方法は、以下の図に関連してより詳細に説明される。
この構成によれば、評価部16は、レーザスキャナ12に対する反射点のデータを受け取る。
次に、評価部16は、以下の図でさらに説明するように、本発明に従って反射点を分析する。そして、その結果、検出物体(検出された物体)が人体であるか否かの情報を含む信号が出力される。
図2は、人認識センサ20が上部位置に取り付けられ、その下方を物体が通過する例示的な用途を示す。人認識センサ20は、垂直方向に1つのレーザカーテンを投影する。レーザカーテンは幅方向Wに長さを有している。ここでは、人Pが、レーザカーテン22を移動方向Mに移動している様子が示されている。通過する人Pは光パルスを反射する。これにより、人認識センサ20のレーザスキャナが、レーザカーテン内の反射点を判定(評価)する。
センサ20の評価部は、レーザカーテン22と一致する評価面EPを分析(評価)するように構成されている。それゆえに、評価面EPは、レーザカーテン22と同様に、垂直方向に延びるZ軸と、幅軸Wとを有している。
図3は、評価面EPの分析(評価)による人体認識の方法を示している。このケースでは、評価面EPがレーザカーテン22と一致するので、反射点を評価面EPに投影する必要はない。反射点は、それらの位置に従って評価面EPに割り当てられる。評価面EPは、Z軸および幅軸Wを有している。
本発明によれば、評価部16は、評価面EPのZ軸に沿った密度分布を計算する。この密度分布において、2つのピークが検出されることが想定される。
例えば、1つのピークのみが存在する場合、計算値は破棄され、評価対象物(物体)は人体として識別されない。
2つのピーク24、26がある場合、人体を検出可能な場合であり、Z軸上のピークの位置(高さ)H1、H2が特定される。第1のピーク24は、物体の全体高さH1(人体を見たときの頭の高さ)に相当するとみなされる。第2のピーク26は、人の肩の高さH2であるとみなされる。全体高さH1と肩高さH2との比率は、所定の人体比率の範囲と比較される。人体比率は人の年齢と共に変化するので、頭部の高さ(肩高さと全体高さとの間の距離;H1−H2)をさらに考慮してもよい。
この方法によれば、検出対象から子供を除外するような最小高さの測定を制限する必要がない。子供についても上述の評価に従って判定(定義)することができるためである。
評価面EP内で、肩幅W2および第2の密度ピーク26の位置(高さ)H2を判定することができる。第1のピーク24の領域において、頭部幅W1を判定することができる。これらのさらなるパラメータにより、人体認識の関し、対象物のより正確な評価を達成することができる。
図4は、複数のレーザカーテン32、34を生成する人認識センサ30の配置を示す。この場合、人認識センサ30は、ドアフレームの上方に取り付けられ、ドアの前方領域を監視する。レーザカーテン32、34は、垂直軸に対して、また、互いに対して傾斜しており、幅方向Wにおいてドアに平行に延びている。評価面EPはドア面に対して平行に設定される。
人認識センサ30のレーザスキャナは、レーザスキャナに対する検出物体の反射点の位置を導出し、評価部は、それらを評価対象物として評価面EPに投影する。
取得期間中に、人Pがレーザカーテン32、34を通って移動するときに、反射点が取得(生成)される。
図5aに記載されるように、取得期間は約15秒である。記載された例では、4つの検出物体が、レーザカーテンを連続的に通過し、2つの検出物体は、同時にレーザカーテンを通過している。評価部は、取得された反射点を時間幅平面に投影するように構成される。
この時間幅平面において、(現存する)反射点は、時間オブジェクトTO_1、TO_2、TO_3にクラスタリングされる。これは、DBSCANアルゴリズムを使用することによって行われる。
このケースでは、取得期間中にレーザカーテンを通過した4つの検出物体によって、3つの時間オブジェクトTO_1、TO_2、TO_3が規定されている。
時間オブジェクトTO_2の拡大図に示されるように、時間オブジェクトTO_2内には、より多くの検出物体が存在し得る。
さらに、評価部は、時間オブジェクトごとの反射点を取得するように構成されており、図6aに示すように、それらを評価面EPに投影する。評価面は、垂直軸Zおよび幅軸Wを有する。
次の分離ステップにおいて、評価部は、時間オブジェクトTO_1、TO_2、TO_3ごとに反射点を対象物に割り当てる。
これは、評価面EPを上部から下部まで分析し、各点を1つの評価対象物に割り当てることによって行われる。
個々の評価対象物O1の判定は、評価部によって行われる。評価面EPは、時間オブジェクトTO_2の全ての反射点を含む。評価面EPは、評価面EPの上部から下部までにある隣接ゾーン40によって解析される。隣接ゾーン40に反射点が新たに存在すると、隣接ゾーン40内の全ての反射点が考慮され、新たに存在する反射点が評価対象物に割り当てられる(例えば、図6bの対象物O2(十字)および対象物O1(円)を参照)。隣接ゾーン内において新たに存在する点の上に他の点がない場合には、新たに存在する反射点は、新たな評価対象物に割り当てられる。あるいは(そうでなければ)、その数学的重心との距離が最小となる既存の評価対象物O1またはO2に割り当てられる。この手順によれば、全ての反射点は、評価対象物O1、O2に帰属する反射点の部分集合にグループ化される。
結果として、図6bは、図5bの時間オブジェクトTO_2が2つの評価対象物O1、O2に分離されたことを示す。
次に、図7aに示す評価面内の各対象物を、図7bに示すように、Z軸に沿った密度分布解析にかける。図7a,7bでは、対象物O1が解析されている。対象物が人体であるか否かを判定するためのさらなる評価は、図3において説明したように、取得した計測値を人体計測データと比較することによって行われる。
本発明の更なる改良によれば、評価部は、対象物の移動方向を分析することができる。これにより、人認識センサは、対象物情報と共に方向情報を提供することができる。例えば、これは、何人の人が建物に入ったか、または建物から出たかについてのカウントを可能にする。あるいは、カウントだけを行い、単に、出力ポートに最終的なカウント値を提供することを可能にする。
移動方向は、例えば500msの短時間にわたる2つのカーテン32、34の累積反射点を比較することによって分析(判定)される。反射点は、時間幅平面に投影され、この時間幅平面において、存在する反射点の数学的重心がカーテンごとに判定される。
図8aおよび図8bに十字で示す重心の移動(シフト)によれば、重心は、まず第1のカーテン32を通過し、次に第2のカーテン34を通過しており、この重心の移動方向が、対象物の移動方向を示している。
10 人認識センサ、12 レーザスキャナ、14 演算部、16 評価部、18 出力ポート、20 人認識センサ、22 レーザカーテン、24 ピーク、26 ピーク、30 人認識センサ、32 第1レーザカーテン、34 第2レーザカーテン、44 重心、46 重心、TO_1 時間オブジェクト、TO_2 時間オブジェクト、TO_3 時間オブジェクト、O1 評価対象物、O2 評価対象物、EP 評価面、P 人、M 移動方向、Z Z軸、W 幅軸。

Claims (16)

  1. レーザスキャナ(12)を用いて、監視領域内の検出物体(P)を分析し、検出物体が人であるか否かを判定する人体認識方法であって、
    レーザスキャナ(12)は、パルス光の飛行時間(TOF)測定によってレーザスキャナ位置に対する反射点の距離を導出するために、複数のパルス光によって少なくとも1つのレーザカーテン(22、32、34)を生成し、
    反射点の距離とパルス光の方向との組み合わせにより、監視領域内の所定の検出ゾーン内の位置を特定し、
    検出物体について特定された反射点を、高さに関するZ軸と、Z軸に垂直であってレーザカーテン(22、32、34)の横方向における幅に関する幅軸とを有する評価面(EP)に、評価対象物(O1、O2)として投影し、
    当該方法において、前記評価面(EP)を、Z軸に沿った反射点の密度分布に基づいて分析し、分析結果を、人体計測パラメータと比較することを特徴とする、方法。
  2. 前記人体計測パラメータは、人体計測値および/または人体比率であることを特徴とする、請求項1に記載の方法。
  3. 評価対象物(O1、O2)に帰属する反射点を、高さにわたる密度分布に基づいて分析して、頭高さ(H1)および肩高さ(H2)を導出し、
    人体計測パラメータは、頭高さ(H1)と肩高さ(H2)との比率であり、この比率を、人体の所定範囲と比較することを特徴とする、請求項1または2に記載の方法。
  4. 前記密度分布のピーク(24、26)を判定することによって、前記頭高さ(H1)および前記肩高さ(H2)を導出することを特徴とする、請求項1〜3のいずれか1項に記載の方法。
  5. 前記評価面(EP)を、高さにわたる密度分布によって分析し、対応する密度分布のピーク位置それぞれにおける幅(W1、W2)を取得することによって、頭部幅(W1)および肩幅(W2)を導出することを特徴とする、請求項1〜4のいずれか1項に記載の方法。
  6. 前記人体計測パラメータは、頭部幅(W1)と肩幅(W2)との比率であり、この比率を、人体比率の所定範囲と比較することを特徴とする、請求項5に記載の方法。
  7. 前記センサが、互いに傾斜した複数のレーザカーテン(22、32、34)を生成し、分析することを特徴とする、請求項1に記載の方法。
  8. 前記複数のレーザカーテン(32、34)は、連続的に走査され、人体および/または分析対象物の運動方向(M)を判定することを特徴とする、請求項7に記載の方法。
  9. 前記反射点を、取得期間にわたって時間積分することを特徴とする、請求項1〜8のいずれか1項に記載の方法。
  10. 前記反射点の部分集合は、取得期間における幅時間平面内の反射点をクラスタリングすることによって規定される時間オブジェクト(TO_1、TO_2、TO_3)に帰属することを特徴とする、請求項9に記載の方法。
  11. 前記時間オブジェクト(TO_1、TO_2、TO_3)に帰属する反射点の部分集合が、前記評価面(EP)上の分析のための主要な集合であることを特徴とする、請求項10に記載の方法。
  12. 前記評価面内の反射点の部分集合は、反射点をクラスタリングすることによって評価対象物(O1、O2)に割り当てられることを特徴とする、請求項1〜11のいずれか1項に記載の方法。
  13. 反射点は、ある範囲内において、Z方向に沿って現在分析されている点の上に他の点があるかどうかという基準に従って、分析され、
    前記範囲内に他の点がなければ、反射点を新たな対象物に割り当て、前記範囲内に他の点があれば、重心を有する既存の対象物に、反射点を割り当てることを特徴とする、請求項12に記載の方法。
  14. 監視領域内の物体(P)を検出および分析し、検出物体が人であるか否かを判定するための人認識センサであって、
    レーザスキャナ(12)と、請求項1〜13のいずれか1項に記載の方法を実行可能な評価部(16)とを備える、人認識センサ。
  15. 前記評価部(16)は、マイクロプロセッサのような演算部であり、前記方法は、コンピュータによって実施される方法であることを特徴とする、請求項14に記載の人認識センサ。
  16. 前記少なくとも1つのレーザカーテン(22、32、34)は、垂直軸に対して45°未満傾斜していることを特徴とする、請求項14または15に記載の人認識センサ。
JP2020504443A 2017-04-10 2018-04-10 人体認識方法および人体認識センサ Active JP7054951B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17165849.5A EP3388864A1 (en) 2017-04-10 2017-04-10 Method of human body recognition and human body recognition sensor
EP17165849.5 2017-04-10
PCT/EP2018/059186 WO2018189191A1 (en) 2017-04-10 2018-04-10 Method of human body recognition and human body recognition sensor

Publications (2)

Publication Number Publication Date
JP2020516910A true JP2020516910A (ja) 2020-06-11
JP7054951B2 JP7054951B2 (ja) 2022-04-15

Family

ID=58530479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020504443A Active JP7054951B2 (ja) 2017-04-10 2018-04-10 人体認識方法および人体認識センサ

Country Status (11)

Country Link
US (1) US20210011126A1 (ja)
EP (2) EP3388864A1 (ja)
JP (1) JP7054951B2 (ja)
KR (1) KR20190132508A (ja)
CN (1) CN111033314A (ja)
AU (2) AU2018251941A1 (ja)
BE (1) BE1025329A9 (ja)
BR (1) BR112019021101A2 (ja)
CA (1) CA3059267A1 (ja)
SG (1) SG11201909259PA (ja)
WO (1) WO2018189191A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL2022442B1 (nl) * 2019-01-24 2020-01-07 Lely Patent Nv Positiebepalingsinrichting
CN110889339B (zh) * 2019-11-12 2020-10-02 南京甄视智能科技有限公司 基于头肩检测的危险区域分级预警方法与系统
CN115356747B (zh) * 2022-10-19 2023-01-24 成都朴为科技有限公司 一种多线激光雷达障碍物识别方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236184A (ja) * 2005-02-28 2006-09-07 Nec Engineering Ltd 画像処理による人体検知方法
WO2010140613A1 (ja) * 2009-06-03 2010-12-09 学校法人中部大学 物体検出装置
JP2011203227A (ja) * 2010-03-26 2011-10-13 Panasonic Electric Works Co Ltd 通過者検出装置、通過者検出方法
WO2012002904A1 (en) * 2010-07-02 2012-01-05 Fotonic I Norden Ab Device and method for detection of abnormal spatial states of a human body
WO2012042043A1 (de) * 2010-10-01 2012-04-05 Fastcom Technology Sa System und verfahren zur individualisierung von personen
JP2013061187A (ja) * 2011-09-12 2013-04-04 Optex Co Ltd レーザースキャンセンサ
JP2014142288A (ja) * 2013-01-25 2014-08-07 Hokuyo Automatic Co 物体検出装置、測距装置、ドア制御装置、及び自動ドア装置
JP2015213251A (ja) * 2014-05-02 2015-11-26 株式会社Ihi 挙動解析装置、監視システム及びアミューズメントシステム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPR301401A0 (en) * 2001-02-09 2001-03-08 Commonwealth Scientific And Industrial Research Organisation Lidar system and method
ES2572772T3 (es) * 2005-01-21 2016-06-02 Bea S.A. Sensor para utilizar en puertas automáticas
KR20090025959A (ko) * 2007-09-07 2009-03-11 삼성전자주식회사 거리 측정 방법 및 장치
DE102007046562A1 (de) * 2007-09-28 2009-04-02 Siemens Ag Verfahren und Vorrichtung zum Bestimmen eines Abstands mittels eines optoelektronischen Bildsensors
JP5092076B2 (ja) * 2007-10-26 2012-12-05 オプテックス株式会社 レーザエリアセンサ
US8279418B2 (en) * 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
JP5562805B2 (ja) * 2010-11-05 2014-07-30 オータックス株式会社 脈拍数測定方法及び血中酸素飽和度測定方法
EP2689264B1 (de) * 2011-03-22 2019-06-19 Leica Geosystems AG Elektro-optisches distanzmessgerät mit einer messgerätberührungsfrei funktionierenden gesten-messungsauslösung
CN103781408B (zh) * 2011-07-05 2017-02-08 沙特阿拉伯石油公司 用于监测和改善雇员的健康和生产率的地垫系统以及相关的计算机介质和计算机实现方法
JP5263692B2 (ja) 2011-11-09 2013-08-14 オプテックス株式会社 レーザースキャンセンサ
CN103064087B (zh) * 2012-12-25 2015-02-25 符建 基于多次积分的三维成像雷达系统及方法
CN104348962A (zh) * 2013-08-06 2015-02-11 浪潮乐金数字移动通信有限公司 基于激光测距的手机解锁方法及具有激光测距功能的手机
TWI508027B (zh) * 2013-08-08 2015-11-11 Huper Lab Co Ltd 三維偵測裝置及其偵測影像之方法
US9497840B2 (en) * 2013-09-26 2016-11-15 Asml Netherlands B.V. System and method for creating and utilizing dual laser curtains from a single laser in an LPP EUV light source
US9799044B2 (en) * 2013-12-26 2017-10-24 Panasonic Intellectual Property Corporation Of America Control method, and control system
CN103744934A (zh) * 2013-12-30 2014-04-23 南京大学 一种基于位置敏感哈希的分布式索引方法
CN103913734A (zh) * 2014-03-28 2014-07-09 中国科学院上海技术物理研究所 非合目标激光反射投影中心对准方法
US9921300B2 (en) * 2014-05-19 2018-03-20 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
EP2955539B1 (en) * 2014-06-12 2018-08-08 Delphi International Operations Luxembourg S.à r.l. Distance measuring device
CN104748702A (zh) * 2015-03-26 2015-07-01 北京工业大学 一种关于直线导轨直线度误差的快速测量及误差补偿方法
AU2016258021A1 (en) * 2015-05-06 2017-11-02 Ocula Corporation Swim lap counting and timing system and methods for event detection from noisy source data
EP3091333B1 (de) * 2015-05-08 2019-07-03 Leica Geosystems AG Scanverfahren und vermessungssystem mit scanfunktionalität
CN106125087B (zh) * 2016-06-15 2018-10-30 清研华宇智能机器人(天津)有限责任公司 基于激光雷达的舞蹈机器人室内行人跟踪方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236184A (ja) * 2005-02-28 2006-09-07 Nec Engineering Ltd 画像処理による人体検知方法
WO2010140613A1 (ja) * 2009-06-03 2010-12-09 学校法人中部大学 物体検出装置
JP2011203227A (ja) * 2010-03-26 2011-10-13 Panasonic Electric Works Co Ltd 通過者検出装置、通過者検出方法
WO2012002904A1 (en) * 2010-07-02 2012-01-05 Fotonic I Norden Ab Device and method for detection of abnormal spatial states of a human body
WO2012042043A1 (de) * 2010-10-01 2012-04-05 Fastcom Technology Sa System und verfahren zur individualisierung von personen
JP2013061187A (ja) * 2011-09-12 2013-04-04 Optex Co Ltd レーザースキャンセンサ
JP2014142288A (ja) * 2013-01-25 2014-08-07 Hokuyo Automatic Co 物体検出装置、測距装置、ドア制御装置、及び自動ドア装置
JP2015213251A (ja) * 2014-05-02 2015-11-26 株式会社Ihi 挙動解析装置、監視システム及びアミューズメントシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
AKAMATSU, SHUN-ICHI ET AL.: "Development of a Person Counting System Using a 3D Laser Scanner", 2014 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND BIOMIMETRICS (ROBIO 2014), JPN6021048969, 23 April 2015 (2015-04-23), US, pages 1983 - 1988, ISSN: 0004657552 *

Also Published As

Publication number Publication date
BE1025329B1 (fr) 2019-01-29
AU2018251941A1 (en) 2019-11-21
CN111033314A (zh) 2020-04-17
CA3059267A1 (en) 2018-10-18
JP7054951B2 (ja) 2022-04-15
SG11201909259PA (en) 2019-11-28
KR20190132508A (ko) 2019-11-27
WO2018189191A1 (en) 2018-10-18
BE1025329A9 (fr) 2019-02-05
EP3610291A1 (en) 2020-02-19
EP3610291B1 (en) 2022-12-21
BE1025329A1 (fr) 2019-01-23
EP3388864A1 (en) 2018-10-17
US20210011126A1 (en) 2021-01-14
AU2023200722A1 (en) 2023-03-09
BR112019021101A2 (pt) 2020-05-12

Similar Documents

Publication Publication Date Title
JP7229560B2 (ja) 自動ドア制御用センサ
AU2023200722A1 (en) Method of human body recognition and human body recognition sensor
JP6296043B2 (ja) 計測装置,計測方法および計測プログラム
JP5950296B2 (ja) 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
US10801831B2 (en) Speckle measurement apparatus and speckle measurement method
US20050093697A1 (en) Method and system for enhanced portal security through stereoscopy
JP2004298285A (ja) 歩行状態・歩行者属性判定装置および判定方法
US20130016880A1 (en) Traffic monitoring device
JP5811934B2 (ja) 滞留度検出装置及び乗客コンベア
KR101733657B1 (ko) 거리영상 기반 카메라를 이용한 객체 카운터 시스템 및 그 카운트 방법
JP2019117573A (ja) 人数計測装置および人数計測方法
JP7280335B1 (ja) 立位座位分離計数装置及び立位座位分別処理方法
WO2020166129A1 (ja) 状態認識装置
JP2024040800A (ja) 通過人数計測装置
RU2021115817A (ru) Регистрация пользователей системы перевозки пассажиров
CN113039454A (zh) 用于区分和计数人和物体的装置和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7054951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150