JP7311299B2 - Human recognition system and human recognition program - Google Patents
Human recognition system and human recognition program Download PDFInfo
- Publication number
- JP7311299B2 JP7311299B2 JP2019074567A JP2019074567A JP7311299B2 JP 7311299 B2 JP7311299 B2 JP 7311299B2 JP 2019074567 A JP2019074567 A JP 2019074567A JP 2019074567 A JP2019074567 A JP 2019074567A JP 7311299 B2 JP7311299 B2 JP 7311299B2
- Authority
- JP
- Japan
- Prior art keywords
- distance image
- cross
- human
- human recognition
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Description
この発明は人認識システムおよび人認識プログラムに関し、特にたとえば、通路やゲート、店舗やイベント会場,住居などの人が滞留もしくは通過する領域に設けた距離画像センサからの距離画像に基づいて人とその人の属性を認識する、人認識システムおよび人認識プログラムに関する。 The present invention relates to a human recognition system and a human recognition program, and in particular, for example, based on a distance image from a distance image sensor provided in areas where people stay or pass through, such as passages, gates, shops, event venues, and residences. The present invention relates to a human recognition system and a human recognition program for recognizing human attributes.
この種の技術は、たとえば、部屋や建物の入り口やゲートを通過する人数計測やエリア内の動線調査、デバイスを持たない不特定多数を対象とした映像を用いない個人情報に配慮した種々の計測等のために利用され得る。 This type of technology can be used, for example, to count the number of people who pass through the entrance or gate of a room or building, to investigate the flow of people in an area, and to conduct various types of personal information-free video targeting of the general public who do not have a device. It can be used for measurement and the like.
例えばこの発明の背景となる人数カウント装置の一例が特許文献1に開示されている。特許文献1では、人物存在領域として矩形情報を出力し、その矩形情報の縦横比または縦と横の長さに応じて人物存在状況を推定するが、その矩形比が異なる場合には、オクルージョンが発生していると判定し、上半身、下半身、右半身、左半身のような部分を検出することによって、人物が重なっている場合でも人数カウントができるとしている。 For example, Patent Document 1 discloses an example of a people counting device that serves as the background of the present invention. In Patent Document 1, rectangle information is output as a person presence area, and the person presence state is estimated according to the aspect ratio or the length and width of the rectangle information. It is possible to count the number of people even if people overlap by determining that it is occurring and detecting the upper half, lower half, right half, and left half of the body.
特許文献1の人数カウント装置では、矩形比で人だけを検出するので、複数の人が互いに密着している場合には、正確に人数カウントを行うのは困難である。 The people counting device of Patent Document 1 detects only people based on the rectangular ratio, so it is difficult to accurately count people when a plurality of people are in close contact with each other.
それゆえに、この発明の主たる目的は、新規な、人認識システムおよび人認識プログラムを提供することである。 SUMMARY OF THE INVENTION Therefore, a primary object of the present invention is to provide a novel human recognition system and human recognition program.
この発明の他の目的は、距離画像を処理することによって正確に人の位置の検出および数のカウントを行うことができる、人認識システムおよび人認識プログラムを提供することである。 Another object of the present invention is to provide a human recognition system and a human recognition program capable of accurately detecting the positions and counting the number of people by processing distance images.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。 In order to solve the above problems, the present invention employs the following configuration. It should be noted that reference numerals in parentheses, supplementary explanations, etc. indicate the correspondence with the embodiments described later in order to facilitate understanding of the present invention, and do not limit the present invention in any way.
第1の発明は、人が滞留するまたは通過する計測領域を上方から撮影して距離画像を出力する距離画像センサ、距離画像から人の形状に類似した塊りを選別してその塊りを含む塊り距離画像を抽出する塊り距離画像抽出部、塊り距離画像から高さの異なる複数の切断面で距離画像を切断した複数の横断面画像を生成する横断面画像生成部、および複数の横断面画像に基づいて、塊り距離画像に含まれる人の位置および数を認識し、塊り距離画像の数および塊り距離画像に含まれる人の位置および数に応じて、計測領域に存在する人の位置および数を認識する人認識部を備える、人認識システムである。 A first invention includes a distance image sensor that photographs a measurement area in which a person stays or passes through from above and outputs a distance image, and a lump similar to the shape of a person is selected from the distance image and the lump is included. a chunk distance image extracting unit for extracting a chunk distance image; a cross-sectional image generating unit for generating a plurality of cross-sectional images obtained by cutting the range image from the chunk distance image at a plurality of cutting planes with different heights; Based on the cross-sectional image, the position and number of people included in the clump distance image are recognized, and the number of clump distance images and the positions and numbers of people included in the clump distance image are recognized in the measurement area. A human recognition system comprising a human recognition unit that recognizes the positions and number of people who
第1の発明では、距離画像センサ(12)は、人が滞留するまたは通過する計測領域を上方から撮影した距離画像を出力する。塊り距離画像抽出部(14、S9)は、距離画像から人の形状に類似した塊り距離画像を抽出する。横断面画像生成部(14、S11、S21、S23、S41)は、塊り距離画像から少なくとも人の体の一部を通る高さの複数の切断面で距離画像を切断した複数の横断面画像を生成する。人認識部(14、S25‐S35、S43)は、複数の横断面画像に基づいて、塊り距離画像に含まれる人の位置および数を認識し、塊り距離画像の数および塊り距離画像に含まれる人の位置および数に応じて、計測領域に存在する人の位置および数を認識する。 In the first invention, a distance image sensor (12) outputs a distance image obtained by photographing a measurement area in which a person stays or passes through from above. A clump distance image extraction unit (14, S9) extracts a clump distance image resembling a human shape from the distance image. A cross-sectional image generation unit (14, S11, S21, S23, S41) generates a plurality of cross-sectional images obtained by cutting the distance image from the mass distance image at a plurality of cutting planes having a height passing through at least a part of the human body. to generate A person recognition unit (14, S25-S35, S43) recognizes the positions and number of people included in the lump distance images based on the plurality of cross-sectional images, and recognizes the number of lump distance images and the number of lump distance images. The positions and number of people present in the measurement area are recognized according to the positions and number of people included in the measurement area.
第1の発明によれば、距離画像を処理することによって正確に計測領域内の人の位置の検出または人数カウントを行うことができる。 According to the first invention, it is possible to accurately detect the positions of people or count the number of people in the measurement area by processing the distance image.
第2の発明は、第1の発明に従属し、人認識部は、複数の横断面画像から人の頭部と推定できるオブジェクトを検出することによって頭部を検出する頭部検出部を含み、前記頭部検出部で検出された頭部の位置および数を、前記計測領域に存在する人の位置および数として認識する、人認識システムである。 A second invention is according to the first invention, wherein the human recognition unit includes a head detection unit that detects a head by detecting an object that can be estimated as a human head from a plurality of cross-sectional images, The human recognition system recognizes the positions and the number of the heads detected by the head detection unit as the positions and the number of people present in the measurement area.
第2の発明では、人認識部(14、S25‐S35、S43)は、複数の横断面画像から人の頭部と推定できるオブジェクトを検出することによって頭部を検出する頭部検出部(14、S25)を含み、さらには、検出された頭部の位置および数を、計測領域に存在する人の位置および数として認識する。 In the second invention, the human recognition unit (14, S25-S35, S43) includes a head detection unit (14 , S25), and further recognizes the positions and numbers of the detected heads as the positions and numbers of people present in the measurement area.
第2の発明によれば、人の頭部を検出し、頭部の位置および数を人の位置および数として認識するので、計測領域に存在する人の正確な位置および数が計測可能となる。 According to the second invention, since the head of a person is detected and the position and number of the head are recognized as the position and number of the person, the exact position and number of the person existing in the measurement area can be measured. .
第3の発明は、第2の発明に従属し、頭部検出部は、複数の横断面画像に含まれる物体の輪郭線の大きさおよび当該輪郭線の形状に基づいて、頭部を検出する、人認識システムである。 A third invention is according to the second invention, wherein the head detection unit detects the head based on the size and shape of contour lines of an object included in the plurality of cross-sectional images. , is a human recognition system.
第3の発明によれば、頭部の検出が一層正確に行える。
第4の発明は、第2または第3の発明に従属し、頭部検出部は、一定の高さ範囲における大きさ、形状および範囲から、独立した頭部として推定できなくなったオブジェクトを除外する除外部を含む、人認識システムである。
第4の発明では、除外部(14、S31‐S33)は、たとえば、一定の高さ範囲において、他のオブジェクトと分離できないオブジェクト(他のオブジェクトと一体化したオブジェクト)や、オブジェクトの変化傾向から頭部として推定できなくなったオブジェクト等を除外オブジェクトとして除外する。
第4の発明では、たとえば、矩形形状などの丸みを帯びていない形状(荷物等であると推定される形状)のオブジェクト、頭部としては大きすぎる若しくは小さすぎるオブジェクト等を除外オブジェクトとして除外するので、人認識部によって正確に、人の位置および数を認識することができる。
According to the third invention, the head can be detected more accurately.
A fourth invention is according to the second or third invention , wherein the head detection unit excludes an object that cannot be estimated as an independent head from the size, shape and range within a certain height range. A person recognition system that includes an exclusion unit.
In the fourth aspect, the exclusion unit (14, S31-S33), for example, in a certain height range, objects that cannot be separated from other objects (objects integrated with other objects) or Objects that cannot be estimated as the head are excluded as excluded objects.
In the fourth invention, for example, an object with a non-rounded shape such as a rectangle (a shape presumed to be luggage or the like), an object that is too large or too small for a head, etc. are excluded as excluded objects. , the person recognition unit can accurately recognize the position and number of people.
第5の発明は、第2から第4までのいずれかの発明に従属し、人認識部は、頭部検出部が複数の頭部を検出した場合に、2以上の横断面画像における複数の頭部の互いの距離に応じて、計測領域に存在する人の数を検出する、人認識システムである。 A fifth invention is according to any one of the second to fourth inventions, and the human recognition unit detects a plurality of heads in two or more cross-sectional images when the head detection unit detects a plurality of heads. It is a human recognition system that detects the number of people present in a measurement area according to the mutual distance of heads.
第5の発明によれば、複数の人が近接している場合であっても、人数の計測を正確に行える。 According to the fifth invention, even when a plurality of people are close to each other, it is possible to accurately count the number of people.
第6の発明は、人が滞留するまたは通過する計測領域を上方から撮影して距離画像を出力する距離画像センサを備える人認識システムのコンピュータを、距離画像から人の形状に類似した塊りを選別してその塊りを含む塊り距離画像を抽出する塊り距離画像抽出部、塊り距離画像から高さの異なる複数の切断面で距離画像を切断した複数の横断面画像を生成する横断面画像生成部、および複数の横断面画像に基づいて、塊り距離画像に含まれる人の位置および数を認識し、塊り距離画像の数および塊り距離画像に含まれる人の位置および数に応じて、計測領域に存在する人の位置および数を認識する人認識部として機能させる、人認識プログラムである。 A sixth aspect of the present invention is a human recognition system computer equipped with a distance image sensor that photographs a measurement area in which a person stays or passes through from above and outputs a distance image , and detects a mass resembling a human shape from the distance image. Lump distance image extraction unit that selects and extracts a clump distance image containing the clump, and cross section that generates a plurality of cross-sectional images by cutting the distance image from the clump distance image at a plurality of cutting planes with different heights. Recognizing the position and number of people included in the clump distance images based on the surface image generation unit and the plurality of cross-sectional images, and determining the number of clump distance images and the positions and numbers of people included in the clump distance images It is a human recognition program that functions as a human recognition unit that recognizes the positions and number of people existing in the measurement area in response to .
第6発明においても、第1の発明と同様の効果が期待できる。 Also in the sixth invention, the same effect as in the first invention can be expected.
この発明によれば、距離画像を処理することによって正確に人の位置の検出および数のカウントを行うことができる。 According to this invention, it is possible to accurately detect the positions of people and count the number of people by processing the distance image.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of the embodiments with reference to the drawings.
<第1実施例>
図1を参照して、この実施例の人認識システム10は、人PSNが滞留するまたは通過する計測領域を規定するゲートGTの上方に設けられる距離画像センサ12を含む。また、人認識システム10に含まれる距離画像センサ12の数は、単数(1つ)であっても良いし、複数(2以上)であっても良い。本実施例では、人認識システム10には、1つの距離画像センサ12が含まれる。距離画像センサ12は、一例として、前後左右にそれぞれ40°の視野角または画角を有する。
<First embodiment>
Referring to FIG. 1, a
なお、この実施例はゲートGTで規定された計測領域に存在する人を認識する実施例であるが、計測領域は、ゲートGT等で規定される領域に限定されず、オープンスペースであっても良い。すなわち、この発明は、オープンスペースの一定の領域に存在する人を認識するシステムとしても利用可能であり、この発明の人認識システムは、オープンスペースにおける人を認識するためのシステムとしても利用できる、ということを予め指摘しておく。 This embodiment is an embodiment for recognizing a person existing in the measurement area defined by the gate GT. good. That is, the present invention can also be used as a system for recognizing people existing in a certain area of an open space, and the human recognition system of the present invention can also be used as a system for recognizing people in an open space. Let me point out in advance.
距離画像センサ12は、所定領域(撮影領域)の距離画像を取得するためのセンサである。ただし、距離画像センサ12の撮影領域には、少なくとも、ゲートGTで規定された計測領域が含まれる。すなわち、距離画像センサ12は、計測領域の距離画像を取得するためのセンサである。この距離画像センサ12は、赤外光またはレーザなどの光を照射し、対象物から反射した光(反射光)をCCD(Charge Coupled Device)センサなどの光学センサによって捉える。距離画像センサ12は、光が戻るまでの時間を画素毎に計測または位相差を計算することで、対象物までの実際の距離を測定する。実施例の距離画像センサ12には、ASUS(登録商標)製のXtion(登録商標)と言われる製品が採用されている。なお、他の実施例では、距離画像センサ12は、Microsoft(登録商標)製のKinect(登録商標)センサ、パナソニック(登録商標)製の3次元距離画像センサD-IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと言われる場合もある。
The
なお、距離画像センサとしては、たとえばLiDAR(たとえば、Velodine社製のイメージングユニットLiDAR(HDL‐32e)(商品名))のような全方位レーザ距離計や、ステレオカメラなども利用可能である。 As the distance image sensor, an omnidirectional laser rangefinder such as LiDAR (for example, an imaging unit LiDAR (HDL-32e) (trade name) manufactured by Velodyne), a stereo camera, and the like can be used.
距離画像センサ12からの距離画像信号は、図2に示すように、コンピュータ14に入力され、コンピュータ14では、その距離画像信号をディジタルデータとして、たとえばRAMのようなメモリ16に記憶する。詳細は後述するが、コンピュータ14は、メモリ16に記憶された距離画像データを処理した結果から計測領域に存在する人の数を認識し、その結果をディスプレイ18に表示しおよび/またはプリンタ(図示せず)に出力する。
As shown in FIG. 2, the distance image signal from the
メモリ16は、図3に示すように、プログラム記憶領域20およびデータ記憶領域22を含む。
プログラム記憶領域20には、データ取得プログラム20a、前処理プログラム20b、塊り認識プログラム20cおよび人認識プログラム20dが予め設定されている。
In the
データ取得プログラム20aは、距離画像センサ12からの距離画像信号を、撮影領域の全体の距離画像(全体距離画像)についての距離画像データ(3次元距離画像データ)として取り込んで、データ記憶領域22の取得距離画像データ領域22aに記憶するプログラムである。
The
前処理プログラム20bは、取得距離画像データ領域22aに記憶した距離画像データのノイズ除去などの前処理を行うためのプログラムである。
The
塊り認識プログラム20cは、前処理を終えた距離画像データから所定形状の塊り距離画像についての距離画像データ(塊り距離画像データ)を抽出して、データ記憶領域22の塊り距離画像データ領域22cに記憶するプログラムである。
The
人認識プログラム20dは、上述の塊り距離画像から人の頭部の形状を抽出し、塊り距離画像に含まれる頭部の数を検出し、頭部の数を塊り距離画像毎の人数として認識して、データ記憶領域22の人認識データ領域22dに記憶するプログラムである。
The
データ記憶領域22は、上述の取得距離画像データ領域22a、塊り距離画像データ領域22cおよび人認識データ領域22dの他に、背景距離画像データ領域22bを含む。この背景距離画像データ領域22bには、図1に示すゲートGに人が存在しない背景だけの、距離画像センサ12からの距離画像(背景距離画像)を記憶するための領域であり、この背景距離画像データは後述のように前処理プログラム20bによる前処理に利用される。
The
図4はこの実施例の人認識システム10におけるコンピュータ14の人認識動作のメイン処理を示すフロー図である。
FIG. 4 is a flowchart showing the main processing of the human recognition operation of the
コンピュータ14は、人認識動作のメイン処理を開始すると、ステップS1で、データ取得プログラム20aに従って、距離画像センサ12からの距離画像信号を、距離画像データとして取得して取得距離画像データ領域22aに記憶する。この距離画像データが示す距離画像(3次元距離画像)24の一例が、図5に示される。この図面は、以降の同様の図面と同じく、発明者等が実験で実際に取得したり処理したりした距離画像をグレースケールで示している。
When the
ただし、図5において濃い灰色の部分と薄い灰色の部分とが見えるが、濃い部分が薄い部分に比べて、距離画像センサ12に近い部分である。また、図5は撮影領域に複数の人が存在する場合の距離画像を示す。
However, in FIG. 5, a dark gray portion and a light gray portion can be seen, and the dark portion is closer to the
次にステップS3、S5およびS7において、コンピュータ14は前処理プログラム20bに従って、図5のような距離画像のノイズ除去(ステップS3)、歪み補正(ステップS5)および背景情報除去(ステップS7)のような前処理を実行する。
Next, in steps S3, S5 and S7, the
距離画像センサ12の計測値には様々なノイズが混入しているので、必要に応じて、この種のノイズを、ステップS3で、平滑化やメディアンフィルタ等のフィルタを使用して除去する。具体的には、計測値の外れ値を除去し、平滑化(粗い量子化)し、小さすぎる物体、細すぎる物体を除去し、その結果を取得距離画像データ領域22a(図3)または別の領域(図示せず)に記憶する。
Since various noises are mixed in the measurement values of the
次のステップS5では、前処理の一環として、歪み補正を行う。赤外線レーザなどの光軸をレンズ等で曲げて広範囲の計測を行う距離画像センサの場合、歪曲収差等が発生するので、必要に応じて、ステップS5でこの補正を行い、その結果を取得距離画像データ領域22a(図3)または別の領域(図示せず)に記憶する。
In the next step S5, distortion correction is performed as part of the preprocessing. In the case of a distance image sensor such as an infrared laser that measures a wide range by bending the optical axis with a lens or the like, distortion aberration or the like occurs. Stored in
ステップS7では背景情報除去処理を実行する。人や動きのあるもののみを検出するため、静的に存在するものの反射を学習し、計測値から除去する。具体的には、予め記憶している背景距離画像データをデータ記憶領域22(図3)の背景距離画像データ領域22bから読み出し、処理中の距離画像データからこの背景距離画像データを減算する。併せて、予め設定している計測領域の外側のデータを消去し、その結果(前処理が終わった距離画像データ)を取得距離画像データ領域22a(図3)に記憶する。
In step S7, background information removal processing is executed. To detect only people and moving objects, it learns the reflections of static objects and removes them from measurements. Specifically, background distance image data stored in advance is read from the background distance
このような前処理が終わった距離画像24の一例が、図6に示される。この図6で濃い灰色の部分26が前処理の結果残った距離画像であり、薄い灰色の部分28は範囲外などの理由で除去される。 An example of a distance image 24 after such preprocessing is shown in FIG. In FIG. 6, a dark gray portion 26 is the distance image remaining as a result of the preprocessing, and a light gray portion 28 is removed for reasons such as being out of range.
ステップS9では塊り分離処理を実行する。ここでは、前処理を終えた距離画像データ(図6)から、濃い灰色の部分26のうち、人の形状に類似した塊りを選別して、塊りを含む所定形状の画像(塊り距離画像)30(図8(A))として抽出し、塊り距離画像30毎の距離画像データ(塊り距離画像データ)に分離する。塊り距離画像30の選別方法としては、たとえば、前処理を終えた距離画像に含まれる濃い灰色の部分26のうち、2次元の大きさで考えると、X軸Y軸がそれぞれ所定以上の長さおよびそれぞれ所定の長さ以下を有するサイズの画像であって、その画像に外接する長方形の面積とその画像の面積の比率が一定以上であり、縦横比が所定の比率の範囲であるなど、輪郭が人の形状に類似した画像を塊り距離画像として抽出する。したがって、人の形状に類似しない画像、たとえば矩形形状などの丸みを帯びていない形状の画像および大きすぎるまたは小さすぎる画像等については、塊り距離画像として抽出されない。すなわち、人の形状に類似しない画像は、人認識処理の対象から除外される。そして、前処理を終えた距離画像データから分離された塊り距離画像データは、塊り距離画像データ領域22cに記憶される。
In step S9, lump separation processing is executed. Here, from the distance image data (FIG. 6) that has undergone preprocessing, lumps similar to the shape of a person are selected from the dark gray portion 26, and an image of a predetermined shape (clump distance image) 30 (FIG. 8A), and separated into distance image data (lump distance image data) for each lump distance image 30 . As a method for sorting out the clump distance image 30, for example, in the dark gray portion 26 included in the preprocessed distance image, when considering the two-dimensional size, the X axis and the Y axis are each longer than a predetermined length. An image of a size that has a length and a predetermined length or less, the ratio of the area of the rectangle circumscribing the image to the area of the image is a certain amount or more, and the aspect ratio is within the range of the predetermined ratio. An image whose outline resembles the shape of a person is extracted as a block distance image. Therefore, an image that does not resemble the shape of a person, such as an image with a shape that is not rounded such as a rectangle, or an image that is too large or too small, is not extracted as a clustered distance image. In other words, an image that does not resemble the shape of a person is excluded from the object of human recognition processing. Then, the lumped distance image data separated from the distance image data for which preprocessing has been completed is stored in the lumped distance
なお、塊り距離画像30の別の選別方法としては、距離画像に代えて、所定の高さ(たとえば1200mm)の横断面画像を生成して、横断面画像に含まれる画像のうち、輪郭が人の形状に類似した画像を塊り距離画像として抽出するようにしても良い。 As another selection method of the cluster distance image 30, instead of the distance image, a cross-sectional image of a predetermined height (for example, 1200 mm) is generated, and out of the images included in the cross-sectional image, the contour is An image similar to the shape of a person may be extracted as a block distance image.
続くステップS11では、図7に示すサブルーチンに従って、塊り距離画像30毎に人認識処理を実行する。簡単に説明すると、人認識処理は、塊り距離画像30についての塊り距離画像データから複数の横断面画像32を生成して、複数の横断面画像32に基づいて、塊り距離画像30に含まれる人の数を認識するための処理である。複数の横断面画像32のそれぞれは、高さ(Z軸方向)において、たとえば600‐1800mmの範囲(切断範囲)の任意の高さで塊り距離画像データを切断した画像である(図8(B)、図9(B)および図10(B))。 In subsequent step S11, human recognition processing is executed for each cluster distance image 30 according to the subroutine shown in FIG. Briefly, the human recognition process generates a plurality of cross-sectional images 32 from the clump distance image data of the clump distance image 30, and based on the plurality of cross-sectional images 32, the clump distance image 30. This is a process for recognizing the number of people included. Each of the plurality of cross-sectional images 32 is an image obtained by cutting the lump distance image data at an arbitrary height (in the Z-axis direction) within a range (cutting range) of, for example, 600-1800 mm (see FIG. 8 ( B), FIGS. 9(B) and 10(B)).
コンピュータ14は、人認識処理を開始すると、最初のステップS21で、切断高さを第1の高さに設定する。ただし、第1の高さとは、切断範囲の上限または下限のうち、いずれか一方の高さのことである。この実施例では、第1の高さは、切断範囲の上限の高さであり、たとえば1800mmである。
When starting the human recognition process, the
続いて、ステップS23で、図8(B)、図9(B)および図10(B)に示すように、切断高さで塊り距離画像を切断した横断面画像32を生成する。ステップS25で、生成した横断面画像32からオブジェクト34を検出する。ただし、オブジェクト34とは、横断面画像32に含まれる、人の頭部の形状に類似する物体(人の頭部として推定できる物体)のことである。ここでは、横断面画像32の切断高さ、横断面画像32に含まれる物体の輪郭線の大きさおよび当該輪郭線の形状(たとえば略丸い形状)等から、横断面画像32に人の頭部として推定できるオブジェクト34が存在するかどうかを検出する。つまり、一定の高さ範囲において略丸い閉じた領域は人の頭であると推定できる。また、ステップS25では、人の頭部として推定できる複数のオブジェクト34が互いに離れていれば、別のオブジェクト34として検出する。 Subsequently, in step S23, as shown in FIGS. 8(B), 9(B) and 10(B), a cross-sectional image 32 is generated by cutting the lump distance image at the cutting height. In step S25, the object 34 is detected from the generated cross-sectional image 32. FIG. However, the object 34 is an object that resembles the shape of a human head (an object that can be estimated as a human head) included in the cross-sectional image 32 . Here, based on the cutting height of the cross-sectional image 32, the size of the contour line of the object included in the cross-sectional image 32, the shape of the contour line (for example, a substantially round shape), and the like, the human head in the cross-sectional image 32 Detects whether an object 34 that can be estimated as exists. In other words, it can be estimated that a substantially round closed area within a certain height range is a person's head. Further, in step S25, if a plurality of objects 34 that can be estimated as human heads are separated from each other, they are detected as separate objects 34. FIG.
続いて、ステップS27では、新規オブジェクトが存在するかどうかを判断する。新規オブジェクトとは、直前のステップS25で検出されたオブジェクト34が、他の切断高さの横断面画像32で既に検出されているオブジェクト34とは異なるオブジェクト34のことをいう。 Subsequently, in step S27, it is determined whether or not a new object exists. A new object is an object 34 that is different from the object 34 already detected in the cross-sectional image 32 of another cutting height, which is detected in the previous step S25.
また、直前のステップS25で検出されたオブジェクト34が既に検出されているオブジェクト34と異なるかどうかは、横断面画像32の高さ、各オブジェクト34の中心位置の距離および各オブジェクト34同士が重複する面積の割合等に応じて判断される。つまり、これらの同一性判断のためのパラメータに従って、直前のステップS25で検出されたオブジェクト34が既に検出されているオブジェクト34と同じオブジェクト34であるか、別のオブジェクト34であるかが判断される。なお、1つの塊り距離画像に複数のオブジェクト34が存在するケースとしては、しがみついている、抱き合っている、子供を抱っこしている、または複数の人が密着している場合等、複数の人が近接している場合が考えられる(図8(A)または図10(A))。このようなケースを想定して、ステップS25で検出されたオブジェクト34が既に検出されているオブジェクト34と異なるかどうかが判断される。 Whether or not the object 34 detected in the previous step S25 is different from the already detected object 34 depends on the height of the cross-sectional image 32, the distance between the center positions of each object 34, and the overlap between the objects 34. It is judged according to the ratio of the area. In other words, it is determined whether the object 34 detected in the previous step S25 is the same object 34 as the already detected object 34 or a different object 34 according to these parameters for identity determination. . A case where a plurality of objects 34 exist in one lump distance image is a case where a plurality of people are clinging to each other, embracing each other, holding a child, or when a plurality of people are in close contact. are close to each other (FIG. 8(A) or FIG. 10(A)). Assuming such a case, it is determined whether the object 34 detected in step S25 is different from the object 34 already detected.
たとえば、図8(B)の上から3つ目の横断面画像32Cまたは図10(B)の上から2つ目の横断面画像32Bでは、それまでに検出されている第1のオブジェクト34aとは異なる第2のオブジェクト34bが検出される。これらの例では、第1のオブジェクト34aおよび第2のオブジェクト34bは、横断面画像32の高さ、中心位置の距離および重複する面積の割合等から、それぞれ別のオブジェクトとして認識される。すなわち、第2のオブジェクト34bは、新規オブジェクトとして認識される。したがって、図8(B)および図10(B)の例では、第2のオブジェクト34bが検出されたときに、新規オブジェクトが存在すると判断される。
For example, in the third
図7に戻って、ステップS27で“YES”であれば、つまり、新規オブジェクトが存在すると判断した場合は、ステップS29で、新規オブジェクトを追跡リストに登録して、ステップS35に進む。なお、追跡リストは、或る横断面画像32から検出されたオブジェクト34を追跡して、他の切断高さの横断面画像32での当該オブジェクト34の変化傾向を判定するためのリストである。この追跡リストは、人認識データ領域22dに記憶される。
Returning to FIG. 7, if "YES" in step S27, that is, if it is determined that a new object exists, the new object is registered in the tracking list in step S29, and the process proceeds to step S35. The tracking list is a list for tracking an object 34 detected from a certain cross-sectional image 32 and determining the change tendency of the object 34 on the cross-sectional image 32 of another cutting height. This tracking list is stored in the person
一方、ステップS27で“NO”であれば、つまり、新規オブジェクトが存在しないと判断した場合は、ステップS31で、除外オブジェクトが存在するかどうかを判断する。除外オブジェクトとは、一定の高さ範囲における大きさ、形状および範囲等から、独立した頭部として推定できなくなったオブジェクトのことである。たとえば、除外オブジェクトとしては、一定の高さ範囲において、他のオブジェクト34と分離できないオブジェクト(他のオブジェクトと一体化したオブジェクト)34や、オブジェクト34の変化傾向から頭部として推定できなくなったオブジェクト34等が該当する。 On the other hand, if "NO" in step S27, that is, if it is determined that the new object does not exist, it is determined in step S31 whether an excluded object exists. An excluded object is an object that cannot be estimated as an independent head from the size, shape, range, etc. within a certain height range. For example, excluded objects include an object 34 that cannot be separated from other objects 34 (an object that is integrated with other objects) within a certain height range, and an object 34 that cannot be estimated as a head based on the changing tendency of the object 34. etc.
なお、頭部として推定できなくなったオブジェクト34としては、矩形形状などの丸みを帯びていない形状(荷物等であると推定される形状)のオブジェクト34、または、頭部としては大きすぎる若しくは小さすぎるオブジェクト34等が該当する。 Note that the object 34 that cannot be estimated as the head includes an object 34 that has a shape that is not rounded such as a rectangle (a shape that is estimated to be luggage or the like), or an object 34 that is too large or too small as a head. Object 34 etc. correspond.
また、或るオブジェクトが比較的低い高さ(たとえば1000mm以下)で他のオブジェクトと一体化した場合であっても、一定の高さ範囲において分離している場合には、除外オブジェクトとして認識されないことがある。 Also, even if an object is integrated with another object at a relatively low height (for example, 1000 mm or less), if it is separated within a certain height range, it will not be recognized as an excluded object. There is
たとえば、図9(B)の上から1つ目の横断面画像32Aでは、第1のオブジェクト34aおよび第2のオブジェクト34bが検出される。第1のオブジェクト34aおよび第2のオブジェクト34bは、互いに離れているので、この段階では、別のオブジェクトとして認識される。したがって、第1のオブジェクト34aおよび第2のオブジェクト34bの各々は、個別に追跡リストに登録される。しかしながら、図9(B)の上から2つ目より下の横断面画像32B~32Dでは、第1のオブジェクト34aおよび第2のオブジェクト34bの両方を含む1つのオブジェクトのみが検出される。この場合には、1つ目の横断面画像32Aにおいて、本来1つのオブジェクトを、軽微な凹凸等によって2つのオブジェクトを検出したと判断する。したがって、横断面画像32B~32Dでは、一方のオブジェクトのみが追跡され、他方のオブジェクトは除外オブジェクトとして認識される。
For example, in the first
図9に示す例では、横断面画像32Aにおいて面積が大きい第1のオブジェクト34aのみが追跡され、第2のオブジェクト34bは、除外オブジェクトとして認識される。なお、図9(A)に示すような軽微な凹凸は、塊り距離画像30に含まれる人の姿勢、帽子等の被り物等によって生じることがある。
In the example shown in FIG. 9, only the
図7に戻って、ステップS31で“YES”であれば、つまり、除外オブジェクトが存在すると判断した場合は、ステップS33で、除外オブジェクトを追跡リストから除外(追跡リストから削除)して、ステップS35に進む。このように、一定の高さ範囲に独立した頭部として推定できないオブジェクトは、追跡リストから削除(枝刈り)される。一方、ステップS31で“NO”であれば、つまり、除外オブジェクトが存在しないと判断した場合は、ステップS33を経ずにステップS35に進む。 Returning to FIG. 7, if "YES" in step S31, that is, if it is determined that an excluded object exists, in step S33 the excluded object is excluded from the tracking list (deleted from the tracking list), and in step S35 proceed to In this way, objects that cannot be estimated as independent heads to a certain height range are removed (pruned) from the tracking list. On the other hand, if "NO" in step S31, that is, if it is determined that the exclusion object does not exist, the process proceeds to step S35 without going through step S33.
そして、ステップS35で、切断高さが第2の高さかどうかを判断する。ただし、第2の高さとは、切断範囲の上限または下限のうち、第1の高さと異なる方の高さのことである。この実施例では、第1の高さは、切断範囲の上限の高さであるので、第2の高さは、切断範囲の下限の高さ、たとえば600mmである。 Then, in step S35, it is determined whether or not the cutting height is the second height. However, the second height is the height of the upper limit or the lower limit of the cutting range, whichever is different from the first height. In this embodiment, the first height is the upper limit height of the cutting range, so the second height is the lower limit height of the cutting range, eg, 600 mm.
ステップS35で“YES”であれば、つまり、切断高さが第2の高さであると判断した場合は、後述するステップS41に進む。一方、ステップS35で“NO”であれば、つまり、切断高さが第2の高さでないと判断した場合は、ステップS37で、オブジェクト34の面積(断面積)が所定面積以上かどうかを判断する。ここでは、塊り距離画像30に含まれる全てのオブジェクト34の合計面積が、塊り距離画像30の全面積(横断面画像32の全面積)に対して所定の割合(75~90%)を超えるかどうかを判断する。 If "YES" in step S35, that is, if it is determined that the cutting height is the second height, the process proceeds to step S41, which will be described later. On the other hand, if "NO" in step S35, that is, if it is determined that the cutting height is not the second height, it is determined in step S37 whether the area (cross-sectional area) of the object 34 is equal to or larger than a predetermined area. do. Here, the total area of all the objects 34 included in the clump distance image 30 is a predetermined percentage (75 to 90%) of the total area of the clump distance image 30 (the total area of the cross-sectional image 32). determine whether to exceed
ステップS37で“NO”であれば、つまり、オブジェクトの面積が所定面積以上でないと判断した場合は、ステップS39で、切断高さを変更して、ステップS23に戻る。ここでは、切断高さは、第1の高さから第2の高さに近づくように変更される。すなわち、切断高さは、切断範囲の上限または下限のうち、いずれか一方の高さから、他方の高さに近づくように変更される。この実施例では、切断高さは、切断範囲の上限の高さ(1800mm)から切断範囲の下限の高さ(600mm)に近づくように変更される。 If "NO" in step S37, that is, if it is determined that the area of the object is not equal to or greater than the predetermined area, then in step S39 the cutting height is changed and the process returns to step S23. Here, the cutting height is changed from the first height to approach the second height. That is, the cutting height is changed from either the upper limit or the lower limit of the cutting range so as to approach the other height. In this example, the cutting height is changed from the upper cutting range height (1800 mm) to approach the lower cutting range height (600 mm).
切断高さが変更される幅(変更幅)は、たとえば5~40mmである。ただし、切断高さの変更幅は、距離画像センサ12の検出精度およびオブジェクトの状況によって適宜調整される。この実施例では、切断高さの変更幅は、初期設定としては、距離画像センサ12の検出精度を考慮して10~40mmに設定されている。ただし、横断面画像32に含まれるオブジェクトの合計面積が、塊り距離画像30の全面積(横断面画像32の全面積)に対して所定の割合(10~20%)を超える場合、または直前の横断面画像32に複数のオブジェクトが含まれる場合には、切断高さの変更幅が小さく(たとえば5~20mm)設定される。また、直前の横断面画像32にオブジェクトが含まれない場合には、切断高さの変更幅が大きく設定されても良い。
The width (change width) by which the cutting height is changed is, for example, 5 to 40 mm. However, the amount of change in the cutting height is appropriately adjusted depending on the detection accuracy of the
一方、ステップS37で“YES”であれば、つまり、オブジェクトの面積が所定面積以上であると判断した場合は、ステップS41で、追跡リストに登録されたオブジェクト34の頭部の数を、塊り距離画像30に含まれる人数としてカウントして、ステップS43で、追跡リストに登録されたオブジェクト34の頭部の位置を、塊り距離画像30に含まれる人の位置として検出して、メイン処理にリターンする。 On the other hand, if "YES" in step S37, that is, if it is determined that the area of the object is equal to or larger than the predetermined area, then in step S41, the number of heads of the objects 34 registered in the tracking list is The number of people included in the distance image 30 is counted, and in step S43, the position of the head of the object 34 registered in the tracking list is detected as the position of the person included in the clump distance image 30, and the main processing is performed. return.
このように、第1実施例によれば、塊り距離画像30毎に人認識処理を実行することによって、塊り距離画像30毎の人の位置と数が認識される。そして、全体距離画像に含まれる塊り距離画像30毎の人数を合計することによって、計測領域(全体距離画像)に存在する人数を認識することができる。また、計測領域(全体距離画像)に存在する人の位置を検出することができる。すなわち、或るタイミングで撮影された1フレームの距離画像を処理することによって正確に当該1フレームの距離画像内における、人数カウントおよび人の位置の検出を行うことができる。
さらに、第1実施例によれば、横断面画像32に含まれる物体の輪郭線の大きさおよび当該輪郭線の形状から、人の頭部として推定できるオブジェクト34が存在するかどうかを検出するので、頭部の検出が正確に行える。
As described above, according to the first embodiment, by executing the human recognition process for each lumped distance image 30, the positions and numbers of persons for each lumped distance image 30 are recognized. The number of people present in the measurement area (whole distance image) can be recognized by totaling the number of people for each cluster distance image 30 included in the whole distance image. In addition, it is possible to detect the position of a person existing in the measurement area (entire distance image). That is, by processing a one-frame distance image captured at a certain timing, it is possible to accurately count the number of people and detect the positions of people in the one-frame distance image.
Furthermore, according to the first embodiment, it is detected whether or not there is an object 34 that can be estimated as a human head from the size and shape of the outline of the object included in the cross-sectional image 32. , the head can be detected accurately.
さらにまた、第1実施例によれば、或る横断面画像32で複数のオブジェクト34が検出された場合には、複数の横断面画像32における各オブジェクト34の互いの距離に応じて、別のオブジェクト34であるかどうかを検出するので、複数の人が近接している場合であっても、人数の計測を正確に行える。たとえば、親が子を抱っこしているような状態であっても、親子を分離して検出することができる。 Furthermore, according to the first embodiment, when a plurality of objects 34 are detected in a certain cross-sectional image 32, another Since it detects whether it is an object 34 or not, the number of people can be accurately counted even when a plurality of people are close to each other. For example, even when a parent is holding a child, the parent and child can be detected separately.
<第2実施例>
第2実施例の人認識システム10は、塊り分離処理を省略し、全体距離画像24から複数の横断面画像32を生成して、計測領域(全体距離画像)に存在する人の数を認識するようにした以外は第1実施例と同じである。以下、第2実施例の人認識システム10について説明するが、第1実施例で説明した内容と重複する内容については省略することにする。
<Second embodiment>
The
図11に示すように、第2実施例の人認識システム10では、人認識動作のメイン処理においては、第1実施例で説明したステップS9の塊り分離処理が省略される。したがって、第2実施例では、ステップS7までの前処理が終わった全体距離画像24に基づいて、ステップS11で、人認識処理が実行される。
As shown in FIG. 11, in the
コンピュータ14は、人認識処理を開始すると、ステップS21で、切断高さを第1の高さに設定し、ステップS51で、設定された切断高さで全体距離画像24を切断した横断面画像32を生成する。
When the
そして、ステップS25からステップS35までの処理を第1実施例と同様に実行し、ステップS35で“YES”であれば、つまり、切断高さが第2の高さであると判断した場合は、ステップS53で、追跡リストに登録されたオブジェクト34の数を、全体距離画像24(計測領域)に含まれる人数としてカウントして、ステップS55で、追跡リストに登録されたオブジェクト34の頭部の位置を、全体距離画像24(計測領域)に含まれる人の位置として検出して、メイン処理にリターンする。また、第2実施例の人認識処理では、第1実施例で説明したステップS37が省略される。したがって、ステップS35で“NO”であれば、つまり、切断高さが第2の高さでないと判断した場合はステップS39で、切断高さを変更して、ステップS23に戻る。 Then, the processing from step S25 to step S35 is executed in the same manner as in the first embodiment, and if "YES" in step S35, that is, if it is determined that the cutting height is the second height, In step S53, the number of objects 34 registered in the tracking list is counted as the number of persons included in the overall distance image 24 (measurement area). is detected as the position of the person included in the overall distance image 24 (measurement area), and the process returns to the main processing. Also, in the human recognition process of the second embodiment, step S37 described in the first embodiment is omitted. Therefore, if "NO" in step S35, that is, if it is determined that the cutting height is not the second height, then in step S39 the cutting height is changed and the process returns to step S23.
このように、第2実施例によれば、図13に示すように、全体距離画像24に基づいて人認識処理を実行することによって、全体距離画像24に含まれるオブジェクト34の数を、全体距離画像24に含まれる人数としてカウントして、計測領域に存在する人数を認識することができる。また、計測領域(全体距離画像)に存在する人の位置を検出することができる。すなわち、或るタイミングで撮影された1フレームの距離画像を処理することによって正確に人数カウントを行うことができる。 As described above, according to the second embodiment, as shown in FIG. 13, the number of objects 34 included in the overall distance image 24 is calculated by executing the human recognition process based on the overall distance image 24. By counting the number of people included in the image 24, the number of people present in the measurement area can be recognized. In addition, it is possible to detect the position of a person existing in the measurement area (entire distance image). That is, it is possible to accurately count the number of people by processing a one-frame distance image captured at a certain timing.
上述の実施例では、図4(図7、図11、図12)のすべてのステップを1つのコンピュータ14が実行するものとして説明したが、複数のコンピュータを用いてもよく、あるいは特定の処理をコンピュータではなくDSPのような専用処理回路で処理するようにしてもよい。
In the above embodiment, all the steps in FIG. 4 (FIGS. 7, 11, and 12) were described as being executed by one
なお、上で挙げた角度、距離、時間の長さ、割合および変更幅などの具体的数値はいずれも単なる一例であり、必要に応じて適宜変更可能である。 It should be noted that the specific numerical values such as the angles, distances, lengths of time, ratios, and widths of change given above are merely examples, and can be changed as needed.
10 …人認識システム
12 …距離画像センサ
14 …コンピュータ
16 …メモリ
18 …ディスプレイ
DESCRIPTION OF
Claims (6)
前記距離画像から人の形状に類似した塊りを選別してその塊りを含む塊り距離画像を抽出する塊り距離画像抽出部、
前記塊り距離画像から高さの異なる複数の切断面で距離画像を切断した複数の横断面画像を生成する横断面画像生成部、および
前記複数の横断面画像に基づいて、前記塊り距離画像に含まれる人の位置および数を認識し、前記塊り距離画像の数および前記塊り距離画像に含まれる人の位置および数に応じて、前記計測領域に存在する人の位置および数を認識する人認識部を備える、人認識システム。 a distance image sensor that captures a measurement area in which people stay or pass through from above and outputs a distance image;
a lump distance image extraction unit that selects a lump similar to a human shape from the distance image and extracts a lump distance image containing the lump;
a cross-sectional image generating unit for generating a plurality of cross-sectional images obtained by cutting the distance image from the clustered distance image at a plurality of cutting planes having different heights; and generating the clustered distance image based on the plurality of cross-sectional images. recognizing the positions and number of people included in the measurement area, and recognizing the positions and the number of people present in the measurement area according to the number of the clump distance images and the positions and the number of people included in the clump distance images. A human recognition system comprising a human recognition unit that
前記距離画像から人の形状に類似した塊りを選別してその塊りを含む塊り距離画像を抽出する塊り距離画像抽出部、
前記塊り距離画像から高さの異なる複数の切断面で距離画像を切断した複数の横断面画像を生成する横断面画像生成部、および
前記複数の横断面画像に基づいて、前記塊り距離画像に含まれる人の位置および数を認識し、前記塊り距離画像の数および前記塊り距離画像に含まれる人の位置および数に応じて、前記計測領域に存在する人の位置および数を認識する人認識部として機能させる、人認識プログラム。 A human recognition system computer equipped with a distance image sensor that captures from above a measurement area where a person stays or passes through and outputs a distance image,
a lump distance image extraction unit that selects a lump similar to a human shape from the distance image and extracts a lump distance image containing the lump;
a cross-sectional image generation unit for generating a plurality of cross-sectional images obtained by cutting the distance image from the clustered distance image at a plurality of cutting planes having different heights; and generating the clustered distance image based on the plurality of cross-sectional images. and recognizes the positions and number of people present in the measurement area according to the number of clump distance images and the positions and numbers of people included in the clump distance images. A human recognition program that functions as a human recognition unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019074567A JP7311299B2 (en) | 2019-04-10 | 2019-04-10 | Human recognition system and human recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019074567A JP7311299B2 (en) | 2019-04-10 | 2019-04-10 | Human recognition system and human recognition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020173145A JP2020173145A (en) | 2020-10-22 |
JP7311299B2 true JP7311299B2 (en) | 2023-07-19 |
Family
ID=72830985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019074567A Active JP7311299B2 (en) | 2019-04-10 | 2019-04-10 | Human recognition system and human recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7311299B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001012922A (en) | 1999-06-29 | 2001-01-19 | Minolta Co Ltd | Three-dimensional data-processing device |
JP2003057007A (en) | 2001-08-10 | 2003-02-26 | Matsushita Electric Works Ltd | Human body detection method using distance image |
JP2003058884A (en) | 2001-08-13 | 2003-02-28 | Nippon Signal Co Ltd:The | Object presence density measuring instrument |
JP2005134120A (en) | 2003-10-28 | 2005-05-26 | Matsushita Electric Works Ltd | Composite-type human body sensing switch |
JP2006064695A (en) | 2004-07-30 | 2006-03-09 | Matsushita Electric Works Ltd | Individual detector and accompanying detection device |
JP2007213353A (en) | 2006-02-09 | 2007-08-23 | Honda Motor Co Ltd | Apparatus for detecting three-dimensional object |
JP2009086986A (en) | 2007-09-28 | 2009-04-23 | Jr East Mechatronics Co Ltd | Ticket examination system, person detection unit, and automatic ticket gate |
JP2011185664A (en) | 2010-03-05 | 2011-09-22 | Panasonic Electric Works Co Ltd | Object detector |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3081396B2 (en) * | 1992-12-09 | 2000-08-28 | 東京電力株式会社 | Image processing device |
-
2019
- 2019-04-10 JP JP2019074567A patent/JP7311299B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001012922A (en) | 1999-06-29 | 2001-01-19 | Minolta Co Ltd | Three-dimensional data-processing device |
JP2003057007A (en) | 2001-08-10 | 2003-02-26 | Matsushita Electric Works Ltd | Human body detection method using distance image |
JP2003058884A (en) | 2001-08-13 | 2003-02-28 | Nippon Signal Co Ltd:The | Object presence density measuring instrument |
JP2005134120A (en) | 2003-10-28 | 2005-05-26 | Matsushita Electric Works Ltd | Composite-type human body sensing switch |
JP2006064695A (en) | 2004-07-30 | 2006-03-09 | Matsushita Electric Works Ltd | Individual detector and accompanying detection device |
JP2007213353A (en) | 2006-02-09 | 2007-08-23 | Honda Motor Co Ltd | Apparatus for detecting three-dimensional object |
JP2009086986A (en) | 2007-09-28 | 2009-04-23 | Jr East Mechatronics Co Ltd | Ticket examination system, person detection unit, and automatic ticket gate |
JP2011185664A (en) | 2010-03-05 | 2011-09-22 | Panasonic Electric Works Co Ltd | Object detector |
Also Published As
Publication number | Publication date |
---|---|
JP2020173145A (en) | 2020-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11360571B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
US10893251B2 (en) | Three-dimensional model generating device and three-dimensional model generating method | |
US9818023B2 (en) | Enhanced face detection using depth information | |
CN105631515B (en) | People flow counting system | |
JP6125188B2 (en) | Video processing method and apparatus | |
US9305206B2 (en) | Method for enhancing depth maps | |
WO2016199244A1 (en) | Object recognition device and object recognition system | |
KR101530255B1 (en) | Cctv system having auto tracking function of moving target | |
JP2006268345A (en) | Image processing device and image processing method | |
US10991124B2 (en) | Determination apparatus and method for gaze angle | |
JP2018156408A (en) | Image recognizing and capturing apparatus | |
JP7255173B2 (en) | Human detection device and human detection method | |
JP4288428B2 (en) | Video analysis system and video analysis method | |
CN115457176A (en) | Image generation method and device, electronic equipment and storage medium | |
JP2009211122A (en) | Image processor and object estimation program | |
CN112257617B (en) | Multi-modal target recognition method and system | |
KR101889051B1 (en) | Method for increasing reliability in monitoring systems | |
JP7311299B2 (en) | Human recognition system and human recognition program | |
JP4628910B2 (en) | Length measuring device and height measuring device | |
JP7079466B2 (en) | Human attribute recognition system and program | |
JP5935118B2 (en) | Object detection apparatus and object detection method | |
KR101355206B1 (en) | A count system of coming and going using image analysis and method thereof | |
CN113062421A (en) | Intelligent closestool for health detection and health detection method thereof | |
JP3810755B2 (en) | POSITION JUDGING DEVICE, MOVING ROUTE CALCULATION DEVICE, POSITION JUDGING METHOD AND PROGRAM | |
CN111368608A (en) | Face recognition method, device and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230306 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7311299 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |