JP5756709B2 - Height estimation device, height estimation method, and height estimation program - Google Patents

Height estimation device, height estimation method, and height estimation program Download PDF

Info

Publication number
JP5756709B2
JP5756709B2 JP2011170549A JP2011170549A JP5756709B2 JP 5756709 B2 JP5756709 B2 JP 5756709B2 JP 2011170549 A JP2011170549 A JP 2011170549A JP 2011170549 A JP2011170549 A JP 2011170549A JP 5756709 B2 JP5756709 B2 JP 5756709B2
Authority
JP
Japan
Prior art keywords
height
target person
assumed
estimated
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011170549A
Other languages
Japanese (ja)
Other versions
JP2013037406A5 (en
JP2013037406A (en
Inventor
二見 聡
聡 二見
拓雄 森口
拓雄 森口
央智 牛島
央智 牛島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOHGO SECURITY SERVICES CO.,LTD.
Original Assignee
SOHGO SECURITY SERVICES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOHGO SECURITY SERVICES CO.,LTD. filed Critical SOHGO SECURITY SERVICES CO.,LTD.
Priority to JP2011170549A priority Critical patent/JP5756709B2/en
Publication of JP2013037406A publication Critical patent/JP2013037406A/en
Publication of JP2013037406A5 publication Critical patent/JP2013037406A5/ja
Application granted granted Critical
Publication of JP5756709B2 publication Critical patent/JP5756709B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、身長推定装置、身長推定方法、及び身長推定プログラムに関する。   The present invention relates to a height estimation device, a height estimation method, and a height estimation program.

従来から、画像上の人物の足元位置から当該人物の実空間上の位置を推定し、推定した実空間上の位置から当該人物の身長を推定し、推定した身長を用いて当該人物の画像上の隠蔽箇所を特定し、当該人物の実空間上の正確な位置を推定・追跡する技術が知られている(例えば、特許文献1参照)。   Conventionally, the position of the person in the real space is estimated from the position of the person's foot on the image, the height of the person is estimated from the estimated position in the real space, and the estimated height is used to A technique for identifying a concealed portion of the person and estimating and tracking the exact position of the person in the real space is known (see, for example, Patent Document 1).

特開2010−237872号公報JP 2010-237872 A

しかしながら、上述したような従来技術では、画像上の人物の足元位置が隠蔽されている場合、身長の推定精度が低下してしまう。   However, in the conventional technology as described above, when the foot position of the person on the image is concealed, the estimation accuracy of the height is lowered.

本発明は、上記事情に鑑みてなされたものであり、画像上で人物の足元位置が隠蔽されていても当該人物の身長を精度よく推定する身長推定装置、身長推定方法、及び身長推定プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and includes a height estimation device, a height estimation method, and a height estimation program for accurately estimating the height of a person even if the foot position of the person is concealed on an image. The purpose is to provide.

上述した課題を解決し、目的を達成するために、本発明の一態様にかかる身長推定装置は、対象人物を含む画像を時系列で撮像する撮像部と、時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出部と、検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定部と、推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定部と、前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, a height estimation apparatus according to one aspect of the present invention includes an imaging unit that captures an image including a target person in time series, and each of the images captured in time series. A head detecting unit that detects the head of the target person from the above, and a foot that estimates the foot position of the target person for each assumed height from each of the images captured in time series using the detected head A position estimation unit, a real space position estimation unit that estimates the position of the target person in real space in time series for each assumed height, using the estimated foot position, and is estimated for each assumed height. And a height estimation unit that creates a human-like movement trajectory using a time-series position in the real space and estimates the assumed height from which the most human-like movement trajectory was created to the height of the target person. To do.

また、本発明の別の態様にかかる身長推定方法は、撮像部が、対象人物を含む画像を時系列で撮像する撮像ステップと、頭部検出部が、時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出ステップと、足元位置推定部が、検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定ステップと、実空間位置推定部が、推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定ステップと、身長推定部が、前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定ステップと、を含むことを特徴とする。   The height estimation method according to another aspect of the present invention includes an imaging step in which an imaging unit images an image including a target person in time series, and a head detection unit from each of the images captured in time series. A head detection step for detecting the head of the target person, and a foot position estimation unit assuming the foot position of the target person from each of the images captured in time series using the detected head. A step of estimating a foot position every time, and a real space position estimating unit that estimates the position of the target person in real space in time series for each assumed height using the estimated foot position. An estimation step and a height estimation unit creates a human-like movement trajectory using the estimated time-series position in the real space for each of the assumed heights, and uses the assumed height from which the most human-like movement trajectory was created as the target. Person's height Characterized in that it comprises a body height estimating step of estimating, the.

また、本発明の別の態様にかかる身長推定プログラムは、対象人物を含む画像を時系列で撮像する撮像ステップと、時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出ステップと、検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定ステップと、推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定ステップと、前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定ステップと、をコンピュータに実行させるためのものである。   The height estimation program according to another aspect of the present invention includes an imaging step of capturing an image including a target person in time series, and a head for detecting the head of the target person from each of the images captured in time series. A step of estimating a foot position of the target person for each assumed height from each of the images captured in time series using the detected head, and the estimated foot position A real space position estimation step for estimating the position of the target person in real space for each assumed height in a time series, and the estimated time series position in the real space for each assumed height. A human-like movement trajectory, and a computer that executes a height estimation step of estimating the assumed height from which the most human-like movement trajectory was created to the height of the target person. .

本発明によれば、画像上で人物の足元位置が隠蔽されていても当該人物の身長を精度よく推定することができるという効果を奏する。   According to the present invention, there is an effect that the height of a person can be accurately estimated even if the foot position of the person is concealed on the image.

図1は、第1実施形態の身長推定装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of a configuration of the height estimation apparatus according to the first embodiment. 図2は、第1実施形態の足元位置推定部による足元位置推定手法の一例の説明図である。FIG. 2 is an explanatory diagram illustrating an example of a foot position estimation method performed by the foot position estimation unit according to the first embodiment. 図3は、第1実施形態の記憶部に記憶される仮定身長毎の対象人物の実空間上の位置の一例の説明図である。FIG. 3 is an explanatory diagram illustrating an example of a position in the real space of the target person for each assumed height stored in the storage unit according to the first embodiment. 図4は、第1実施形態の身長推定部により作成された移動軌跡の一例を示す図である。FIG. 4 is a diagram illustrating an example of a movement trajectory created by the height estimation unit according to the first embodiment. 図5は、仮定身長と当該仮定身長から推定される対象人物の実空間上の位置との関係の一例を示す図である。FIG. 5 is a diagram illustrating an example of the relationship between the assumed height and the position of the target person in real space estimated from the assumed height. 図6は、仮定身長と当該仮定身長から推定される対象人物の横移動との関係の一例を示す図である。FIG. 6 is a diagram illustrating an example of the relationship between the assumed height and the lateral movement of the target person estimated from the assumed height. 図7は、仮定身長と当該仮定身長から推定される対象人物の実空間上の移動距離との関係の一例を示す図である。FIG. 7 is a diagram illustrating an example of the relationship between the assumed height and the movement distance of the target person estimated from the assumed height in real space. 図8は、仮定身長と当該仮定身長から推定される対象人物の実空間上の移動距離との関係の一例を示す図である。FIG. 8 is a diagram illustrating an example of the relationship between the assumed height and the moving distance of the target person in real space estimated from the assumed height. 図9は、仮定身長と当該仮定身長から推定される対象人物の縦移動との関係の一例を示す図である。FIG. 9 is a diagram illustrating an example of the relationship between the assumed height and the vertical movement of the target person estimated from the assumed height. 図10は、第1実施形態の身長推定装置で行われる身長推定処理の手順の流れの一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of a flow of a height estimation process performed by the height estimation apparatus according to the first embodiment. 図11は、第1実施形態の身長推定装置の身長推定部で行われる処理の手順の流れの一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of a flow of processes performed by the height estimation unit of the height estimation apparatus according to the first embodiment. 図12は、第2実施形態の身長推定装置の構成の一例を示すブロック図である。FIG. 12 is a block diagram illustrating an example of a configuration of the height estimation apparatus according to the second embodiment. 図13は、第2実施形態の身長推定装置で行われる追跡処理の手順の流れの一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of a flow of a tracking process performed by the height estimation apparatus according to the second embodiment. 図14は、変形例1の身長推定装置で行われるしゃがみ込み判定処理の手順の流れの一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of a flow of a squatting determination process performed by the height estimation apparatus according to the first modification. 図15は、変形例2の身長推定装置で行われるしゃがみ込み判定処理の手順の流れの一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of a flow of a squatting determination process performed by the height estimation apparatus according to the second modification.

以下、添付図面を参照しながら、本発明にかかる身長推定装置、身長推定方法、及び身長推定プログラムの実施形態を詳細に説明する。   Hereinafter, embodiments of a height estimation device, a height estimation method, and a height estimation program according to the present invention will be described in detail with reference to the accompanying drawings.

(第1実施形態)
まず、第1実施形態の身長推定装置の構成について説明する。
(First embodiment)
First, the structure of the height estimation apparatus of 1st Embodiment is demonstrated.

図1は、第1実施形態の身長推定装置100の構成の一例を示すブロック図である。図1に示すように、身長推定装置100は、入力部110と、記憶部120と、撮像部130と、制御部140と、表示部150とを、備える。   FIG. 1 is a block diagram illustrating an example of the configuration of the height estimation apparatus 100 according to the first embodiment. As shown in FIG. 1, the height estimation device 100 includes an input unit 110, a storage unit 120, an imaging unit 130, a control unit 140, and a display unit 150.

入力部110は、各種データを入力するものであり、例えば、キーボードやマウスなどの既存の入力装置により実現できる。入力部110は、例えば、複数の仮定身長、後述の撮像部130の撮像パラメータ、及び基準データなどを入力する。   The input unit 110 inputs various data, and can be realized by an existing input device such as a keyboard or a mouse. The input unit 110 inputs, for example, a plurality of assumed heights, imaging parameters of the imaging unit 130 described later, reference data, and the like.

撮像パラメータは、本実施形態では、撮像部130の設置高、俯角、画角、及び画像上の消失点とするが、これに限定されるものではない。基準データは、本実施形態では、基準物の高さ、撮像部130から基準物の距離、基準物の画像上の位置とするが、これに限定されるものではない。基準データは、撮像部130の内部・外部パラメータなどであってもよい。   In this embodiment, the imaging parameters are the installation height of the imaging unit 130, the depression angle, the angle of view, and the vanishing point on the image, but are not limited thereto. In the present embodiment, the reference data includes the height of the reference object, the distance from the imaging unit 130 to the reference object, and the position of the reference object on the image, but is not limited thereto. The reference data may be internal / external parameters of the imaging unit 130.

記憶部120には、入力部110から入力された各種データや後述の制御部140により処理されたデータなどが記憶される。記憶部120は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びRAM(Random Access Memory)などの磁気的、光学的、又は電気的に記憶可能な既存の各種記憶装置の少なくともいずれかにより実現できる。   The storage unit 120 stores various data input from the input unit 110 and data processed by the control unit 140 described later. The storage unit 120 is, for example, at least one of various existing storage devices that can store magnetically, optically, or electrically such as a hard disk drive (HDD), a solid state drive (SSD), and a random access memory (RAM). It can be realized by either.

撮像部130は、対象人物を含む画像を時系列で撮像するものであり、例えば、デジタルカメラなどにより実現できる。   The imaging unit 130 captures an image including the target person in time series, and can be realized by, for example, a digital camera.

制御部140は、身長推定装置100の各部を制御するものであり、例えば、CPU(Central Processing Unit)などにより実現できる。制御部140は、頭部検出部141と、足元位置推定部143と、実空間位置推定部145と、身長推定部147とを、備える。   The control unit 140 controls each unit of the height estimation apparatus 100 and can be realized by, for example, a CPU (Central Processing Unit). The control unit 140 includes a head detection unit 141, a foot position estimation unit 143, a real space position estimation unit 145, and a height estimation unit 147.

頭部検出部141は、撮像部130により時系列で撮像された画像それぞれから対象人物の頭部を検出する。頭部検出部141は、例えば、フィルタを用いて画像から対象人物の頭部を検出する。フィルタは、例えば、「移動体の上端を頭部上端とする」など頭部と思われる位置を検出できれば、どのようなものであってもよい。   The head detection unit 141 detects the head of the target person from each of the images captured in time series by the imaging unit 130. For example, the head detection unit 141 detects the head of the target person from the image using a filter. The filter may be any filter as long as it can detect the position considered to be the head, such as “the upper end of the moving body is the upper end of the head”.

足元位置推定部143は、頭部検出部141により検出された頭部を用いて、撮像部130により時系列で撮像された画像それぞれから対象人物の足元位置を仮定身長毎に推定する。具体的には、足元位置推定部143は、入力部110により入力され記憶部120に記憶されている複数の仮定身長及び撮像パラメータと頭部検出部141により検出された頭部とを用いて、撮像部130により時系列で撮像された画像それぞれから対象人物の足元位置を仮定身長毎に推定する。   The foot position estimation unit 143 uses the head detected by the head detection unit 141 to estimate the foot position of the target person for each assumed height from each of the images captured in time series by the imaging unit 130. Specifically, the foot position estimation unit 143 uses a plurality of assumed heights and imaging parameters input by the input unit 110 and stored in the storage unit 120, and the head detected by the head detection unit 141, The foot position of the target person is estimated for each assumed height from each of the images captured in time series by the imaging unit 130.

図2は、第1実施形態の足元位置推定部143による足元位置推定手法の一例の説明図である。図2に示す例では、設置高Hcam、俯角α、垂直画角β(図示省略)、及び消失点P(X,Y)は、撮像パラメータに該当し、既知である。また、対象人物160の画像上の頭部座標P(X,Y)は、頭部検出部141により検出される頭部に該当し、既知である。また、対象人物160の身長Hman、は、仮定身長に該当し、既知である。なお本実施形態では、仮定身長は、155cm〜185cmの範囲で5cm刻みに設定されているものとする。つまり、仮定身長は、155cm、160cm、165cm、170cm、175cm、180cm、及び185cmであるものとする。 FIG. 2 is an explanatory diagram illustrating an example of a foot position estimation method performed by the foot position estimation unit 143 according to the first embodiment. In the example shown in FIG. 2, the installation height H cam , the depression angle α, the vertical angle of view β v (not shown), and the vanishing point P v (X v , Y v ) correspond to the imaging parameters and are known. The head coordinates P h (X h , Y h ) on the target person 160 image correspond to the head detected by the head detection unit 141 and are known. Further, the height H man of the target person 160 corresponds to the assumed height and is known. In this embodiment, it is assumed that the assumed height is set in increments of 5 cm in a range of 155 cm to 185 cm. That is, the assumed height is assumed to be 155 cm, 160 cm, 165 cm, 170 cm, 175 cm, 180 cm, and 185 cm.

ここで、対象人物160の画像上の足元位置座標をP(X,Y)とすると、足元位置推定部143は、対象人物160の身長Hman(仮定身長)毎に、数式(1)を用いて、対象人物160の足元位置Yを推定する。 Here, assuming that the foot position coordinates on the image of the target person 160 are P f (X f , Y f ), the foot position estimation unit 143 calculates the formula (1) for each height H man (assumed height) of the target person 160. ) is used to estimate the foot position Y f of the target person 160.

Figure 0005756709
Figure 0005756709

ここで、Aは、数式(2)により表され、Bは、数式(3)により表される。   Here, A is represented by Equation (2), and B is represented by Equation (3).

Figure 0005756709
Figure 0005756709

Figure 0005756709
Figure 0005756709

ここで、撮像部130から対象人物160の頭部に向かう第1ベクトルV1と、当該第1ベクトルとX軸及びY軸方向の成分が同一で且つZ軸方向の成分が撮像部130の光軸と同一な第2ベクトルV2とのなす角ρhは、数式(4)により表される。なお、撮像部130の正面に対象人物160が存在する場合には、図2に示すように、撮像部130から対象人物160の頭部に向かう第1ベクトルV1と、撮像部130の光軸(第2ベクトルV2)とのなす角がρ h となる。 Here, the first vector V1 heading from the imaging unit 130 toward the head of the target person 160, the first vector, the X-axis and Y-axis direction components are the same, and the Z-axis direction component is the optical axis of the imaging unit 130. The angle ρ h formed by the same second vector V2 is expressed by Equation (4). When the target person 160 is present in front of the imaging unit 130, as shown in FIG. 2, the first vector V1 from the imaging unit 130 toward the head of the target person 160 and the optical axis of the imaging unit 130 ( angle between the second vector V2) is [rho h.

Figure 0005756709
Figure 0005756709

なお、imgHeightは、画像の高さ(縦方向の画素数)であり、既知であるものとする。   Note that imgHeight is the height of the image (the number of pixels in the vertical direction) and is known.

実空間位置推定部145は、足元位置推定部143により推定された足元位置を用いて、対象人物の実空間上の位置を仮定身長毎に時系列で推定する。具体的には、実空間位置推定部145は、入力部110により入力され記憶部120に記憶されている撮像パラメータ及び基準データと足元位置推定部143により推定された足元位置とを用いて、対象人物の実空間上の位置を仮定身長毎に時系列で推定する。   The real space position estimation unit 145 uses the foot position estimated by the foot position estimation unit 143 to estimate the position of the target person in real space for each assumed height in time series. Specifically, the real space position estimation unit 145 uses the imaging parameters and reference data input by the input unit 110 and stored in the storage unit 120, and the foot position estimated by the foot position estimation unit 143, The position of a person in real space is estimated in time series for each assumed height.

実空間位置推定部145は、例えば、特開2008−286638号公報に記載されている手法を用いて、対象人物の実空間上の位置を仮定身長毎に時系列で推定することができる。但し、特開2008−286638号公報に記載されている手法では、カメラを水平設置(俯角=0)とすることを条件としているため、俯角の影響を取り除く必要がある。   The real space position estimation unit 145 can estimate the position of the target person in the real space for each assumed height in time series using, for example, the method described in Japanese Patent Application Laid-Open No. 2008-286638. However, the technique described in Japanese Patent Application Laid-Open No. 2008-286638 requires that the camera be installed horizontally (angle of depression = 0), and therefore it is necessary to remove the influence of the depression angle.

具体的に説明すると、特開2008−286638号公報に記載されている手法では、遠近法を用いて、人物の見かけ上の大きさ(画像上の人物の高さに相当する画素数)から人物とカメラとの距離を求めている。しかし、画像上の人物の高さに相当する画素数は、俯角が0でない場合、人物とカメラとの距離だけではなく、俯角の影響も受けることになる。   Specifically, in the method described in Japanese Patent Application Laid-Open No. 2008-286638, the perspective is used to calculate the person's apparent size (the number of pixels corresponding to the person's height on the image) from the person. Find the distance between the camera and the camera. However, if the depression angle is not 0, the number of pixels corresponding to the height of the person on the image is affected not only by the distance between the person and the camera but also by the depression angle.

このため、本実施形態において特開2008−286638号公報に記載されている手法を用いる場合、実空間位置推定部145は、俯角の影響により変化してしまった画像上の人物の高さに相当する画素数を数式(5)で補正する。そして実空間位置推定部145は、補正後の画像上の人物の高さに相当する画素数に遠近法を適用することにより、俯角の影響を取り除いた人物の大きさを求め、実空間上の人物の位置を推定する。   For this reason, when using the method described in Japanese Patent Application Laid-Open No. 2008-286638 in this embodiment, the real space position estimation unit 145 corresponds to the height of the person on the image that has changed due to the influence of the depression angle. The number of pixels to be corrected is corrected by equation (5). Then, the real space position estimation unit 145 obtains the size of the person from which the influence of the depression angle is removed by applying a perspective method to the number of pixels corresponding to the height of the person on the corrected image, Estimate the position of a person.

S’=S(cosα+sinαtan(α+ρ)) …(5) S ′ = S (cos α + sin α tan (α + ρ h )) (5)

なお、S’[pixels]は、補正後の画像上の人物の高さに相当する画素数であり、S[pixels]は、補正前の画像上の人物の高さに相当する画素数である。   Note that S ′ [pixels] is the number of pixels corresponding to the height of the person on the image after correction, and S [pixels] is the number of pixels corresponding to the height of the person on the image before correction. .

そして実空間位置推定部145は、推定した各仮定身長の対象人物の実空間上の位置を時系列(フレーム)毎に記憶部120に記憶する。なお実空間位置推定部145は、仮定身長毎の対象人物の実空間上の位置を、直近Fフレーム分記憶部120に記憶しておく。つまり、実空間位置推定部145は、最古フレームにおける仮定身長毎の対象人物の実空間上の位置を記憶部120から削除した後に、最新フレームにおける仮定身長毎の対象人物の実空間上の位置を記憶部120に記憶する。なお本実施形態では、Fを10とするが、これに限定されるものではなく、適宜設定することができる。   Then, the real space position estimation unit 145 stores the estimated position of the target person of each assumed height in real space in the storage unit 120 for each time series (frame). The real space position estimation unit 145 stores the position of the target person in real space for each assumed height in the storage unit 120 for the latest F frames. That is, the real space position estimation unit 145 deletes the position of the target person in the oldest frame for each assumed height in real space from the storage unit 120, and then deletes the position of the target person in the latest frame in real space for each assumed height. Is stored in the storage unit 120. In this embodiment, F is set to 10. However, the present invention is not limited to this, and can be set as appropriate.

図3は、第1実施形態の記憶部120に記憶される仮定身長毎の対象人物の実空間上の位置の一例の説明図である。図3に示す例では、実空間位置推定部145は、フレームNo、日時、身長(複数の仮定身長)、及び位置(仮定身長に対応する実空間上の位置)を対応付けて記憶部120に記憶している。   FIG. 3 is an explanatory diagram illustrating an example of a position in the real space of the target person for each assumed height stored in the storage unit 120 according to the first embodiment. In the example illustrated in FIG. 3, the real space position estimation unit 145 associates the frame number, date and time, height (a plurality of assumed heights), and position (a position in the real space corresponding to the assumed height) in the storage unit 120. I remember it.

身長推定部147は、仮定身長毎に、推定された実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を対象人物の身長に推定する。   The height estimation unit 147 creates a human-like movement trajectory using the estimated time-series position in the real space for each assumed height, and estimates the assumed height from which the most human-like movement trajectory was created to the height of the target person. .

具体的には、身長推定部147は、仮定身長それぞれに対し、推定された実空間上の時系列の位置毎に当該位置の次の位置へ対象人物が移動可能か否かを判定する。本実施形態では、身長推定部147は、時系列の間隔、即ち、フレーム間で対象人物が移動可能な範囲を予め定めており、推定された実空間上の時系列の位置毎に当該位置と次の位置との距離が予め定めた移動可能な範囲に収まるか否かで対象人物が移動可能か否かを判定する。ここで、人間の平均歩行速度をV、フレーム間をΔtとすると、移動可能な範囲Rは、R=V×Δtとなる。そして身長推定部147は、移動可能である場合に当該位置と当該次の位置とを結ぶ移動軌跡を作成し、所定数以上の移動軌跡が作成された仮定身長を対象人物の身長に推定する。なお身長推定部147は、対象人物の身長の推定に使用した位置などの情報を記憶部120から削除する。   Specifically, the height estimation unit 147 determines, for each assumed height, whether or not the target person can move to a position next to the position for each estimated time-series position in the real space. In the present embodiment, the height estimation unit 147 predetermines a time series interval, that is, a range in which the target person can move between frames, and calculates the position for each estimated time series position in the real space. Whether or not the target person can move is determined based on whether or not the distance to the next position is within a predetermined movable range. Here, assuming that the average walking speed of humans is V and the interval between frames is Δt, the movable range R is R = V × Δt. Then, the height estimation unit 147 creates a movement trajectory connecting the position and the next position when the movement is possible, and estimates the assumed height on which the predetermined number or more of movement trajectories are created as the height of the target person. The height estimation unit 147 deletes information such as the position used for estimating the height of the target person from the storage unit 120.

図4は、第1実施形態の身長推定部147により作成された移動軌跡の一例を示す図である。なお図4に示す例では、仮定身長が155cm、165cm、175cm、及び185cmの場合の移動軌跡を示している。身長推定部147は、図4に示す例の場合、仮定身長を175cmとした場合に最も多くの移動軌跡が作成されているため、対象人物の身長を175cmに推定する。   FIG. 4 is a diagram illustrating an example of a movement trajectory created by the height estimation unit 147 of the first embodiment. In the example shown in FIG. 4, the movement trajectory when the assumed height is 155 cm, 165 cm, 175 cm, and 185 cm is shown. In the example shown in FIG. 4, the height estimation unit 147 estimates the height of the target person to 175 cm because the most movement trajectory is created when the assumed height is 175 cm.

ここで、仮定身長と当該仮定身長から推定される実空間上の位置及び移動距離との関係について説明する。   Here, the relationship between the assumed height and the position and movement distance in the real space estimated from the assumed height will be described.

図5は、仮定身長と当該仮定身長から推定される対象人物の実空間上の位置との関係の一例を示す図である。なお、対象人物160〜162は同一人物であるが、説明の関係上異なる符号を付している。   FIG. 5 is a diagram illustrating an example of the relationship between the assumed height and the position of the target person in real space estimated from the assumed height. Although the target persons 160 to 162 are the same person, different reference numerals are given for the sake of explanation.

仮定身長が対象人物160の実際の身長よりも大きい場合、対象人物160の実空間上の位置は、実空間位置推定部145により実際の位置よりも手前側に推定される。つまり、図5に示す例の場合、仮定身長が対象人物160の実際の身長よりも大きいと、実空間位置推定部145は、対象人物160を対象人物161として推定する。   When the assumed height is larger than the actual height of the target person 160, the position of the target person 160 in the real space is estimated by the real space position estimation unit 145 closer to the front side than the actual position. That is, in the example shown in FIG. 5, if the assumed height is larger than the actual height of the target person 160, the real space position estimation unit 145 estimates the target person 160 as the target person 161.

同様に、仮定身長が対象人物160の実際の身長よりも小さい場合、対象人物160の実空間上の位置は、実空間位置推定部145により実際の位置よりも奥側に推定される。つまり、図5に示す例の場合、仮定身長が対象人物160の実際の身長よりも小さいと、実空間位置推定部145は、対象人物160を対象人物162として推定する。   Similarly, when the assumed height is smaller than the actual height of the target person 160, the position of the target person 160 in the real space is estimated behind the actual position by the real space position estimation unit 145. That is, in the example illustrated in FIG. 5, when the assumed height is smaller than the actual height of the target person 160, the real space position estimation unit 145 estimates the target person 160 as the target person 162.

図6は、仮定身長と当該仮定身長から推定される対象人物の横移動との関係の一例を示す図である。   FIG. 6 is a diagram illustrating an example of the relationship between the assumed height and the lateral movement of the target person estimated from the assumed height.

図6に示すように、仮定身長が対象人物160の実際の身長よりも大きい場合、即ち、対象人物160が対象人物161として推定された場合、対象人物161が撮像部130を横切る方向、即ち、横方向に移動すると、対象人物161のフレーム毎の位置の横方向の間隔は、対象人物160のフレーム毎の位置の横方向の間隔よりも小さくなる。このため、対象人物160の隣接する各位置の距離が移動可能な範囲に収まれば、対象人物161の隣接する各位置の距離も移動可能な範囲に収まるので、身長推定部147は、対象人物161の隣接する各位置を移動軌跡で結ぶことができる。   As shown in FIG. 6, when the assumed height is larger than the actual height of the target person 160, that is, when the target person 160 is estimated as the target person 161, the direction in which the target person 161 crosses the imaging unit 130, that is, When moving in the horizontal direction, the horizontal interval between positions of the target person 161 for each frame becomes smaller than the horizontal interval between positions of the target person 160 for each frame. For this reason, if the distance between the adjacent positions of the target person 160 falls within the movable range, the distance between the adjacent positions of the target person 161 also falls within the movable range. Can be connected by a movement trajectory.

一方、仮定身長が対象人物160の実際の身長よりも小さい場合、即ち、対象人物160が対象人物162として推定された場合、対象人物162が撮像部130を横切る方向、即ち、横方向に移動すると、対象人物162のフレーム毎の位置の横方向の間隔は、対象人物160のフレーム毎の位置の横方向の間隔よりも大きくなる。このため、対象人物160の隣接する各位置の距離が移動可能な範囲に収まっても、対象人物162の隣接する各位置の距離が移動可能な範囲に収まるとは限らず、この場合、身長推定部147は、対象人物162の隣接する各位置を移動軌跡で結ぶことができない。   On the other hand, when the assumed height is smaller than the actual height of the target person 160, that is, when the target person 160 is estimated as the target person 162, the target person 162 moves in the direction crossing the imaging unit 130, that is, in the horizontal direction. The horizontal interval between the positions of the target person 162 for each frame is larger than the horizontal interval between the positions of the target person 160 for each frame. Therefore, even if the distance between adjacent positions of the target person 160 is within the movable range, the distance between adjacent positions of the target person 162 is not necessarily within the movable range. In this case, the height estimation is performed. The unit 147 cannot connect adjacent positions of the target person 162 with a movement locus.

つまり、仮定身長が対象人物160の実際の身長よりも小さくなればなるほど、身長推定部147により作成される移動軌跡は人間らしい移動軌跡とはならないことになる。   That is, as the assumed height becomes smaller than the actual height of the target person 160, the movement trajectory created by the height estimation unit 147 does not become a human-like movement trajectory.

図7及び図8は、仮定身長と当該仮定身長から推定される対象人物の実空間上の移動距離との関係の一例を示す図である。   7 and 8 are diagrams showing an example of the relationship between the assumed height and the movement distance of the target person in real space estimated from the assumed height.

図7に示すように、仮定身長が対象人物160の実際の身長に一致する場合に、対象人物160の頭部が画像上の縦方向(実空間上の奥行き方向)にp[pixels]移動したとする。この場合、対象人物160の実空間上の位置は、実空間位置推定部145によりx1[m]奥側の位置に推定される。   As shown in FIG. 7, when the assumed height matches the actual height of the target person 160, the head of the target person 160 has moved by p [pixels] in the vertical direction on the image (the depth direction in the real space). And In this case, the position of the target person 160 in the real space is estimated by the real space position estimation unit 145 as a position on the back side of x1 [m].

一方、図8に示すように、仮定身長が対象人物160の実際の身長よりも大きい場合、即ち、対象人物160が対象人物161として推定された場合に、対象人物161の頭部が画像上の縦方向(実空間上の奥行き方向)にp[pixels]移動したとする。この場合、対象人物161の実空間上の位置は、実空間位置推定部145によりx2(x2>x1)[m]奥側の位置に推定される。   On the other hand, as shown in FIG. 8, when the assumed height is larger than the actual height of the target person 160, that is, when the target person 160 is estimated as the target person 161, the head of the target person 161 is displayed on the image. It is assumed that p [pixels] are moved in the vertical direction (the depth direction in the real space). In this case, the position of the target person 161 in the real space is estimated by the real space position estimation unit 145 as a position on the back side by x2 (x2> x1) [m].

図9は、仮定身長と当該仮定身長から推定される対象人物の縦移動との関係の一例を示す図である。   FIG. 9 is a diagram illustrating an example of the relationship between the assumed height and the vertical movement of the target person estimated from the assumed height.

図9に示すように、仮定身長が対象人物160の実際の身長よりも小さい場合、即ち、対象人物160が対象人物162として推定された場合、対象人物162が撮像部130に対して前進・後退する方向、即ち、縦方向に移動すると、対象人物162のフレーム毎の位置の縦方向の間隔は、対象人物160のフレーム毎の位置の縦方向の間隔よりも小さくなる。このため、対象人物160の隣接する各位置の距離が移動可能な範囲に収まれば、対象人物162の隣接する各位置の距離も移動可能な範囲に収まるので、身長推定部147は、対象人物162の隣接する各位置を移動軌跡で結ぶことができる。   As shown in FIG. 9, when the assumed height is smaller than the actual height of the target person 160, that is, when the target person 160 is estimated as the target person 162, the target person 162 moves forward / backward with respect to the imaging unit 130. When moving in the moving direction, that is, in the vertical direction, the vertical interval between positions of the target person 162 for each frame becomes smaller than the vertical interval between positions of the target person 160 for each frame. For this reason, if the distance between the adjacent positions of the target person 160 falls within the movable range, the distance between the adjacent positions of the target person 162 also falls within the movable range. Can be connected by a movement trajectory.

一方、仮定身長が対象人物160の実際の身長よりも大きい場合、即ち、対象人物160が対象人物161として推定された場合、対象人物161が撮像部130に対して前進・後退する方向、即ち、縦方向に移動すると、対象人物161のフレーム毎の位置の縦方向の間隔は、対象人物160のフレーム毎の位置の縦方向の間隔よりも大きくなる。このため、対象人物160の隣接する各位置の距離が移動可能な範囲に収まっても、対象人物161の隣接する各位置の距離が移動可能な範囲に収まるとは限らず、この場合、身長推定部147は、対象人物161の隣接する各位置を移動軌跡で結ぶことができない。   On the other hand, when the assumed height is larger than the actual height of the target person 160, that is, when the target person 160 is estimated as the target person 161, the direction in which the target person 161 moves forward / backward with respect to the imaging unit 130, that is, When moving in the vertical direction, the vertical interval between positions of the target person 161 for each frame is larger than the vertical interval between positions of the target person 160 for each frame. Therefore, even if the distance between adjacent positions of the target person 160 is within the movable range, the distance between adjacent positions of the target person 161 is not necessarily within the movable range. In this case, the height estimation is performed. The unit 147 cannot connect adjacent positions of the target person 161 with a movement locus.

つまり、仮定身長が対象人物160の実際の身長よりも大きくなればなるほど、身長推定部147により作成される移動軌跡は人間らしい移動軌跡とはならないことになる。   That is, as the assumed height becomes larger than the actual height of the target person 160, the movement locus created by the height estimation unit 147 does not become a human-like movement locus.

以上より、仮定身長が対象人物160の実際の身長に近くなればなるほど、身長推定部147により作成される移動軌跡は人間らしい移動軌跡となる。   From the above, as the assumed height becomes closer to the actual height of the target person 160, the movement locus created by the height estimation unit 147 becomes a human-like movement locus.

また、身長推定部147は、所定数以上の移動軌跡が作成された仮定身長が複数存在する場合、当該複数の仮定身長、及び当該複数の仮定身長それぞれの移動軌跡数を用いて、対象人物の身長を推定する。上述したように、仮定身長が対象人物の実際の身長に近いほど人間らしい移動軌跡が作成されるため、所定数以上の移動軌跡が作成された仮定身長が複数存在する場合、これらの仮定身長は隣接している可能性が高い。このため本実施形態では、例えば、所定数以上の移動軌跡が作成された仮定身長が2つ存在する場合、身長推定部147は、数式(6)を用いて、対象人物の身長を推定する。   In addition, when there are a plurality of assumed heights for which a predetermined number or more of movement trajectories have been created, the height estimation unit 147 uses the plurality of assumed heights and the number of movement trajectories for each of the plurality of assumed heights. Estimate height. As described above, as the assumed height is closer to the actual height of the target person, a human-like movement trajectory is created. Therefore, when there are a plurality of assumed heights in which a predetermined number or more of movement trajectories are created, these assumed heights are adjacent. It is highly possible that For this reason, in this embodiment, for example, when there are two assumed heights in which a predetermined number or more of movement trajectories are created, the height estimation unit 147 estimates the height of the target person using Equation (6).

Figure 0005756709
Figure 0005756709

ここで、Hは、対象人物の推定身長であり、H、Hは、それぞれ隣接する仮定身長であり、Nは、Hの移動軌跡数であり、Nは、Hの移動軌跡数である。 Here, H is the estimated height of the target person, H a and H b are adjacent assumed heights, N a is the number of trajectories of H a , and N b is the movement of H b The number of trajectories.

本実施形態では、身長推定部147は、移動軌跡が作成された数を基準として最も人間らしい移動軌跡を判断しているが、これに限定されず、連続して作成された移動軌跡の数や、作成された移動軌跡の形などを基準として最も人間らしい移動軌跡を判断するようにしてもよい。   In the present embodiment, the height estimation unit 147 determines the most human-like movement trajectory based on the number of movement trajectories created, but is not limited thereto, and the number of movement trajectories created continuously, The most human-like movement locus may be determined based on the shape of the created movement locus.

表示部150は、各種情報を表示するものであり、例えば、ディスプレイなどにより実現できる。表示部150は、身長推定部147により推定された身長を表示する。なお表示部150は、身長推定部147により推定された身長とともに作成された軌跡を表示するようにしてもよい。更に表示部150は、仮定身長毎に身長推定部147により作成された軌跡を表示するようにしてもよい。   The display unit 150 displays various types of information, and can be realized by, for example, a display. The display unit 150 displays the height estimated by the height estimation unit 147. The display unit 150 may display a trajectory created together with the height estimated by the height estimation unit 147. Further, the display unit 150 may display the trajectory created by the height estimation unit 147 for each assumed height.

次に、第1実施形態の身長推定装置の動作について説明する。   Next, the operation of the height estimation device of the first embodiment will be described.

図10は、第1実施形態の身長推定装置100で行われる身長推定処理の手順の流れの一例を示すフローチャートである。   FIG. 10 is a flowchart illustrating an example of a flow of a height estimation process performed by the height estimation apparatus 100 according to the first embodiment.

まず、入力部110は、複数の仮定身長、撮像パラメータ、及び基準データを入力する(ステップS100)。   First, the input unit 110 inputs a plurality of assumed heights, imaging parameters, and reference data (step S100).

続いて、撮像部130は、対象人物を含む画像を時系列で撮像する(ステップS102)。   Subsequently, the imaging unit 130 captures an image including the target person in time series (step S102).

続いて、頭部検出部141は、撮像部130により時系列で撮像された画像それぞれから対象人物の頭部を検出する(ステップS104)。撮像された画像それぞれから対象人物の頭部を検出できなかった場合(ステップS104でNo)、再度、頭部検出を行う(ステップS104)。   Subsequently, the head detection unit 141 detects the head of the target person from each of the images captured in time series by the imaging unit 130 (step S104). When the head of the target person cannot be detected from each of the captured images (No in step S104), head detection is performed again (step S104).

撮像された画像それぞれから対象人物の頭部を検出できた場合(ステップS104でYes)、足元位置推定部143は、頭部検出部141により検出された頭部を用いて、撮像部130により時系列で撮像された画像それぞれから対象人物の足元位置を仮定身長毎に推定する(ステップS106)。   When the head of the target person can be detected from each of the captured images (Yes in step S104), the foot position estimation unit 143 uses the head detected by the head detection unit 141 to detect the time. The foot position of the target person is estimated for each assumed height from each of the images captured in the series (step S106).

続いて、実空間位置推定部145は、足元位置推定部143により推定された足元位置を用いて、対象人物の実空間上の位置を仮定身長毎に時系列で推定する(ステップS108)。そして実空間位置推定部145は、記憶部120に時系列で仮定身長毎に実空間上の位置を記憶する(ステップS110)。   Subsequently, the real space position estimation unit 145 estimates the position of the target person in the real space in time series for each assumed height using the foot position estimated by the foot position estimation unit 143 (step S108). Then, the real space position estimation unit 145 stores the position in the real space in the storage unit 120 for each assumed height in time series (step S110).

続いて、身長推定部147は、仮定身長毎に、実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、基準を超える移動軌跡が作成されたか否かを確認する(ステップS112)。基準を超える移動軌跡が作成された場合(ステップS112でYes)、当該移動軌跡を最も人間らしい移動軌跡とし、当該移動軌跡が作成された仮定身長を対象人物の身長に推定する(ステップS114)。一方、基準を超える移動軌跡が作成されなかった場合(ステップS112でNo)、ステップS104へ戻る。   Subsequently, the height estimation unit 147 creates a human-like movement trajectory for each assumed height using a time-series position in the real space, and confirms whether or not a movement trajectory exceeding the reference has been created (step S112). . When a movement trajectory exceeding the reference is created (Yes in step S112), the movement trajectory is regarded as the most human-like movement trajectory, and the assumed height from which the movement trajectory is created is estimated as the height of the target person (step S114). On the other hand, when the movement locus exceeding the reference is not created (No in step S112), the process returns to step S104.

図11は、第1実施形態の身長推定装置100の身長推定部147で行われる処理の手順の流れの一例を示すフローチャートである。   FIG. 11 is a flowchart illustrating an example of a flow of processes performed by the height estimation unit 147 of the height estimation apparatus 100 according to the first embodiment.

身長推定部147は、全ての仮定身長を確認すると処理を終了する(ステップS120でYes)。身長推定部147は、全ての仮定身長を確認していない場合(ステップS120でNo)、未確認の仮定身長を取得し、仮定身長Hとする(ステップS122)。 If all the assumed heights are confirmed, the height estimation unit 147 ends the process (Yes in step S120). Height estimating unit 147, if not sure all assumed height (No at step S120), obtains the unconfirmed assumption height, and assumes height H a (step S122).

続いて、身長推定部147は、仮定身長Hについて、直近Fフレーム中の隣接フレームを全て処理していない場合(ステップS124でNo)、未処理の隣接フレームを取得し、フレームF、Fとする(ステップS126)。なお、仮定身長Hについて、直近Fフレーム中の隣接フレームを全て処理している場合(ステップS124でYes)、ステップS120へ戻る。 Subsequently, when the height estimation unit 147 has not processed all adjacent frames in the latest F frame for the assumed height H a (No in step S124), the unestimated adjacent frame is acquired and the frames F i , F j (step S126). Note that the assumption height H a, if it is processing all of the adjacent frames in the last F frames (Yes in step S124), the flow returns to step S120.

続いて、身長推定部147は、フレームF、Fの時間Δtを計算し、対象人物がフレームF、F間で移動可能な範囲Rを計算する(ステップS128)。 Subsequently, height estimating section 147 calculates the time Δt of the frame F i, F j, the target person is the frame F i, to calculate the movable range R between F j (step S128).

続いて、身長推定部147は、フレームF、Fで推定された実空間上の位置の距離が範囲R以下であるか否かを確認する(ステップS130)。 Subsequently, the height estimation unit 147 confirms whether the distance between the positions in the real space estimated by the frames F i and F j is equal to or less than the range R (step S130).

フレームF、Fで推定された実空間上の位置の距離が範囲R以下である場合(ステップS130でYes)、身長推定部147は、フレームF、Fで推定された実空間上の位置を紐付け、両位置を結ぶ移動軌跡を作成する(ステップS132)。なお、フレームF、Fで推定された実空間上の位置の距離が範囲R以下でない場合(ステップS130でNo)、ステップS124へ戻る。 When the distance between the positions in the real space estimated in the frames F i and F j is equal to or smaller than the range R (Yes in step S130), the height estimation unit 147 determines the distance in the real space estimated in the frames F i and F j. Are linked, and a movement trajectory connecting the two positions is created (step S132). If the distance between the positions in the real space estimated by the frames F i and F j is not equal to or less than the range R (No in step S130), the process returns to step S124.

続いて、身長推定部147は、N(0<N<F)フレーム以上連結した場合、即ち、N以上の移動軌跡を作成した場合(ステップS134でYes)、仮定身長Hを対象人物の身長に推定し、作成した移動軌跡とともに出力する(ステップS136)。そして、ステップS124へ戻る。なお、N(0<N<F)フレーム以上連結しなかった場合も(ステップS134でNo)、ステップS124へ戻る。 Subsequently, height estimation unit 147, when linked N (0 <N <F) or more frames, i.e., when you create a more movement trajectory N (in step S134 Yes), the target person assumptions height H a height And output together with the created movement trajectory (step S136). Then, the process returns to step S124. Note that if N (0 <N <F) frames or more are not connected (No in step S134), the process returns to step S124.

以上のように第1実施形態によれば、人物の頭部さえ撮像されていれば、当該人物の足元を推定することにより、身長を推定できるので、画像上で人物の足元位置が隠蔽されていても当該人物の身長を推定することができる。特に、足元は、影や鏡面反射など誤検知の要因となり易いので、足元を検知せずに身長を推定することにより、当該人物の身長を精度よく推定することができる。   As described above, according to the first embodiment, as long as a person's head is imaged, the height of the person can be estimated by estimating the person's foot, so the position of the person's foot is hidden on the image. However, the height of the person can be estimated. In particular, since the feet are likely to cause erroneous detection such as shadows and specular reflections, the height of the person can be accurately estimated by estimating the height without detecting the feet.

(第2実施形態)
第2実施形態では、推定した身長を用いて対象人物を追跡する例について説明する。なお以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、第1実施形態と同様の名称・符号を付し、その説明を省略する。
(Second Embodiment)
In the second embodiment, an example in which the target person is tracked using the estimated height will be described. In the following, differences from the first embodiment will be mainly described, and components having the same functions as those in the first embodiment will be given the same names and symbols as those in the first embodiment, and description thereof will be given. Is omitted.

図12は、第2実施形態の身長推定装置200の構成の一例を示すブロック図である。第2実施形態の身長推定装置200では、足元位置推定部243及び実空間位置推定部245が第1実施形態と相違し、追跡部249を更に備える。   FIG. 12 is a block diagram illustrating an example of a configuration of the height estimation apparatus 200 according to the second embodiment. In the height estimation apparatus 200 of the second embodiment, the foot position estimation unit 243 and the real space position estimation unit 245 are different from the first embodiment and further include a tracking unit 249.

足元位置推定部243は、身長推定部147により対象人物の身長が推定された後に撮像部130により撮像された画像から、対象人物の足元位置を身長推定部147により推定された身長である推定身長を用いて推定する。   The foot position estimation unit 243 estimates the height of the target person whose height is estimated by the height estimation unit 147 from the image captured by the imaging unit 130 after the height estimation unit 147 estimates the height of the target person. Estimate using.

実空間位置推定部245は、足元位置推定部243により推定された足元位置を用いて、推定身長の対象人物の実空間上の位置を推定する。   The real space position estimation unit 245 uses the foot position estimated by the foot position estimation unit 243 to estimate the position of the target person in the estimated height in real space.

追跡部249は、実空間位置推定部245により推定された推定身長の対象人物の実空間上の位置を追跡する。   The tracking unit 249 tracks the position of the target person of the estimated height estimated by the real space position estimation unit 245 in the real space.

図13は、第2実施形態の身長推定装置200で行われる追跡処理の手順の流れの一例を示すフローチャートである。   FIG. 13 is a flowchart illustrating an example of a flow of a tracking process performed by the height estimation apparatus 200 according to the second embodiment.

まず、撮像部130は、対象人物を含む画像を撮像する(ステップS200)。   First, the imaging unit 130 captures an image including the target person (step S200).

続いて、頭部検出部141は、撮像部130により撮像された画像から対象人物の頭部を検出する(ステップS202)。撮像された画像から対象人物の頭部を検出できなかった場合(ステップS202でNo)、ステップS200へ戻る。   Subsequently, the head detection unit 141 detects the head of the target person from the image captured by the imaging unit 130 (step S202). When the head of the target person cannot be detected from the captured image (No in step S202), the process returns to step S200.

撮像された画像から対象人物の頭部を検出できた場合(ステップS202でYes)、足元位置推定部243は、頭部検出部141により検出された頭部及び身長推定部147により推定された推定身長を用いて、撮像部130により撮像された画像から対象人物の足元位置を推定する(ステップS204)。   When the head of the target person can be detected from the captured image (Yes in step S202), the foot position estimation unit 243 estimates the head detected by the head detection unit 141 and the height estimation unit 147. Using the height, the foot position of the target person is estimated from the image captured by the imaging unit 130 (step S204).

続いて、実空間位置推定部245は、足元位置推定部243により推定された足元位置を用いて、推定身長の対象人物の実空間上の位置を推定する(ステップS206)。   Subsequently, the real space position estimation unit 245 uses the foot position estimated by the foot position estimation unit 243 to estimate the position of the estimated person in the real space (step S206).

続いて、追跡部249は、新たな追跡情報を作成した場合には(ステップS208でYes)、追跡情報を更新する(ステップS210)。これにより、追跡部249は、推定身長の対象人物の実空間上の位置を追跡する。そして、ステップS200へ戻る。一方、新たな追跡情報が作成されなかった場合も(ステップS208でNo)、ステップS200へ戻る。   Subsequently, when the tracking unit 249 has created new tracking information (Yes in Step S208), the tracking unit 249 updates the tracking information (Step S210). Thereby, the tracking unit 249 tracks the position of the target person of the estimated height in the real space. Then, the process returns to step S200. On the other hand, also when new tracking information is not created (No in step S208), the process returns to step S200.

ここで、追跡情報の更新について説明する。   Here, the update of the tracking information will be described.

まず、追跡部249は、実空間位置推定部245により推定身長の対象人物の実空間上の位置が推定されると、距離閾値Dに初期値Dt0を設定する。なお、初期値Dt0は100[m]など十分に大きな値が好ましい。 First, when the real space position estimation unit 245 estimates the position of the estimated person in real space, the tracking unit 249 sets an initial value D t0 as the distance threshold D t . The initial value D t0 is preferably a sufficiently large value such as 100 [m].

続いて、追跡部249は、記憶部120に記憶されている追跡情報から、推定身長の対象人物の前回の実空間上の位置Pとその取得時刻Tを取得する。そして、追跡部249は、位置PとステップS206で実空間位置推定部245により推定された推定身長の対象人物の最新の実空間上の位置Pとを用いて、両位置の距離Dを計算する(D=P−P)。更に、追跡部249は、人間の平均歩行速度V、時刻T、及び対象人物の最新の実空間上の位置Pの取得時刻Tを用いて、推定身長の対象人物の時刻T−時刻T間に移動可能な範囲Rを計算する(R=V×(T−T))。 Subsequently, the tracking unit 249 acquires, from the tracking information stored in the storage unit 120, the position P i in the previous real space of the target person of estimated height and the acquisition time T i thereof. Then, the tracking unit 249 uses the position P i and the latest position P in the real space of the target person of the estimated height estimated by the real space position estimation unit 245 in step S206 to determine the distance D i between both positions. Calculate (D i = P−P i ). Furthermore, the tracking unit 249 uses the average walking speed V of the human, the time T i , and the acquisition time T of the position P of the target person in the latest real space, and the time T-time T i of the target person with the estimated height. A range R that can be moved between is calculated (R = V × (T−T i )).

続いて、追跡部249は、距離Dが範囲R以下かつ距離閾値D以下である場合、位置P及び時刻Tを新たな追跡情報として記憶部120に記憶し、追跡情報を更新する。この際、追跡部249は、位置Pと位置Pとを紐付け、両位置を結ぶ移動軌跡を作成する。また追跡部249は、距離閾値Dに距離Dを設定し、次回の追跡情報の更新時に用いる。 Subsequently, when the distance D i is not more than the range R and not more than the distance threshold value D t , the tracking unit 249 stores the position P and time T in the storage unit 120 as new tracking information, and updates the tracking information. At this time, the tracking unit 249 associates the position P i and the position P, and creates a movement trajectory that connects both positions. The tracking unit 249 sets the distance D i as the distance threshold D t and uses it for the next update of the tracking information.

但し、上述の手法で追跡情報を更新すると、光や影などによるノイズによって、推定された実空間上の位置に誤差が生じ、追跡が失敗してしまうおそれがある。このため、移動速度の移動平均を用いて追跡情報を更新するようにしてもよい。これにより、ノイズによって突発的に発生する誤差を抑制することができる。   However, if the tracking information is updated by the above-described method, an error occurs in the estimated position in the real space due to noise due to light or shadow, and the tracking may fail. For this reason, you may make it update tracking information using the moving average of a moving speed. Thereby, the error which generate | occur | produces suddenly by noise can be suppressed.

この場合、まず、追跡部249は、実空間位置推定部245により推定身長の対象人物の実空間上の位置が推定されると、分散閾値Vに初期値Vt0を設定する。なお、初期値Vt0は100[m/s]など十分に大きな値が好ましい。 In this case, first, when the real space position estimation unit 245 estimates the position of the target person of the estimated height in the real space, the tracking unit 249 sets the initial value V t0 as the variance threshold V t . The initial value V t0 is preferably a sufficiently large value such as 100 [m / s].

続いて、追跡部249は、記憶部120に記憶されている追跡情報から、推定身長の対象人物の直近nフレーム分の実空間上の位置Pi_1〜Pi_nとその取得時刻Ti_1〜Ti−nを取得する。なお、時系列は、i_n、i_n−1、…i_1の順番であるものとする。 Subsequently, the tracking unit 249 determines, based on the tracking information stored in the storage unit 120, positions P i_1 to P i_n in the real space for the latest n frames of the target person of estimated height and their acquisition times T i_1 to T i. -N is acquired. It is assumed that the time series is in the order of i_n, i_n-1, ... i_1.

続いて、追跡部249は、隣接する位置間の移動速度Vi_1〜Vi_nを計算する。例えば、Vi_1は、Vi_1=D(P,Pi_1)/(T−Ti_1)で表され、Vi_nは、Vi_n=D(Pi_n−1,Pi_n)/(Ti_n−1−Ti_n)で表される。なお、D(x,y)は、位置xと位置y間の距離を求める関数である。 Subsequently, the tracking unit 249 calculates movement speeds V i — 1 to V i — n between adjacent positions. For example, V i — 1 is represented by V i1 = D (P, P i1 ) / (T−T i1 ), and V in is V in = D (P i — n−1 , P i n ) / (T i — n−1). −T i — n ). Note that D (x, y) is a function for obtaining the distance between the position x and the position y.

続いて、追跡部249は、移動速度Vi_1〜Vi_nから移動平均Mと分散Vとを計算する。 Subsequently, the tracking unit 249 calculates the moving average M i and the variance V i from the moving speeds V i — 1 to V i — n .

続いて、追跡部249は、移動平均Mが人らしい移動速度の上限値T以下かつ分散Vが分散閾値V以下である場合、位置P及び時刻Tを新たな追跡情報として記憶部120に記憶し、追跡情報を更新する。この際、追跡部249は、位置Pi_1と位置Pとを紐付け、両位置を結ぶ移動軌跡を作成する。また追跡部249は、分散閾値Vに分散Vを設定し、次回の追跡情報の更新時に用いる。 Subsequently, the tracking unit 249, if the upper limit value T h or less and the dispersion V i of the moving average M i is likely human moving speed is equal to or less than the variance threshold value V t, the storage unit the position P and the time T as a new trace information 120, and the tracking information is updated. At this time, the tracking unit 249 associates the position P i — 1 with the position P, and creates a movement trajectory that connects both positions. The tracking unit 249 sets the variance V i in the dispersion threshold V t, is used when updating the next tracking information.

ここで、位置を紐付けるために、分散Vと分散閾値Vとを比較しているのは、人は、急に止まれないため、移動速度の分散が小さい移動の方が人らしい移動と判断できるためである。 Here, in order to link the positions, the variance V i is compared with the variance threshold value V t because a person cannot stop suddenly. This is because it can be judged.

以上のように、第2実施形態によれば、影や鏡面反射など誤検知の要因となり易い足元を考慮せずに人物を追跡することができるため、精度よく追跡することができる。   As described above, according to the second embodiment, since a person can be tracked without considering a step that is likely to cause a false detection such as a shadow or a specular reflection, the person can be accurately tracked.

(変形例)
なお、本発明は、上記実施形態に限定されるものではなく、種々の変形が可能である。
(Modification)
In addition, this invention is not limited to the said embodiment, A various deformation | transformation is possible.

(変形例1)
例えば、対象人物を追跡中に対象人物がしゃがんでしまうと、対象人物の頭部の高さが変化してしまうため、対象人物の実空間上の正しい位置を推定できなくなってしまう。このため第2実施形態において、対象人物の追跡時にしゃがみ込み判定を行うようにしてもよい。
(Modification 1)
For example, if the target person crouches while tracking the target person, the height of the target person's head changes, and the correct position of the target person in real space cannot be estimated. For this reason, in the second embodiment, the squatting determination may be performed when tracking the target person.

対象人物がしゃがみ込む場合、実空間上の同一位置にいる対象人物の身長が徐々に低くなるという現象が生じる。このため、追跡部249は、この現象を認識することで、対象人物がしゃがみ込んだのか、身長が低い別の人物が現れたのかを判定すればよい。   When the target person crouches, a phenomenon occurs in which the height of the target person at the same position in the real space gradually decreases. Therefore, the tracking unit 249 may recognize this phenomenon and determine whether the target person has crouched or another person with a short height has appeared.

図14は、変形例1の身長推定装置200で行われるしゃがみ込み判定処理の手順の流れの一例を示すフローチャートである。   FIG. 14 is a flowchart illustrating an example of a flow of a squatting determination process performed by the height estimation apparatus 200 according to the first modification.

まず、撮像部130は、対象人物を含む画像を撮像する(ステップS300)。   First, the imaging unit 130 captures an image including the target person (step S300).

続いて、追跡部249は、対象人物の実空間上の位置を追跡する(ステップS302)。そして、追跡部249が新規の人物を検知した場合(ステップS304でYes)、実空間位置推定部245は、新規の人物の実空間上の位置P(X,Y)および身長Hを推定する(ステップS306)。 Subsequently, the tracking unit 249 tracks the position of the target person in the real space (step S302). When the tracking unit 249 detects a new person (Yes in step S304), the real space position estimation unit 245 determines the position P c (X c , Y c ) of the new person in the real space and the height H c. Is estimated (step S306).

続いて、追跡部249は、対象人物の追跡情報から、対象人物の身長Hと位置P(X,Y)を参照し(ステップS308)、位置Pと位置Pとが一定範囲内に存在するか否かを確認する(ステップS310)。 Subsequently, the tracking unit 249 refers to the height H i and the position P i (X i , Y i ) of the target person from the tracking information of the target person (step S308), and the position P c and the position P i are constant. It is confirmed whether or not it exists within the range (step S310).

そして、追跡部249は、位置Pと位置Pとが一定範囲内に存在する場合(ステップS310でYes)、しゃがみ込み判定用の情報として、追跡番号i、位置Pの取得時刻T、身長Hを記憶部120に記憶し(ステップS312)、処理を終了する。 Then, when the position P c and the position P i are within a certain range (Yes in step S310), the tracking unit 249 acquires the tracking number i and the acquisition time T c of the position P c as information for squatting determination. stores the height H c in the storage unit 120 (step S312), the process ends.

一方、位置Pと位置Pとが一定範囲内に存在せず(ステップS310でNo)、しゃがみ込み判定用の情報が記憶部120に記憶されており(ステップS314でYes)、しゃがみ込み判定用の情報が同一の追跡番号で所定数ある場合(ステップS316でYes)、追跡部249は、時刻Tの時間経過に伴い、身長HがΔHの範囲内で低くなっているか否か判定する(ステップS318)。そして追跡部249は、身長HがΔHの範囲内で低くなっている場合(ステップS320でYes)、しゃがみ込みありと判定する(ステップS322)。 On the other hand, it does not exist within a predetermined a position P c and the position P i in the range (No at step S310), information for determining narrowing squatting is stored in the storage unit 120 (Yes at step S314), determination narrowing squatting If the information for use is a predetermined number of the same tracking number (Yes at step S316), the tracking unit 249, with the time course of time T c, determines whether the height H c is lower in the range of ΔH (Step S318). The tracking unit 249 determines if the height H c is lower in the range of [Delta] H (in step S320 Yes), there included squatting (step S322).

なお、ステップS304で新規の人物を検知しなかった場合(ステップS304でNo)、ステップS314でしゃがみ込み判定用の情報が記憶部120に記憶されていない場合(ステップS314でNo)、ステップS316でしゃがみ込み判定用の情報が同一の追跡番号で所定数ない場合(ステップS316でNo)、及びステップS320で身長HがΔHの範囲内で低くなっていない場合(ステップS320でNo)、追跡部249は、しゃがみ込みなしと判定する(ステップS324)。 If no new person is detected in step S304 (No in step S304), or if information for squatting determination is not stored in the storage unit 120 in step S314 (No in step S314), in step S316. If information for determining narrowing squatting is not a predetermined number in the same tracking number (no at step S316), and if the height H c is not lower in the range of ΔH in step S320 (no at step S320), the tracking unit 249 determines that there is no squatting (step S324).

(変形例2)
上記変形例1のしゃがみ込み判定手法は、撮像部130と対象人物の足元との間に遮蔽物がなく、画像上の足元位置から実空間上の人物位置を推定できることが前提である。変形例2では、このような前提を用いることなく、対象人物のしゃがみ込み判定を行う例について説明する。
(Modification 2)
The squatting determination method of Modification 1 is based on the premise that there is no obstacle between the imaging unit 130 and the foot of the target person, and the person position in real space can be estimated from the foot position on the image. In the second modification, an example in which the squatting determination of the target person is performed without using such a premise will be described.

図15は、変形例2の身長推定装置200で行われるしゃがみ込み判定処理の手順の流れの一例を示すフローチャートである。   FIG. 15 is a flowchart illustrating an example of a flow of a squatting determination process performed by the height estimation apparatus 200 according to the second modification.

まず、撮像部130は、対象人物を含む画像を撮像する(ステップS400)。   First, the imaging unit 130 captures an image including the target person (step S400).

続いて、追跡部249は、対象人物の実空間上の位置を追跡する(ステップS402)。そして、追跡部249が新規の人物を検知し(ステップS404でYes)、所定時間内に対象人物が消失した追跡情報が記憶部120に記憶されている場合(ステップS406でYes)、追跡部249は、追跡情報から消失した人物(対象人物)の身長Hと移動軌跡Q{Pa1,…,PaN}を参照するとともに(ステップS408)、新規の人物の身長Hと移動軌跡Q{Pb1,…,PbM}を参照する(ステップS410)。 Subsequently, the tracking unit 249 tracks the position of the target person in the real space (step S402). When the tracking unit 249 detects a new person (Yes in step S404) and tracking information in which the target person disappears within a predetermined time is stored in the storage unit 120 (Yes in step S406), the tracking unit 249 Refers to the height H a and movement trajectory Q a {P a1 ,..., P aN } of the person (target person) disappeared from the tracking information (step S408), and the new person's height H b and movement trajectory Q Reference is made to b {P b1 ,..., P bM } (step S410).

続いて、追跡部249は、身長Hが身長Hよりも大きい場合(ステップS412でYes)、移動軌跡Qと移動軌跡Qとから連続性を判定し(ステップS414)、連続性がある場合(ステップS416でYes)、しゃがみ込みありと判定する(ステップS418)。 Subsequently, when the height H a is larger than the height H b (Yes in Step S412), the tracking unit 249 determines continuity from the movement locus Q a and the movement locus Q b (Step S414), and the continuity is determined. If there is (Yes in Step S416), it is determined that there is squatting (Step S418).

ここで、連続性の判断については、前述した移動範囲や移動速度による判定方法を用いればよい。例えば、移動範囲を用いて判定する場合、追跡部249は、移動軌跡Qのうち消失する直前の位置Pa1と、移動軌跡Qのうち最初に検出された位置PbMとが、人らしい移動範囲内に入るか否かを判定すればよい。また例えば、移動速度を用いて判定する場合、追跡部249は、消失する直前のK個の位置Q’{Pa1,…,PaK}(K<N)と検出された直後の位置Q’{PM−L+1,…,PbM}(L<M)から連続性を判定すればよい。 Here, for the determination of continuity, the determination method based on the movement range and movement speed described above may be used. For example, when determining using the movement range, the tracking unit 249 indicates that the position P a1 immediately before disappearing in the movement locus Q a and the position P bM detected first in the movement locus Q b are human. What is necessary is just to determine whether it enters in a movement range. Further, for example, when the determination is made using the moving speed, the tracking unit 249 determines the position Q immediately after being detected as K positions Q a ′ {P a1 ,..., P aK } (K <N) immediately before disappearing. b ′ {P M−L + 1 ,..., P bM } (L <M) may be used to determine continuity.

一方、ステップS404で新規の人物を検知しなかった場合(ステップS404でNo)、ステップS406で所定時間内に対象人物が消失した追跡情報が記憶部120に記憶されていない場合(ステップS406でNo)、ステップS412で身長Hが身長Hよりも小さい場合(ステップS412でNo)、及びステップS416で連続性がない場合(ステップS416でNo)、追跡部249は、しゃがみ込みなしと判定する(ステップS420)。 On the other hand, when no new person is detected in step S404 (No in step S404), tracking information in which the target person disappears within a predetermined time is not stored in the storage unit 120 in step S406 (No in step S406). ), if the height H a is smaller than the height H b at step S412 (no at step S412), and if there is no continuity in step S416 (no at step S416), the tracking unit 249, without narrowing squatting and determines (Step S420).

(変形例3)
上記実施形態では、身長推定部147は、所定数以上の移動軌跡が作成された仮定身長が複数存在する場合、当該複数の仮定身長、及び当該複数の仮定身長それぞれの移動軌跡数を用いて、対象人物の身長を推定したが、当該複数の仮定身長それぞれの移動速度の分散を用いて、対象人物の身長を推定するようにしてもよい。
(Modification 3)
In the above embodiment, when there are a plurality of assumed heights where a predetermined number or more of movement trajectories are created, the height estimation unit 147 uses the plurality of assumed heights and the number of movement trajectories of each of the plurality of assumed heights. Although the height of the target person is estimated, the height of the target person may be estimated using the variance of the moving speed of each of the plurality of assumed heights.

この場合、身長推定部147は、仮定身長Hから算出した移動軌跡Q{Pa1(Xa1,Ya1),…,Pai,…,PaN}を求める。ここで、位置Pai(i=1,…,N)が推定されたときの時刻をTaiとし、i=1のとき、最新のデータが入力されるものとする。そして身長推定部147は、求めた移動軌跡Qから移動速度の分散値Vを求める(数式(7)参照)。ここで、数式(7)の変数は、数式(9)及び数式(11)に示すとおりである。 In this case, the height estimation unit 147 obtains the movement locus Q a {P a1 (X a1 , Y a1 ),..., P ai ,..., P aN } calculated from the assumed height H a . Here, T ai is the time when the position P ai (i = 1,..., N) is estimated, and the latest data is input when i = 1. Then, the height estimation unit 147 obtains a variance value V a of the movement speed from the obtained movement locus Q a (see Expression (7)). Here, the variables of Equation (7) are as shown in Equation (9) and Equation (11).

同様に、身長推定部147は、仮定身長Hから算出した移動軌跡Q{Pb1(Xb1,Yb1),…,Pbi,…,PbM}を求める。ここで、位置Pbi(i=1,…,M)が推定されたときの時刻をTbiとし、i=1のとき、最新のデータが入力されるものとする。そして身長推定部147は、求めた移動軌跡Qから移動速度の分散値Vを求める(数式(8)参照)。ここで、数式(8)の変数は、数式(10)及び数式(12)に示すとおりである。 Similarly, the height estimation unit 147 obtains a movement locus Q b {P b1 (X b1 , Y b1 ),..., P bi ,..., P bM } calculated from the assumed height H b . Here, it is assumed that the time when the position P bi (i = 1,..., M) is estimated is T bi, and the latest data is input when i = 1. The height estimating section 147 obtains the variance value V b of the moving speed from the movement locus Q b determined (see Equation (8)). Here, the variables of Equation (8) are as shown in Equation (10) and Equation (12).

Figure 0005756709
Figure 0005756709

Figure 0005756709
Figure 0005756709

Figure 0005756709
Figure 0005756709

Figure 0005756709
Figure 0005756709

Figure 0005756709
Figure 0005756709

Figure 0005756709
Figure 0005756709

そして、身長推定部147は、数式(13)を用いて、対象人物の身長を推定する。   Then, the height estimation unit 147 estimates the height of the target person using Equation (13).

Figure 0005756709
Figure 0005756709

(変形例4)
上記第2実施形態では、推定身長を用いて対象人物を追跡したが、追跡中に対象人物の足元を確実に撮像できた場合には、当該足元から推定した身長に置き換えて対象人物を追跡するようにしてもよい。
(Modification 4)
In the second embodiment, the target person is tracked using the estimated height. However, if the target person's feet can be reliably imaged during tracking, the target person is tracked by replacing the height estimated from the step. You may do it.

(変形例5)
上記各実施形態及び各変形例の身長推定装置を、例えば、強盗の身長推定及び追跡に使用する場合、推定身長や移動軌跡に加え、他の特徴(人相や服装)を出力するようにしてもよい。また、上記各実施形態及び各変形例の身長推定装置は、棚などで人物の足元が見えないことが多い小売店舗や人ごみなどの場所において用いると好適であり、マーケティングや人流解析などへの応用が期待できる。
(Modification 5)
For example, when the height estimation device of each embodiment and each modification is used for height estimation and tracking of a robber, in addition to the estimated height and movement trajectory, other characteristics (human phase and clothes) are output. Also good. Further, the height estimation device of each of the above embodiments and modifications is preferably used in places such as retail stores and crowds where a person's feet are often not visible on a shelf or the like, and is applied to marketing, human flow analysis, etc. Can be expected.

(ハードウェア構成)
上記各実施形態及び各変形例の身長推定装置は、CPU(Central Processing Unit)などの制御装置と、ROMやRAMなどの記憶装置と、HDDやSSDなどの外部記憶装置と、ディスプレイなどの表示装置と、マウスやキーボードなどの入力装置と、通信I/Fなどの通信装置とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
(Hardware configuration)
The height estimation device according to each of the above embodiments and modifications includes a control device such as a CPU (Central Processing Unit), a storage device such as a ROM and a RAM, an external storage device such as an HDD and an SSD, and a display device such as a display. And an input device such as a mouse and a keyboard and a communication device such as a communication I / F, and has a hardware configuration using a normal computer.

上記各実施形態及び各変形例の身長推定装置で実行される身長推定プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供される。   The height estimation program executed by the height estimation device of each of the above embodiments and modifications is a file in an installable format or an executable format, and is a CD-ROM, CD-R, memory card, DVD, flexible disk (FD). And the like stored in a computer-readable storage medium.

また、上記各実施形態及び各変形例の身長推定装置で実行される身長推定プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記各実施形態及び各変形例の身長推定装置で実行される身長推定プログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上記各実施形態及び各変形例の身長推定装置で実行される身長推定プログラムを、ROM等に予め組み込んで提供するようにしてもよい。   Further, the height estimation program executed by the height estimation device of each of the above embodiments and modifications may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Good. Further, the height estimation program executed by the height estimation device of each of the above embodiments and modifications may be provided or distributed via a network such as the Internet. Further, a height estimation program executed by the height estimation device of each of the above embodiments and modifications may be provided by being incorporated in advance in a ROM or the like.

上記各実施形態及び各変形例の身長推定装置で実行される身長推定プログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、例えば、CPUがHDDからプログラムをRAM上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。   The height estimation program executed by the height estimation device according to each of the embodiments and the modifications has a module configuration for realizing the above-described units on a computer. As actual hardware, for example, the CPU reads out a program from the HDD to the RAM and executes it, so that the above-described units are realized on the computer.

100、200 身長推定装置
110 入力部
120 記憶部
130 撮像部
140 制御部
141 頭部検出部
143、243 足元位置推定部
145、245 実空間位置推定部
147 身長推定部
249 追跡部
150 表示部
100, 200 Height estimation device 110 Input unit 120 Storage unit 130 Imaging unit 140 Control unit 141 Head detection unit 143, 243 Foot position estimation unit 145, 245 Real space position estimation unit 147 Height estimation unit 249 Tracking unit 150 Display unit

Claims (8)

対象人物を含む画像を時系列で撮像する撮像部と、
時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出部と、
検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定部と、
推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定部と、
前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定部と、
を備えることを特徴とする身長推定装置。
An imaging unit that captures images including the target person in time series;
A head detection unit that detects the head of the target person from each of the images captured in time series;
Using the detected head, a foot position estimation unit that estimates the foot position of the target person for each assumed height from each of the images captured in time series,
Using the estimated foot position, a real space position estimation unit that estimates the position of the target person in real space in time series for each assumed height;
A height estimation unit that creates a human-like movement trajectory using the estimated time-series position in the real space for each assumed height, and estimates the assumed height from which the most human-like movement trajectory was created to the height of the target person When,
A height estimation apparatus comprising:
前記身長推定部は、前記仮定身長それぞれに対し、推定された前記実空間上の時系列の位置毎に当該位置の次の位置へ前記対象人物が移動可能か否かを判定し、移動可能である場合に前記位置と前記次の位置とを結ぶ移動軌跡を作成し、所定数以上の移動軌跡が作成された仮定身長を前記対象人物の身長に推定することを特徴とする請求項1に記載の身長推定装置。   The height estimation unit determines whether or not the target person can move to a position next to the position for each of the assumed heights for each estimated time-series position in the real space. 2. The movement trajectory connecting the position and the next position is created in some cases, and an assumed height on which a predetermined number or more of movement trajectories are created is estimated as the height of the target person. Height estimation device. 前記身長推定部は、所定数以上の移動軌跡が作成された仮定身長が複数存在する場合、当該複数の仮定身長、及び当該複数の仮定身長それぞれの移動軌跡数を用いて、前記対象人物の身長を推定することを特徴とする請求項2に記載の身長推定装置。   When there are a plurality of assumed heights where a predetermined number or more of movement trajectories are created, the height estimation unit uses the plurality of assumed heights and the number of movement trajectories of each of the plurality of assumed heights to calculate the height of the target person. The height estimation device according to claim 2, wherein the height is estimated. 前記身長推定部は、所定数以上の移動軌跡が作成された仮定身長が複数存在する場合、当該複数の仮定身長それぞれの移動軌跡から当該複数の仮定身長それぞれの前記対象人物の移動速度の分散を算出し、当該複数の仮定身長、及び当該複数の仮定身長それぞれの前記対象人物の移動速度の分散を用いて、前記対象人物の身長を推定することを特徴とする請求項2に記載の身長推定装置。   When there are a plurality of assumed heights in which a predetermined number or more of movement trajectories are created, the height estimation unit distributes the movement speed of the target person for each of the plurality of assumed heights from the movement trajectories of the plurality of assumed heights. The height estimation according to claim 2, wherein the height of the target person is estimated by calculating and using a variance of the plurality of assumed heights and a movement speed of the target person for each of the plurality of assumed heights. apparatus. 前記足元位置推定部は、前記対象人物の身長が推定された後に撮像された画像から前記対象人物の足元位置を前記身長推定部により推定された身長である推定身長を用いて推定し、
前記実空間位置推定部は、推定された前記足元位置を用いて、前記推定身長の前記対象人物の実空間上の位置を推定し、
推定された前記推定身長の前記対象人物の実空間上の位置を追跡する追跡部を更に備えることを特徴とする請求項1〜4のいずれか1つに記載の身長推定装置。
The foot position estimation unit estimates the foot position of the target person from an image captured after the height of the target person is estimated using an estimated height that is the height estimated by the height estimation unit,
The real space position estimating unit estimates the position of the target person in real space of the estimated height using the estimated foot position,
The height estimation apparatus according to claim 1, further comprising a tracking unit that tracks a position of the estimated height of the target person in real space.
前記追跡部は、追跡中に前記推定身長の前記対象人物がしゃがみ込んだか否かを判定することを特徴とする請求項5に記載の身長推定装置。   6. The height estimation apparatus according to claim 5, wherein the tracking unit determines whether or not the target person of the estimated height has crouched during tracking. 撮像部が、対象人物を含む画像を時系列で撮像する撮像ステップと、
頭部検出部が、時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出ステップと、
足元位置推定部が、検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定ステップと、
実空間位置推定部が、推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定ステップと、
身長推定部が、前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定ステップと、
を含むことを特徴とする身長推定方法。
An imaging step in which the imaging unit captures an image including the target person in time series; and
A head detection step in which a head detection unit detects the head of the target person from each of the images captured in time series;
A foot position estimation unit that estimates the foot position of the target person for each assumed height from each of the images captured in time series using the detected head; and
A real space position estimation unit that estimates the position of the target person in real space in time series for each assumed height using the estimated foot position;
The height estimation unit creates a human-like movement trajectory using the estimated time-series position in the real space for each assumed height, and the assumed height from which the most human-like movement trajectory was created is used as the height of the target person. A height estimation step to estimate;
A height estimation method characterized by comprising:
対象人物を含む画像を時系列で撮像する撮像ステップと、
時系列で撮像された前記画像それぞれから前記対象人物の頭部を検出する頭部検出ステップと、
検出された前記頭部を用いて、時系列で撮像された前記画像それぞれから前記対象人物の足元位置を仮定身長毎に推定する足元位置推定ステップと、
推定された前記足元位置を用いて、前記対象人物の実空間上の位置を前記仮定身長毎に時系列で推定する実空間位置推定ステップと、
前記仮定身長毎に、推定された前記実空間上の時系列の位置を用いて人間らしい移動軌跡を作成し、最も人間らしい移動軌跡が作成された仮定身長を前記対象人物の身長に推定する身長推定ステップと、
をコンピュータに実行させるための身長推定プログラム。
An imaging step of imaging an image including the target person in time series;
A head detection step of detecting the head of the target person from each of the images captured in time series;
Using the detected head, a foot position estimation step for estimating the foot position of the target person for each assumed height from each of the images captured in time series,
Using the estimated foot position, a real space position estimating step for estimating the position of the target person in real space in time series for each assumed height;
For each assumed height, a human-like movement trajectory is created using the estimated time-series position in the real space, and a height estimation step is performed to estimate the assumed height from which the most human-like movement trajectory was created to the height of the target person. When,
Height estimation program to make the computer execute.
JP2011170549A 2011-08-03 2011-08-03 Height estimation device, height estimation method, and height estimation program Active JP5756709B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011170549A JP5756709B2 (en) 2011-08-03 2011-08-03 Height estimation device, height estimation method, and height estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011170549A JP5756709B2 (en) 2011-08-03 2011-08-03 Height estimation device, height estimation method, and height estimation program

Publications (3)

Publication Number Publication Date
JP2013037406A JP2013037406A (en) 2013-02-21
JP2013037406A5 JP2013037406A5 (en) 2014-09-18
JP5756709B2 true JP5756709B2 (en) 2015-07-29

Family

ID=47886995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011170549A Active JP5756709B2 (en) 2011-08-03 2011-08-03 Height estimation device, height estimation method, and height estimation program

Country Status (1)

Country Link
JP (1) JP5756709B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6276519B2 (en) * 2013-05-22 2018-02-07 株式会社 日立産業制御ソリューションズ Person counting device and human flow line analyzing device
JP6331270B2 (en) * 2013-06-06 2018-05-30 日本電気株式会社 Information processing system, information processing method, and program
EP3154024B1 (en) * 2014-06-03 2023-08-09 Sumitomo Heavy Industries, Ltd. Human detection system for construction machine
JP6428144B2 (en) 2014-10-17 2018-11-28 オムロン株式会社 Area information estimation device, area information estimation method, and air conditioner
US11308315B2 (en) 2017-09-27 2022-04-19 Nec Corporation Information processing apparatus, control method, and program
JP2020008929A (en) * 2018-07-03 2020-01-16 富士ゼロックス株式会社 Height calculation system, information processing apparatus, and program
CN110992397B (en) * 2019-10-21 2023-07-21 浙江大华技术股份有限公司 Personnel access track tracking method, system, computer equipment and storage medium
JP7286586B2 (en) * 2020-05-14 2023-06-05 株式会社日立エルジーデータストレージ Ranging system and ranging sensor calibration method
WO2024023893A1 (en) * 2022-07-25 2024-02-01 三菱電機株式会社 Human detection device, human detection system, program, and human detection method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056853A (en) * 1999-08-19 2001-02-27 Matsushita Electric Ind Co Ltd Behavior detecting device and kind discriminating device, behavior detecting method, and recording medium where behavior detecting program is recorded
JP5147761B2 (en) * 2009-03-02 2013-02-20 セコム株式会社 Image monitoring device

Also Published As

Publication number Publication date
JP2013037406A (en) 2013-02-21

Similar Documents

Publication Publication Date Title
JP5756709B2 (en) Height estimation device, height estimation method, and height estimation program
JP6554169B2 (en) Object recognition device and object recognition system
JP5528151B2 (en) Object tracking device, object tracking method, and object tracking program
US8005266B2 (en) Vehicle surroundings monitoring apparatus
US8126210B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method
US9105104B2 (en) Image processing apparatus,image processing method, and program
JP4884096B2 (en) Object identification system
CN108140291A (en) Mist detecting device, method and image processing equipment
WO2015125298A1 (en) Local location computation device and local location computation method
JP5710752B2 (en) Detection apparatus, method and program
JP2008186246A (en) Moving object recognizing device
JP5754470B2 (en) Road surface shape estimation device
WO2018139461A1 (en) Moving object detection device, moving object detection method and storage medium
JP2007249309A (en) Obstacle tracking system and method
JP2011065338A (en) Object tracking device and program
JP5567899B2 (en) Flow line creating apparatus and flow line creating method
JP2008176504A (en) Object detector and method therefor
JP6188592B2 (en) Object detection apparatus, object detection method, and object detection program
JP5048609B2 (en) Object tracking device and program
WO2015198592A1 (en) Information processing device, information processing method, and information processing program
JP6336935B2 (en) Moving object tracking device
JP6798609B2 (en) Video analysis device, video analysis method and program
JP6962365B2 (en) Object detection system and program
JP2019207607A (en) Moving body tracking device
WO2019003709A1 (en) Information processing device, control method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140804

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150601

R150 Certificate of patent or registration of utility model

Ref document number: 5756709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250