JP2011226880A - Measuring device, measuring method and measuring program - Google Patents

Measuring device, measuring method and measuring program Download PDF

Info

Publication number
JP2011226880A
JP2011226880A JP2010095803A JP2010095803A JP2011226880A JP 2011226880 A JP2011226880 A JP 2011226880A JP 2010095803 A JP2010095803 A JP 2010095803A JP 2010095803 A JP2010095803 A JP 2010095803A JP 2011226880 A JP2011226880 A JP 2011226880A
Authority
JP
Japan
Prior art keywords
dimensional shape
laser range
measurement
horizontal
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010095803A
Other languages
Japanese (ja)
Inventor
Tetsushi Ikeda
徹志 池田
Takahiro Miyashita
敬宏 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2010095803A priority Critical patent/JP2011226880A/en
Publication of JP2011226880A publication Critical patent/JP2011226880A/en
Pending legal-status Critical Current

Links

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain various information by measuring an object with a plurality of laser range finders.SOLUTION: A measuring device (10) includes a computer (12) and seven LRFs (14), and the computer measures a moving object (Obj) with the seven LRFs. Three of the seven LRFs are slanted LRFs 14i having a scanning plane (Scn) slanted against a horizontal plane, and the other four are horizontal LRFs 14h having a scanning plane parallel to a horizontal plane. Three-dimensional shape models (M1, M2, ...) of objects are registered in a database (52) of the computer. A CPU (12c) of the computer estimates a horizontal position of the object Obj based on measured data (two-dimensional distance information) from each of the horizontal LRFs 14h (S35), estimates a three-dimensional shape of the object based on a comparison of measured data from each of the slanted LRFs 14i and the three-dimensional models registered in the database (S47), and recognizes the object based on the three-dimensional shape (S49).

Description

この発明は、計測装置,計測方法および計測プログラムに関し、特にたとえば、複数の距離計で対象を計測する、計測装置,計測方法および計測プログラムに関する。   The present invention relates to a measurement device, a measurement method, and a measurement program, and more particularly, to a measurement device, a measurement method, and a measurement program that measure an object with a plurality of distance meters, for example.

この種の従来の装置としては、たとえば特許文献1に開示されたものが知られている。この背景技術では、複数のレーザレンジファインダ(LRF)で被験者を計測して、計測結果から被験者の位置および移動速度を推定し、さらに人形状モデルを用いて被験者の体の向きおよび腕の動きをも推定している。
特開2009−168578号公報
As this type of conventional apparatus, for example, one disclosed in Patent Document 1 is known. In this background art, a subject is measured with a plurality of laser range finders (LRF), the position and moving speed of the subject are estimated from the measurement results, and the body orientation and arm movement of the subject are further determined using a human shape model. Also estimate.
JP 2009-168578 A

しかし、特許文献1の背景技術では、どのLRFも、スキャン面が腰の高さで水平となるように設置されている。したがって、LRFからの計測データには、腰の高さでの距離情報しか含まれていないので、3次元形状に関する情報たとえば身長などを推定することはできない。   However, in the background art of Patent Document 1, any LRF is installed such that the scan surface is horizontal at the waist level. Therefore, since the measurement data from the LRF includes only distance information at the waist height, it is not possible to estimate information about the three-dimensional shape, such as height.

それゆえに、この発明の主たる目的は、新規な、計測装置,計測方法および計測プログラムを提供することである。   Therefore, a main object of the present invention is to provide a novel measuring apparatus, measuring method, and measuring program.

この発明の他の目的は、複数のレーザレンジファインダで対象を計測して多様な情報を得ることができる、計測装置,計測方法および計測プログラムを提供することである。   Another object of the present invention is to provide a measuring device, a measuring method, and a measuring program capable of measuring a target with a plurality of laser range finders and obtaining various information.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、複数のレーザレンジファインダで動く対象を計測する計測装置であって、複数のレーザレンジファインダの少なくとも1つは、そのスキャン面が水平面に対して傾斜した傾斜レーザレンジファインダであり、対象の3次元形状モデルが登録されたデータベース、複数のレーザレンジファインダのうち少なくとも2つからの計測データに基づいて対象の水平位置を推定する第1推定手段、および傾斜レーザレンジファインダからの計測データとデータベースに登録された3次元形状モデルとの比較に基づいて対象の3次元形状を推定する第2推定手段を備える。   1st invention is a measuring device which measures the object which moves with a plurality of laser range finders, and at least one of a plurality of laser range finders is an inclination laser range finder in which the scan plane inclined with respect to a horizontal surface. A first estimator that estimates the horizontal position of the object based on measurement data from at least two of the plurality of laser range finders, and a measurement from the tilted laser range finder Second estimation means for estimating the target three-dimensional shape based on a comparison between the data and the three-dimensional shape model registered in the database is provided.

第1の発明では、計測装置(10)は、たとえば人や買い物カートといった動く対象(Obj)を複数のレーザレンジファインダ(14)で計測する。これら複数のレーザレンジファインダのうち少なくとも1つは、そのスキャン面(Scn)が水平面に対して傾斜した傾斜レーザレンジファインダ(14i)である。   In the first invention, the measuring device (10) measures a moving object (Obj) such as a person or a shopping cart with a plurality of laser range finders (14). At least one of the plurality of laser range finders is an inclined laser range finder (14i) whose scan surface (Scn) is inclined with respect to the horizontal plane.

そして、計測装置は、データベース(52)、第1推定手段(S35)および第2推定手段(S47)を備える。データベースには、上記のような対象の3次元形状モデル(M1,M2,…)が登録されており、第1推定手段は、複数のレーザレンジファインダのうち少なくとも2つからの計測データに基づいて対象の水平位置を推定し、第2推定手段は、傾斜レーザレンジファインダからの計測データとデータベースに登録された3次元形状モデルとの比較に基づいて対象の3次元形状を推定する。   And a measuring device is provided with a database (52), a 1st estimation means (S35), and a 2nd estimation means (S47). The target three-dimensional shape models (M1, M2,...) Are registered in the database, and the first estimation means is based on measurement data from at least two of the plurality of laser range finders. The horizontal position of the target is estimated, and the second estimation means estimates the three-dimensional shape of the target based on the comparison between the measurement data from the tilt laser range finder and the three-dimensional shape model registered in the database.

したがって、少なくとも2つのレーザレンジファインダからの計測データに基づいて対象の水平位置を推定することができる。また、傾斜したスキャン面内を対象が動くことで、傾斜レーザレンジファインダからの計測データには、異なる高さでの2次元距離情報(距離および角度を示す情報)が含まれる結果となるため、このような計測データから3次元形状を推定することができる。   Therefore, the horizontal position of the object can be estimated based on measurement data from at least two laser range finders. In addition, since the object moves within the inclined scan plane, the measurement data from the inclined laser range finder results in two-dimensional distance information (information indicating distance and angle) at different heights. A three-dimensional shape can be estimated from such measurement data.

なお、水平位置を推定するためのレーザレンジファインダは、下記第10の発明のように、そのスキャン面(Scn)が水平面と平行な水平レーザレンジファインダ(14h)であれば好ましい。ただし、傾斜レーザレンジファインダであっても、傾斜角が既知であれば座標変換を行うことで、水平位置の推定は可能である。また、1つの傾斜レーザレンジファインダを、水平位置の推定と3次元形状の推定とに兼用してもよい。このため、レーザレンジファインダの最小構成は、原理的には2台であり、その内訳は、水平および傾斜が各1個、または傾斜2個となる。しかし、一般的には、水平位置の推定用に水平2個と、3次元形状の推定用に傾斜1個との、計3個が最小構成である。好ましい実施例では、レーザ光の当たらない死角を減らすために、水平4個および傾斜3個の構成を採用している。   The laser range finder for estimating the horizontal position is preferably a horizontal laser range finder (14h) whose scan surface (Scn) is parallel to the horizontal plane, as in the following tenth invention. However, even with the tilt laser range finder, if the tilt angle is known, the horizontal position can be estimated by performing coordinate conversion. One tilt laser range finder may be used for both the estimation of the horizontal position and the estimation of the three-dimensional shape. For this reason, the minimum configuration of the laser range finder is two in principle, and the breakdown is one each for horizontal and tilt, or two for tilt. However, in general, a total of three components, two horizontal components for estimating the horizontal position and one gradient component for estimating the three-dimensional shape, are the minimum configuration. In the preferred embodiment, a configuration with four horizontal elements and three inclined elements is adopted in order to reduce a blind spot not irradiated with laser light.

第1の発明によれば、複数のレーザレンジファインダで対象を計測して、水平位置,3次元形状といった多様な情報が得られる。   According to the first invention, various information such as a horizontal position and a three-dimensional shape can be obtained by measuring an object with a plurality of laser range finders.

なお、水平位置の変化から移動速度を計算することもできるし、下記第4の発明のように3次元形状の推定を時系列フィルタリングにより行えば、3次元形状と一緒に方向を推定することもできる。また、下記第9の発明のように3次元形状に基づいて対象を認識することで、種類,属性,プロファイルといった、さらに多様な情報も得られる。   Note that the moving speed can be calculated from the change in the horizontal position, and if the estimation of the three-dimensional shape is performed by time series filtering as in the fourth invention below, the direction can be estimated together with the three-dimensional shape. it can. Further, by recognizing a target based on a three-dimensional shape as in the ninth aspect described below, more various information such as type, attribute, and profile can be obtained.

第2の発明は、第1の発明に従属する計測装置であって、傾斜レーザレンジファインダからの計測データに対してそのスキャン面の水平面に対する傾斜角に応じた座標変換処理を施す座標変換手段をさらに備え、第2推定手段は、座標変換手段による座標変換処理が施された計測データに基づいて推定を行う。   A second invention is a measuring device subordinate to the first invention, comprising a coordinate conversion means for performing a coordinate conversion process on the measurement data from the inclined laser range finder according to the inclination angle of the scan surface with respect to the horizontal plane. Further, the second estimation means performs estimation based on the measurement data subjected to the coordinate conversion processing by the coordinate conversion means.

第2の発明では、座標変換手段(S45)が、傾斜レーザレンジファインダからの計測データに対して、そのスキャン面(Scn)の水平面に対する傾斜角(α)に応じた座標変換処理を施す。第2推定手段による推定は、このような座標変換処理が施された計測データに基づいて行われる。   In the second invention, the coordinate conversion means (S45) performs a coordinate conversion process on the measurement data from the tilt laser range finder according to the tilt angle (α) of the scan plane (Scn) with respect to the horizontal plane. The estimation by the second estimation means is performed based on the measurement data subjected to such coordinate conversion processing.

第3の発明は、第2の発明に従属する計測装置であって、第2推定手段は、座標変換手段による座標変換処理が施された計測データを時系列に統合する時系列統合手段を含む。   A third invention is a measurement device according to the second invention, wherein the second estimation means includes time series integration means for integrating measurement data subjected to coordinate conversion processing by the coordinate conversion means in time series. .

第3の発明では、時系列統合手段(S61)が、座標変換手段による座標変換処理が施された計測データを時系列に統合する。3次元形状は、この統合結果に基づいて推定される。   In the third invention, the time series integration unit (S61) integrates the measurement data subjected to the coordinate conversion processing by the coordinate conversion unit into the time series. A three-dimensional shape is estimated based on this integration result.

第2,第3の発明によれば、スキャン面が傾斜していても3次元形状を適切に推定することができる。   According to the second and third inventions, the three-dimensional shape can be appropriately estimated even when the scan plane is inclined.

第4の発明は、第3の発明に従属する計測装置であって、時系列統合手段は、対象の可能な3次元形状および方向を時系列フィルタリングにより計算しながら統合を行う。   A fourth invention is a measuring apparatus subordinate to the third invention, and the time series integration means performs integration while calculating possible three-dimensional shapes and directions of objects by time series filtering.

第5の発明は、第4の発明に従属する計測装置であって、時系列統合手段は、時系列フィルタリングによる計算結果と3次元形状モデルとの間の距離に基づいて、最も可能性の高い3次元形状および方向を推定する。なお、距離は、所定の関数たとえば数3に示したような関数により求められる。   A fifth invention is a measuring apparatus according to the fourth invention, wherein the time series integration means is most likely based on a distance between a calculation result by time series filtering and a three-dimensional shape model. Estimate the 3D shape and direction. The distance is obtained by a predetermined function, for example, a function as shown in Equation 3.

第6の発明は、第5の発明に従属する計測装置であって、時系列統合手段は、3次元形状モデルとの間の距離が最短である計算結果を最も可能性が高いと推定する。   6th invention is a measuring device which depends on 5th invention, Comprising: A time series integration means estimates that the calculation result with the shortest distance between a three-dimensional shape model is most likely.

第4〜第6の発明によれば、予測および観測を繰り返すことによって現在の対象の状態を推定するような時系列フィルタを用いて効率的かつ高精度に統合を行うことができる。時系列フィルタは、ある実施例ではパーティクルフィルタであるが、DPマッチングなど他のフィルタでもよい。   According to the fourth to sixth inventions, integration can be performed efficiently and with high accuracy using a time-series filter that estimates the current target state by repeating prediction and observation. The time series filter is a particle filter in an embodiment, but may be another filter such as DP matching.

第7の発明は、第3の発明に従属する計測装置であって、時系列統合手段は、統合を行う際に第1推定手段の計測結果を利用する。   7th invention is a measuring device which depends on 3rd invention, Comprising: A time series integration means utilizes the measurement result of a 1st estimation means, when integrating.

第7の発明によれば、第1推定手段の計測結果つまり水平位置を利用することで、統合の効率および精度をより高めることができる。   According to the seventh aspect, by using the measurement result of the first estimating means, that is, the horizontal position, the efficiency and accuracy of integration can be further increased.

第8の発明は、第1の発明に従属する計測装置であって、傾斜レーザレンジファインダで対象を計測して当該対象に対応する3次元形状モデルを作成する作成手段をさらに備える。   An eighth invention is a measurement device according to the first invention, further comprising a creating means for measuring a target with a tilted laser range finder and creating a three-dimensional shape model corresponding to the target.

第8の発明では、作成手段(S5)が、傾斜レーザレンジファインダで対象を計測してその3次元形状モデルを作成する。   In the eighth invention, the creating means (S5) measures the object with the inclined laser range finder and creates a three-dimensional shape model thereof.

第8の発明によれば、3次元形状を推定するための傾斜レーザレンジファインダで事前に3次元形状モデルを作成するので、精度の高い推定が行える。   According to the eighth aspect, since the three-dimensional shape model is created in advance by the inclined laser range finder for estimating the three-dimensional shape, high-precision estimation can be performed.

第9の発明は、第1の発明に従属する計測装置であって、第2推定手段の推定結果に基づいて対象を認識する認識手段をさらに備える。   A ninth invention is a measurement device subordinate to the first invention, and further comprises a recognition means for recognizing an object based on the estimation result of the second estimation means.

第9の発明では、認識手段(S49)が、第2推定手段の推定結果に基づいて対象を認識する。   In the ninth invention, the recognition means (S49) recognizes the object based on the estimation result of the second estimation means.

第9の発明によれば、推定された3次元形状に基づいて対象を認識するので、さらに多様な情報が得られる。具体的には、たとえば人,物といった種類に関する情報、さらには、人であれば大人,子供、物であれば買い物カート,手荷物といった属性(より細分化された種類)に関する情報、あるいは、身長,性別などのプロファイルに関する情報をも知ることができる。   According to the ninth aspect, since the object is recognized based on the estimated three-dimensional shape, more various information can be obtained. Specifically, for example, information on the type of person, item, etc., information on attributes (more subdivided types) such as adults and children for people, shopping carts and baggage for items, or height, You can also know information about profiles such as gender.

第10の発明は、第1の発明に従属する計測装置であって、複数のレーザレンジファインダの少なくとも2つは、そのスキャン面が水平面と平行な水平レーザレンジファインダであり、第1推定手段は、少なくとも2つの水平レーザレンジファインダからの計測データに基づいて推定を行う。   A tenth aspect of the invention is a measurement apparatus according to the first aspect of the invention, wherein at least two of the plurality of laser range finders are horizontal laser range finders whose scan planes are parallel to a horizontal plane, The estimation is performed based on the measurement data from at least two horizontal laser range finders.

第10の発明では、複数のレーザレンジファインダの少なくとも2つは、そのスキャン面(Scn)が水平面と平行な水平レーザレンジファインダ(14h)である。第1推定手段による推定処理は、各水平レーザレンジファインダからの計測データに基づいて行われる。   In the tenth invention, at least two of the plurality of laser range finders are horizontal laser range finders (14h) whose scan surfaces (Scn) are parallel to the horizontal plane. The estimation process by the first estimation means is performed based on measurement data from each horizontal laser range finder.

第10の発明によれば、水平位置を容易に推定することができる。   According to the tenth aspect, the horizontal position can be easily estimated.

第11の発明は、複数のレーザレンジファインダ(14)で動く対象(Obj)を計測する計測方法であって、(a)複数のレーザレンジファインダの少なくとも1つを、そのスキャン面(Scn)が水平面に対して傾斜するように設置し、(b)対象の3次元形状モデル(M1,M2,…)をデータベース(52)に登録し(S9)、(c)複数のレーザレンジファインダのうち少なくとも2つからの計測データに基づいて対象の水平位置を推定し(S35)、そして(d)ステップ(a)で傾斜させて設置したレーザレンジファインダからの計測データとステップ(b)でデータベースに登録された3次元形状モデルとの比較に基づいて対象の3次元形状を推定する(S47)。   An eleventh aspect of the invention is a measurement method for measuring an object (Obj) that is moved by a plurality of laser range finders (14), wherein (a) at least one of the plurality of laser range finders has a scan surface (Scn). (B) the target three-dimensional shape model (M1, M2,...) Is registered in the database (52) (S9), and (c) at least one of the plurality of laser range finders. The horizontal position of the target is estimated based on the measurement data from the two (S35), and (d) the measurement data from the laser range finder installed at an inclination in step (a) and the data registered in the database in step (b) The target three-dimensional shape is estimated based on the comparison with the made three-dimensional shape model (S47).

第12の発明は、計測プログラム(30)であって、そのスキャン面(Scn)が水平面に対して傾斜した少なくとも1つの傾斜レーザレンジファインダ(14i)を含む複数のレーザレンジファインダで動く対象(Obj)を計測する計測装置(10)のコンピュータ(12)を、対象の3次元形状モデル(M1,M2,…)をデータベース(52)に登録する登録ステップ(S9)、複数のレーザレンジファインダのうち少なくとも2つからの計測データに基づいて対象の水平位置を推定する第1推定ステップ(S35)、および傾斜レーザレンジファインダからの計測データとデータベースに登録された3次元形状モデルとの比較に基づいて対象の3次元形状を推定する第2推定ステップ(S47)として機能させる。   A twelfth aspect of the invention is a measurement program (30), the object to be moved by a plurality of laser range finders (Obj) including at least one inclined laser range finder (14i) whose scan plane (Scn) is inclined with respect to a horizontal plane. ) For measuring the computer (12) of the measuring device (10), the registration step (S9) for registering the target three-dimensional shape model (M1, M2,...) In the database (52), among the plurality of laser range finders Based on the first estimation step (S35) for estimating the horizontal position of the object based on the measurement data from at least two, and the comparison between the measurement data from the inclined laser range finder and the three-dimensional shape model registered in the database It functions as a second estimation step (S47) for estimating the three-dimensional shape of the object.

第11,第12の各発明でも、第1の発明と同様に、複数のレーザレンジファインダで対象を計測して、水平位置,3次元形状といった多様な情報が得られる。   In each of the eleventh and twelfth inventions, as in the first invention, various objects such as a horizontal position and a three-dimensional shape can be obtained by measuring an object using a plurality of laser range finders.

この発明によれば、複数のレーザレンジファインダで対象を計測して、水平位置,3次元形状ひいては種類(属性,プロファイル)といった多様な情報を得ることができる、計測装置,計測方法および計測プログラムが実現される。   According to the present invention, there are provided a measuring apparatus, a measuring method, and a measuring program capable of measuring a target with a plurality of laser range finders and obtaining various information such as a horizontal position, a three-dimensional shape, and a type (attribute, profile). Realized.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例である計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the measuring device which is one Example of this invention. LRFによる計測処理を説明するための図解図であり、(A)が計測領域(スキャン面)を示し、(B)が対象と計測領域との関係を示す。It is an illustration figure for explaining the measurement process by LRF, (A) shows a measurement field (scan plane), and (B) shows a relation between a subject and a measurement field. LRFの店舗への配置例を示す図解図であり、(A)が店舗内を上から見た様子(上面図)を示し、(B)が店舗内を正面から見た様子(正面図)を示す。It is an illustration figure which shows the example of arrangement | positioning to the store of LRF, (A) shows a mode (top view) which looked at the inside of a store from the top, (B) shows a mode (front view) which looked at the inside of a store from the front Show. 傾斜LRFからの計測データに施される座標変換処理を説明するための図解図であり、(A)が水平LRFのスキャン面と傾斜LRFのスキャン面との関係を示し、(B)が座標変換に用いるパラメータを示す。It is an illustration figure for demonstrating the coordinate transformation process performed to the measurement data from inclination LRF, (A) shows the relationship between the scanning surface of horizontal LRF, and the scanning surface of inclination LRF, (B) is coordinate transformation. The parameters used for are shown below. 傾斜LRFからの計測データを時系列に統合する処理を説明するための図解図である。It is an illustration figure for demonstrating the process which integrates the measurement data from inclination LRF in time series. 時系列統合処理によって得られる3次元形状を示す図解図である。It is an illustration figure which shows the three-dimensional shape obtained by a time series integration process. 3次元形状の具体例を示す図解図であり、(A)が人の3次元形状を示し、(B)が買い物カートの3次元形状を示す。It is an illustration figure which shows the specific example of a three-dimensional shape, (A) shows a person's three-dimensional shape, (B) shows the three-dimensional shape of a shopping cart. メモリマップを示す図解図である。It is an illustration figure which shows a memory map. CPU動作の一部を示すフロー図である。It is a flowchart which shows a part of CPU operation | movement. CPU動作の他の一部を示すフロー図である。It is a flowchart which shows another part of CPU operation | movement. CPU動作のその他の一部を示すフロー図である。It is a flowchart which shows the other part of CPU operation | movement. CPU動作のさらにその他の一部を示すフロー図である。It is a flowchart which shows a part of others of CPU operation | movement. CPU動作の他の一部を示すフロー図である。It is a flowchart which shows another part of CPU operation | movement.

図1を参照して、この実施例の計測装置10はコンピュータ12を含み、コンピュータ12には複数(ここでは7台)のレーザレンジファインダ(以下“LRF”と記す)14が接続される。コンピュータ12は、一般的なパーソナルコンピュータ(PC)でよく、たとえばキーボードなどの入力器12a,モニタなどの表示器12b,CPU12cおよびメモリ12dなどを備えている。なお、LRF14の数が多い場合や、コンピュータ12とLRF14の距離が離れており直接接続することが難しい場合には、副コンピュータ(図示せず)に1台または複数のLRF14を接続し、副コンピュータをコンピュータ12と接続する構成でもよい。   With reference to FIG. 1, a measuring apparatus 10 of this embodiment includes a computer 12, and a plurality of (here, seven) laser range finders (hereinafter referred to as “LRF”) 14 are connected to the computer 12. The computer 12 may be a general personal computer (PC), and includes an input device 12a such as a keyboard, a display device 12b such as a monitor, a CPU 12c, a memory 12d, and the like. When the number of LRFs 14 is large or when the distance between the computer 12 and the LRF 14 is long and it is difficult to connect directly, one or more LRFs 14 are connected to the sub computer (not shown), and the sub computer May be connected to the computer 12.

LRFは一般に、レーザ光を照射し、それが対象(物体や人体など)で反射して戻ってくるまでの時間から距離を計測する。この実施例のLRF14は、軸の周りをたとえば±90度の範囲で回転するミラー(図示せず)を含み、レーザ光の進路をこの回転ミラーでたとえば0.5度ずつ変化させながら計測を行う(レーザ光でスキャンする)ことができる。以下では、LRF14によってレーザ光でスキャンされる平面をスキャン面と呼ぶ。また、LRF14で計測可能な距離は、レーザ光が人の目に影響を与えないよう、所定距離R(たとえば8m)以下に制限されている。このため、LRF14の計測領域(スキャン面Scn)は、たとえば図2(A)に示すような半円形、つまり半径Rで中心角180度の扇形となる。なお、スキャン面Scnの中心角は180度とは限らず、たとえば270度や360度などでもよい。   In general, the LRF irradiates a laser beam, and measures the distance from the time until it is reflected by the target (object, human body, etc.) and returned. The LRF 14 of this embodiment includes a mirror (not shown) that rotates around an axis in a range of, for example, ± 90 degrees, and performs measurement while changing the path of the laser light by 0.5 degrees, for example, with this rotating mirror. (Scanning with laser light). Hereinafter, a plane scanned with the laser beam by the LRF 14 is referred to as a scan plane. Further, the distance measurable by the LRF 14 is limited to a predetermined distance R (for example, 8 m) or less so that the laser beam does not affect human eyes. For this reason, the measurement region (scanning surface Scn) of the LRF 14 is, for example, a semicircular shape as shown in FIG. Note that the central angle of the scan surface Scn is not limited to 180 degrees, and may be, for example, 270 degrees or 360 degrees.

コンピュータ12は、このようなLRF14を通じて、対象の2次元距離情報を取得する。LRF14からの2次元距離情報には、図2(B)に示すように、対象Objをスキャン面Scnで切ったとき、その切断面Crsの輪郭線Ln上の各点Pについて距離dおよび角度βを示す情報(ローカル座標系)が含まれている。ただし、このLRF14からは、レーザ光が到達しない影の部分の2次元距離情報は得られないので、別の1つまたは2つ以上のLRF14を、たとえば対象を挟んで反対側に、または対象を取り囲むように配置する必要がある。   The computer 12 acquires the target two-dimensional distance information through such an LRF 14. As shown in FIG. 2B, the two-dimensional distance information from the LRF 14 includes a distance d and an angle β for each point P on the contour line Ln of the cut surface Crs when the object Obj is cut by the scan surface Scn. (Local coordinate system) is included. However, since the two-dimensional distance information of the shadow portion where the laser beam does not reach is not obtained from this LRF 14, another one or two or more LRFs 14 are placed on the opposite side of the object, for example, or on the object. It is necessary to arrange so that it surrounds.

したがって、複数のLRF14を所定の位置(既知)に設置すれば、コンピュータ12は、各々から対象の2次元距離情報を取得して、3次元空間(ワールド座標系)における位置(たとえば重心など特徴点の位置座標(X,Y,Z):この実施例では特に水平位置座標(X,Y))および移動速度、さらには3次元形状および方向を計算することができ、ひいては3次元形状から対象の種類(たとえば人体か物体か)ないし属性(たとえば人体なら大人か子供か、物体ならショッピングカートか手荷物か)やプロファイル(たとえば身長,性別など)を推定することも可能となる。   Accordingly, if a plurality of LRFs 14 are installed at predetermined positions (known), the computer 12 acquires the target two-dimensional distance information from each of them, and the position (for example, a feature point such as the center of gravity, etc.) in the three-dimensional space (world coordinate system). Position coordinates (X, Y, Z): In this embodiment, in particular, the horizontal position coordinates (X, Y)) and the moving speed, and also the three-dimensional shape and direction can be calculated. It is also possible to estimate the type (for example, human body or object) or attribute (for example, adult or child for human body, shopping cart or baggage for object) and profile (for example, height, gender, etc.).

7台のLRF14の店舗への設置例を図3に示す。図3(A)は店舗内を上から見た上面図であり、図3(B)は店舗内を入り口側から見た正面図である。店舗内には、ワールド座標系として、たとえば床面の中心Cを原点に、床面の長辺および短辺に沿ってX軸およびY軸が定義され、さらにX軸およびY軸の両方に垂直なZ軸が定義される。   An example of installation of seven LRFs 14 in a store is shown in FIG. 3A is a top view of the inside of the store as viewed from above, and FIG. 3B is a front view of the inside of the store as viewed from the entrance side. In the store, as the world coordinate system, for example, the center C of the floor surface is defined as the origin, the X axis and the Y axis are defined along the long side and the short side of the floor surface, and perpendicular to both the X axis and the Y axis. Z axis is defined.

この例では、図3(A)からわかるように、7台のLRF14は部屋の四隅,正面および左右に配置されている。そして、図3(B)からわかるように、7台のLRF14のうち一部(ここでは四隅の4台)が、床から1mの高さに、スキャン面Scnが水平面と平行となるように設置され、他の一部(ここでは正面および左右の3台)は、床から2mの高さに、スキャン面Scnが水平面から一定角度(たとえば下向きに30度)傾斜するように設置されている。   In this example, as can be seen from FIG. 3A, the seven LRFs 14 are arranged at the four corners, the front, and the left and right of the room. As can be seen from FIG. 3B, a part of the seven LRFs 14 (here, four at the four corners) is set at a height of 1 m from the floor, and the scanning surface Scn is parallel to the horizontal plane. The other part (here, three on the front and left and right sides) is installed at a height of 2 m from the floor so that the scan plane Scn is inclined at a certain angle (for example, 30 degrees downward) from the horizontal plane.

以下では、LRF14のうち、スキャン面Scnが水平となるように設置されたLRF14を“水平LRF14h”と記し、スキャン面Scnが傾斜するように設置されたLRF14を“傾斜LRF14i”と記す。水平LRF14hは主として水平位置および移動速度の計測に利用され、傾斜LRF14iは主として3次元形状および方向の計測に利用される。   Hereinafter, among the LRFs 14, the LRF 14 installed so that the scan surface Scn is horizontal is referred to as “horizontal LRF 14h”, and the LRF 14 installed so that the scan surface Scn is inclined is referred to as “inclined LRF 14i”. The horizontal LRF 14h is mainly used for measuring the horizontal position and the moving speed, and the inclined LRF 14i is mainly used for measuring the three-dimensional shape and direction.

なお、図1〜図3に示した構成は一例であり、LRF14の総数は6以下でも8以上でもよく、水平LRF14hおよび傾斜LRF14iの各台数も適宜変更してよい。一般には、水平位置を計測する(ワールド座標系での位置を特定する)ための2台の水平LRF14hと、3次元形状を計測するための1台の傾斜LRF14iとの計3台は、最小構成として必要であるが、場合によっては2台でもよい。たとえば、対象の動きが1次元的である場合には、水平LRF14hおよび傾斜LRF14iが各1台でもよい。また、原理的には、2台の傾斜LRF14iだけでもよい。なぜなら、各々の傾斜角が既知であれば、後述するような座標変換を行うことで、水平位置の特定が可能だからである。   1 to 3 is an example, and the total number of LRFs 14 may be 6 or less, or may be 8 or more, and the number of horizontal LRFs 14h and inclined LRFs 14i may be appropriately changed. In general, a total of three units of two horizontal LRFs 14h for measuring a horizontal position (specifying a position in the world coordinate system) and one inclined LRF 14i for measuring a three-dimensional shape are the minimum configuration. As necessary, two units may be used in some cases. For example, when the movement of the object is one-dimensional, one horizontal LRF 14h and one inclination LRF 14i may be used. In principle, only two inclined LRFs 14i may be used. This is because, if each inclination angle is known, the horizontal position can be specified by performing coordinate conversion as described later.

また、水平LRF14hおよび傾斜LRF14iの配置も適宜変更してよいが、一般には、対象の存在し得る場所で少なくとも2台の計測範囲が重なるように配置する必要がある。   Further, the arrangement of the horizontal LRF 14h and the inclined LRF 14i may be changed as appropriate, but in general, it is necessary to arrange so that at least two measurement ranges overlap at a place where the target can exist.

また、図3では、3台の傾斜LRF14iはいずれも下向きに30度傾斜しているが、傾斜の向きは、全て上向きでもよく、一部(たとえば2台)が下向きで他の一部(たとえば1台)が下向きでもよい。上向きの傾斜LRF14iは、床面上またはその近くに設置される。計測領域が互いに重なる2台を上向きおよび下向きに傾斜させることで、3次元形状を計測する際の計算量を抑制することも可能である。傾斜角は、たとえば部屋の広さや対象の種類などに応じて適宜変更してよい。さらには、傾斜LRF14i毎に異なる傾斜角を採用してもよい。また、水平LRF14hおよび傾斜LRF14iが設置される高さは、この例では1mおよび2mであるが、対象の種類などに応じて適宜変更してよい。   Further, in FIG. 3, all three inclined LRFs 14i are inclined downward by 30 degrees, but the inclination directions may be all upwards, and some (for example, two) are downward and the other part (for example, 1 unit) may be downward. The upward inclined LRF 14i is installed on or near the floor surface. It is also possible to suppress the amount of calculation when measuring a three-dimensional shape by inclining two units whose measurement regions overlap each other upward and downward. The inclination angle may be changed as appropriate according to, for example, the size of the room and the type of object. Furthermore, a different inclination angle may be adopted for each inclination LRF 14i. Further, the height at which the horizontal LRF 14h and the inclined LRF 14i are installed is 1 m and 2 m in this example, but may be appropriately changed according to the type of the object.

次に、計測装置10のコンピュータ12が行う処理について、図4〜図13を用いて詳しく説明する。コンピュータ12は、前述したような2種類の計測処理、つまり水平LRF14hを通じて対象の水平位置および移動速度を計測する処理と、傾斜LRF14iを通じて対象の3次元形状および方向を計測する処理とを並列的に実行する。   Next, processing performed by the computer 12 of the measuring apparatus 10 will be described in detail with reference to FIGS. The computer 12 performs the above-described two types of measurement processing in parallel, that is, processing for measuring the horizontal position and moving speed of the target through the horizontal LRF 14h and processing for measuring the three-dimensional shape and direction of the target through the inclined LRF 14i. Execute.

なお、別のモードでは、水平LRF14hによる計測処理を単独で実行することもできる。ただし、この実施例では、傾斜LRF14iによる計測処理において水平LRF14hによる計測結果を利用するので、傾斜LRF14iによる計測処理を単独で実行することはできない。   In another mode, the measurement process by the horizontal LRF 14h can be executed alone. However, in this embodiment, since the measurement result by the horizontal LRF 14h is used in the measurement process by the inclination LRF 14i, the measurement process by the inclination LRF 14i cannot be executed alone.

まず、水平LRF14hを利用した水平位置および移動速度の計測処理については、たとえば、先述した特開2009−168578号公報に記載の手法を用いることができる。詳しい説明は省略するが、この先行技術では、対象の水平位置および移動速度は、コンピュータが水平LRFからの情報に基づいて、パーティクルフィルタを用いて推定している。   First, for the measurement process of the horizontal position and the moving speed using the horizontal LRF 14h, for example, the method described in Japanese Patent Laid-Open No. 2009-168578 described above can be used. Although detailed description is omitted, in this prior art, the horizontal position and moving speed of the object are estimated by a computer using a particle filter based on information from the horizontal LRF.

パーティクルフィルタは、予測および観測を繰り返すことによって現在の対象の状態を推定する時系列フィルタの一種であり、具体的には、現状態から起こりうる次状態を多数のパーティクルに見立てて、観測された状態との間の尤度(類似度)をパーティクル毎に求め、全パーティクルを尤度に応じて加重平均した結果を現在の対象の状態であると推定する。そして、重みに従う新たなパーティクルを発生させ、同様の処理を繰り返すことで、対象の状態つまり水平位置および移動速度を逐次推定することができる。   A particle filter is a type of time-series filter that estimates the current target state by repeating prediction and observation. Specifically, the particle filter is observed by regarding the next state that can occur from the current state as many particles. The likelihood (similarity) between the states is obtained for each particle, and the result of weighted averaging of all the particles according to the likelihood is estimated to be the current target state. Then, by generating new particles according to the weight and repeating the same processing, it is possible to sequentially estimate the target state, that is, the horizontal position and the moving speed.

次に、傾斜LRF14iを通じて対象の3次元形状および方向を計測する処理について説明する。傾斜LRF14iで計測を行う場合、スキャン面Scnが水平面から傾斜しているために、対象までの水平面上の距離と比べて、計測される距離が見かけ上長くなる(図4参照)。また、対象までの距離に応じて、対象を計測する高さが変化する(図5参照)。したがって、座標系の変換処理が必要となる。   Next, a process for measuring the three-dimensional shape and direction of the object through the inclined LRF 14i will be described. When the measurement is performed with the inclination LRF 14i, since the scan surface Scn is inclined from the horizontal plane, the measured distance is apparently longer than the distance on the horizontal plane to the target (see FIG. 4). Further, the height at which the object is measured changes according to the distance to the object (see FIG. 5). Therefore, a coordinate system conversion process is required.

具体的には、図4において、計測された各点の変換後の位置ベクトルx’=SP’は、傾斜LRF14iが水平に設置されていたと仮定した場合の位置ベクトルx=SPから、次のように求められる。   Specifically, in FIG. 4, the position vector x ′ = SP ′ after conversion of each measured point is as follows from the position vector x = SP when the slope LRF 14 i is assumed to be installed horizontally: Is required.

ここでnはセンサを回転する軸に平行な単位ベクトル、αはセンサの水平面からの傾斜角である。座標変換式は、回転行列を用いて次のように記述できる。   Here, n is a unit vector parallel to the axis of rotation of the sensor, and α is an inclination angle of the sensor from the horizontal plane. The coordinate conversion formula can be described as follows using a rotation matrix.

ここでIは3行3列の単位ベクトルであり、nの要素をn=(n,n,n)と定義した(nはnの転置)。 Here, I 3 is a unit vector of 3 rows and 3 columns, and n elements are defined as n = (n x , n y , n z ) ( t n is transposition of n).

対象が移動する様子を傾斜LRF14iで連続的に観測すると、対象の形状(2次元距離情報)が様々な高さ(h)で計測される。これらの計測結果(計測データ)に上述のような座標変換を施し、座標変換後の形状を時系列に統合すれば、対象の3次元形状が得られる。この一連の処理を時系列統合処理と呼ぶ。   When the movement of the object is continuously observed with the inclined LRF 14i, the shape of the object (two-dimensional distance information) is measured at various heights (h). By subjecting these measurement results (measurement data) to coordinate conversion as described above and integrating the coordinate-converted shapes in time series, a target three-dimensional shape can be obtained. This series of processing is called time series integration processing.

コンピュータ12は、計測する各対象(人,買い物カートなど)のそれぞれについて、事前に傾斜LRF14iで3次元形状を計算し、時系列統合処理によって3次元形状モデルを求めておく(図5)。3次元形状モデルは、中心からの距離を高さと方向について離散化した形式で表現される(図6)。この場合、対象の初期位置,方向および移動速度は既知であり、これらから対象の位置を求めることができる。各時点での計測データは、求められた位置を中心として、高さhおよび方向θに依存した中心からの距離、つまりr(h,θ)として表現される。各時点での計測データを対応する(h,θ)に登録し、各(h,θ)に登録された計測データに対して平均および分散を求める処理を施すことで、3次元形状モデルつまりr(h,θ)が得られる。   The computer 12 calculates a three-dimensional shape in advance using the inclined LRF 14i for each target (person, shopping cart, etc.) to be measured, and obtains a three-dimensional shape model by time series integration processing (FIG. 5). The three-dimensional shape model is expressed in a form in which the distance from the center is discretized with respect to height and direction (FIG. 6). In this case, the initial position, direction, and moving speed of the object are known, and the position of the object can be obtained from these. The measurement data at each time point is expressed as a distance from the center depending on the height h and the direction θ, that is, r (h, θ) with the obtained position as the center. The measurement data at each time point is registered in the corresponding (h, θ), and the measurement data registered in each (h, θ) is subjected to processing for obtaining an average and variance, thereby obtaining a three-dimensional shape model, that is, r (H, θ) is obtained.

こうして求められた3次元形状モデルの例を図7に示す。図7(A)は人の3次元形状モデルM1を、図7(B)は買い物カートの3次元形状モデルM2をそれぞれ示す。   An example of the three-dimensional shape model thus obtained is shown in FIG. FIG. 7A shows a three-dimensional shape model M1 of a person, and FIG. 7B shows a three-dimensional shape model M2 of a shopping cart.

未知の対象について3次元形状および方向を計測する処理(ひいては対象を認識する処理)は、こうして事前に計算された3次元形状モデルM1,M2,…を用いて行われる。3次元形状モデルを計算する際には、対象の初期位置,方向および移動速度を既知としていたが、3次元形状および方向の計測を行う際には、これらが未知であるため、水平LRF14hによる計測結果の一部(水平位置)を特定すると共に、方向推定処理および時系列統合処理を同時に行う必要がある。   The process of measuring the three-dimensional shape and direction of an unknown object (and thus the process of recognizing the object) is performed using the three-dimensional shape models M1, M2,. When calculating the three-dimensional shape model, the initial position, direction, and moving speed of the target are known. However, when measuring the three-dimensional shape and direction, these are unknown, so measurement by the horizontal LRF 14h is performed. It is necessary to specify a part of the result (horizontal position) and simultaneously perform the direction estimation process and the time series integration process.

そこで、コンピュータ12は、対象の方向の可能性を複数考慮しながら認識を進める。具体的には、現在の対象の方向がθ1であると仮定して、時系列統合処理によって3次元形状を推定し、推定された形状を3次元形状モデルと比較して、その距離を評価する。そして、距離の小ささを類似度と見なし、類似している場合にはその仮定が確からしいと判断する。このような処理を複数の仮定(θ1,θ2,…)に対して同時並列に行うために、パーティクルフィルタが利用される。パーティクルフィルタ以外の方法、たとえば動的計画法(Dynamic Programming)によるDPマッチングなどを用いてもよい。この結果、対象の3次元形状および方向を逐次推定することができる。   Therefore, the computer 12 proceeds with recognition while considering a plurality of possibilities of the target direction. Specifically, assuming that the current target direction is θ1, the three-dimensional shape is estimated by time series integration processing, the estimated shape is compared with the three-dimensional shape model, and the distance is evaluated. . Then, the small distance is regarded as the similarity, and if they are similar, it is determined that the assumption is likely. In order to perform such processing simultaneously in parallel for a plurality of assumptions (θ1, θ2,...), A particle filter is used. A method other than the particle filter, for example, DP matching by dynamic programming may be used. As a result, the three-dimensional shape and direction of the target can be estimated sequentially.

こうして推定された3次元形状と3次元形状モデルとの間の距離は、次の関数によって求められる。   The distance between the three-dimensional shape estimated in this way and the three-dimensional shape model is obtained by the following function.

ここで Ndataは(h,θ)に対してデータが登録されている要素の数であり、r(h,θ)は推定された3次元形状であり、そしてr(h,θ)は3次元モデルである。ノイズへの耐性を持たせるため、 しきい値Rmaxを用いる。 Where N data is the number of elements for which data is registered for (h, θ), r (h, θ) is the estimated three-dimensional shape, and r M (h, θ) is It is a three-dimensional model. A threshold value R max is used in order to provide resistance to noise.

以上のような計測処理は、コンピュータ12のCPU12cが、メモリ12dに記憶された図8に示すようなプログラムおよびデータに基づいて、図9〜図13に示すようなフローに従う処理を実行することにより実現される。   The measurement process as described above is performed by the CPU 12c of the computer 12 executing a process according to the flow shown in FIGS. 9 to 13 based on the program and data shown in FIG. 8 stored in the memory 12d. Realized.

すなわち、計測処理を実行するとき、図8に示すように、メモリ12dにはプログラムエリア20およびデータエリア22が形成され、プログラムエリア22に計測プログラム30および入出力制御プログラム32などが格納される。   That is, when the measurement process is executed, as shown in FIG. 8, a program area 20 and a data area 22 are formed in the memory 12d, and a measurement program 30, an input / output control program 32, and the like are stored in the program area 22.

計測プログラム30は、CPU12cを介して計測処理を実現するメインのソフトウェアプログラムであり、図9〜図13のフローに対応している。入出力制御プログラム32は、計測プログラム30によって利用されるサブのソフトウェアプログラムであり、入力器12aおよび表示器12bを制御してキー入力,画像出力などを実現する。   The measurement program 30 is a main software program that implements measurement processing via the CPU 12c, and corresponds to the flow of FIGS. The input / output control program 32 is a sub software program used by the measurement program 30, and controls the input device 12a and the display device 12b to realize key input, image output, and the like.

データエリア22には、計測エリア34,変換エリア36および計算エリア38が形成さる。計測エリア34は、4台の水平LRF14hにそれぞれ対応する第1〜第4水平LRFデータエリア40a〜40d、および3台の傾斜LRF14iにそれぞれ対応する第1〜第3傾斜LRFデータエリア42a〜42cを含む。各水平LRF14hからの計測データ(2次元距離情報)は、CPU12cの時計に基づくタイムスタンプと共に、対応する水平LRFデータエリア40a〜40dに記憶される。各傾斜LRF14iからの計測データ(2次元距離情報)は、CPU12cの時計に基づくタイムスタンプと共に、対応する傾斜LRFデータエリア42a〜42cに記憶される。なお、タイムスタンプは、複数のLRF14の間で計測データの同期を取るために利用される。また、計測データを時系列に統合する際にも参照される。   In the data area 22, a measurement area 34, a conversion area 36, and a calculation area 38 are formed. The measurement area 34 includes first to fourth horizontal LRF data areas 40a to 40d corresponding to four horizontal LRFs 14h and first to third inclined LRF data areas 42a to 42c corresponding to three inclined LRFs 14i, respectively. Including. Measurement data (two-dimensional distance information) from each horizontal LRF 14h is stored in the corresponding horizontal LRF data areas 40a to 40d together with a time stamp based on the clock of the CPU 12c. Measurement data (two-dimensional distance information) from each inclination LRF 14i is stored in the corresponding inclination LRF data areas 42a to 42c together with a time stamp based on the clock of the CPU 12c. The time stamp is used to synchronize measurement data among the plurality of LRFs 14. It is also referred to when integrating measurement data in time series.

変換エリア36は、3台の傾斜LRF14iにそれぞれ対応する第1〜第3変換データエリア44a〜44cを含む。第1〜第3変換データエリア44a〜44cには、第1〜第3傾斜LRFデータエリア42a〜42cに記憶された計測データに座標変換処理を施した結果(変換データ)が記憶される。   The conversion area 36 includes first to third conversion data areas 44a to 44c respectively corresponding to the three inclined LRFs 14i. In the first to third conversion data areas 44a to 44c, results (conversion data) obtained by subjecting the measurement data stored in the first to third inclination LRF data areas 42a to 42c to coordinate conversion processing are stored.

計算エリア38は、位置&速度データエリア46,3次元形状&方向データエリア48および種類(属性,プロファイル)データエリア50を含む。位置&速度データエリア46には、水平LRFデータエリア40a〜40dの計測データから計算される位置&速度データ(対象の水平位置および移動速度を示すデータ)が記憶される。3次元形状&方向データエリア48には、主として変換データエリア44a〜44cの変換データから計算される3次元形状&方向データ(対象の3次元形状および方向を示すデータ)が記憶される。種類(属性,プロファイル)データエリア50には、3次元形状&方向データから推定される種類(属性,プロファイル)データが記憶される。   The calculation area 38 includes a position & velocity data area 46, a three-dimensional shape & direction data area 48, and a type (attribute, profile) data area 50. The position & speed data area 46 stores position & speed data (data indicating the target horizontal position and moving speed) calculated from the measurement data in the horizontal LRF data areas 40a to 40d. The three-dimensional shape & direction data area 48 mainly stores three-dimensional shape & direction data (data indicating the target three-dimensional shape and direction) calculated from the conversion data in the conversion data areas 44a to 44c. The type (attribute, profile) data area 50 stores type (attribute, profile) data estimated from the three-dimensional shape & direction data.

また、データエリア22には3次元形状モデルデータベース(DB)52が格納されており、作成された3次元形状モデル(たとえば人の3次元形状モデルM1や買い物カートの3次元形状モデルM2など)はこの3次元形状モデルDB52に登録される。   Further, a 3D shape model database (DB) 52 is stored in the data area 22, and the created 3D shape model (for example, a human 3D shape model M1 or a shopping cart 3D shape model M2) is stored. It is registered in this three-dimensional shape model DB 52.

計測プログラム30が起動されると、表示器12bに、“3次元形状モデル作成”および“計測”などを選択項目として含むメニュー画面(図示せず)が表示される。観測者は、入力器12aを通じていずれか1つの項目を選択する。   When the measurement program 30 is activated, a menu screen (not shown) including “three-dimensional shape model creation” and “measurement” as selection items is displayed on the display 12b. The observer selects any one item through the input device 12a.

3次元形状モデル作成が選択されると、図9に示す3次元形状モデル作成スレッドが実行される。観測者は、予め決められた手順に従い、対象(被験者や買い物カート)を傾斜LRF14iの計測領域内(たとえば店舗の中心位置C:図3(A)参照)に配置して所定方向(たとえばx方向)に一定速度(たとえば30m/分)で移動を開始させる。これら所定方向および一定速度を示す方向&速度情報は、メモリ12dに記憶される。   When 3D shape model creation is selected, the 3D shape model creation thread shown in FIG. 9 is executed. In accordance with a predetermined procedure, the observer places the target (subject or shopping cart) within the measurement area of the slope LRF 14i (for example, the center position C of the store: see FIG. 3A) and in a predetermined direction (for example, the x direction). ) At a constant speed (for example, 30 m / min). The direction & speed information indicating the predetermined direction and the constant speed is stored in the memory 12d.

CPU12cは、ステップS1で、各傾斜LRF14iから2次元距離情報(計測データ)を取得して、対応する傾斜LRFデータエリア42a〜42cに書き込む。このとき、計測データにタイムスタンプが添付される。次に、ステップS3で、傾斜LRFデータエリア42a〜42cに記憶された計測データに対する座標変換処理を実行し、結果を変換データエリア44a〜44cに書き込む。   In step S1, the CPU 12c acquires two-dimensional distance information (measurement data) from each inclination LRF 14i and writes it in the corresponding inclination LRF data areas 42a to 42c. At this time, a time stamp is attached to the measurement data. Next, in step S3, coordinate conversion processing is performed on the measurement data stored in the inclined LRF data areas 42a to 42c, and the results are written in the conversion data areas 44a to 44c.

ステップS3の座標変換処理は、詳しくは図10のサブルーチンに従って実行される。まずステップS21で、傾斜LRF14iのスキャン面Scnが水平であったと仮定して各点Pの位置ベクトルx=SPを求め、次にステップS23で、この位置ベクトルxに回転行列Rを乗じて変換後の各点P’の位置ベクトルx’=SP’を求める(図4,数1および数2参照)。その後、処理はメインルーチン(図9参照)に復帰する。   Specifically, the coordinate conversion process in step S3 is executed according to the subroutine of FIG. First, in step S21, the position vector x = SP of each point P is obtained on the assumption that the scan plane Scn of the inclined LRF 14i is horizontal. Next, in step S23, the position vector x is multiplied by the rotation matrix R and converted. The position vector x ′ = SP ′ of each point P ′ is obtained (see FIGS. 4 and 1 and 2). Thereafter, the processing returns to the main routine (see FIG. 9).

次に、ステップS5で、3次元形状モデルを計算する。具体的には、変換データエリア44a〜44cに記憶された変換データ、つまりステップS3で座標変換処理が施された後の2次元距離情報を、上記の所定方向および一定速度を示す方向&速度情報に基づいて時系列に統合する。そして、統合が完了したか否かをステップS7で判別し、NOであればステップS1に戻って、上記と同様の処理をたとえば0.1秒毎に繰り返す。なお、統合が完了したか否かの判別は、たとえば、観測者が入力器12aを介して行う完了操作の有無に基づいて行えばよい。   Next, in step S5, a three-dimensional shape model is calculated. Specifically, the conversion data stored in the conversion data areas 44a to 44c, that is, the two-dimensional distance information after the coordinate conversion processing is performed in step S3, is used as the direction & speed information indicating the predetermined direction and the constant speed. Based on the time series. Then, it is determined in step S7 whether or not the integration is completed. If NO, the process returns to step S1, and the same processing as described above is repeated, for example, every 0.1 second. Note that whether or not the integration has been completed may be determined based on, for example, the presence or absence of a completion operation performed by the observer via the input device 12a.

ステップS7でYESであれば、ステップS9に進み、統合結果を3次元形状モデル(M1,M2,…)として3次元形状モデルDB52に記憶する。さらにステップS11で、対象の種類ないし属性を3次元形状モデルDB52に3次元形状モデルと対応付けて記憶した後、この処理を終了する。なお、種類ないし属性としては、たとえば、観測者が入力器12aを介して入力した“人体”,“買い物カート”などの文字情報を利用すればよい。   If “YES” in the step S7, the process proceeds to a step S9, and the integration result is stored in the three-dimensional shape model DB 52 as a three-dimensional shape model (M1, M2,...). Further, in step S11, the type or attribute of the object is stored in the three-dimensional shape model DB 52 in association with the three-dimensional shape model, and then this process ends. For example, character information such as “human body” or “shopping cart” input by the observer via the input device 12a may be used as the type or attribute.

メニュー画面で“計測”が選択されると、図11に示す水平位置&移動速度計測スレッドと、図12に示す3次元形状&方向計測スレッドとが並列的に実行される。   When “Measurement” is selected on the menu screen, the horizontal position & moving speed measurement thread shown in FIG. 11 and the three-dimensional shape & direction measurement thread shown in FIG. 12 are executed in parallel.

水平位置&移動速度計測スレッドでは、以下のような処理が行われる。図11を参照して、まず、ステップS31で、このスレッド用のパーティクルフィルタを初期化する。次に、ステップS33で、各水平LRF14hから2次元距離情報(計測データ)を取得して、対応する水平LRFデータエリア40a〜40dにこれを書き込む。このとき、計測データにタイムスタンプが添付される。次に、ステップS35で、対象の水平位置および移動速度を計測データに基づいてパーティクルフィルタで計算し、結果つまり位置&速度データを位置&速度データエリア46に書き込む。そして、ステップS37で、位置&速度データに基づいてパーティクルフィルタを更新した後、ステップS33に戻って、上記と同様の処理をたとえば0.1秒毎に繰り返す。   In the horizontal position & moving speed measurement thread, the following processing is performed. Referring to FIG. 11, first, in step S31, the particle filter for the thread is initialized. Next, in step S33, two-dimensional distance information (measurement data) is acquired from each horizontal LRF 14h and written into the corresponding horizontal LRF data areas 40a to 40d. At this time, a time stamp is attached to the measurement data. Next, in step S35, the target horizontal position and moving speed are calculated by the particle filter based on the measurement data, and the result, that is, the position & speed data is written in the position & speed data area 46. In step S37, the particle filter is updated based on the position & velocity data, and then the process returns to step S33 to repeat the same processing as described above, for example, every 0.1 second.

したがって、位置&速度データエリア46には常時、最新の位置&速度データ、つまり現時点での対象の水平位置および移動速度を示す情報が記憶されていることになる。表示器12bには、このような位置&速度データに基づく計測結果画面(図示せず)がリアルタイムに表示される。位置&速度データエリア46の更新履歴を示すデータをデータエリア22に保存しておくことで、計測結果画面を事後に再現することもできる。水平位置&移動速度計測スレッドによる位置&速度データはまた、次に説明する3次元形状&方向計測スレッドで時系列統合を行う際にも参照される。   Therefore, the position & speed data area 46 always stores the latest position & speed data, that is, information indicating the current horizontal position and moving speed of the object. On the display 12b, a measurement result screen (not shown) based on such position & velocity data is displayed in real time. By storing data indicating the update history of the position & speed data area 46 in the data area 22, the measurement result screen can be reproduced after the fact. The position & speed data by the horizontal position & moving speed measurement thread is also referred to when time series integration is performed by the 3D shape & direction measurement thread described below.

3次元形状&方向計測スレッドでは、以下のような処理が行われる。図12を参照して、まず、ステップS41で、このスレッド用のパーティクルフィルタを初期化する。次に、ステップS43で、各傾斜LRF14iから2次元距離情報(計測データ)を取得して、対応する傾斜LRFデータエリア42a〜42cに書き込む。このとき、計測データにタイムスタンプが添付される。次に、ステップS45で、各傾斜LRFデータエリア42a〜42cの計測データに対する座標変換処理を実行し、結果つまり変換データを対応する変換データエリア44a〜44cに書き込む。なお、この座標変換処理は、前述した3次元形状モデル作成スレッドにおける座標変換処理(S3)と同様であり、図10のサブルーチンに従って実行される。   In the three-dimensional shape & direction measuring thread, the following processing is performed. Referring to FIG. 12, first, in step S41, the particle filter for the thread is initialized. Next, in step S43, two-dimensional distance information (measurement data) is acquired from each inclination LRF 14i and written in the corresponding inclination LRF data areas 42a to 42c. At this time, a time stamp is attached to the measurement data. Next, in step S45, coordinate conversion processing is performed on the measurement data in each of the inclined LRF data areas 42a to 42c, and the result, that is, the converted data is written into the corresponding converted data areas 44a to 44c. This coordinate conversion process is the same as the coordinate conversion process (S3) in the above-described three-dimensional shape model creation thread, and is executed according to the subroutine of FIG.

次に、ステップS47で、対象の3次元形状および方向を、上記の変換データ,3次元形状モデル,および水平位置&移動速度計測スレッドによる位置&速度データに基づいてパーティクルフィルタで計算し、結果つまり3次元形状&方向データを3次元形状&方向データエリア48に書き込む。   Next, in step S47, the target three-dimensional shape and direction are calculated by the particle filter based on the conversion data, the three-dimensional shape model, and the position & speed data by the horizontal position & moving speed measurement thread, and the result, that is, The 3D shape & direction data is written in the 3D shape & direction data area 48.

ステップS47の3次元形状&方向計算処理は、詳しくは図13のサブルーチンに従って実行される。まずステップS61で、対象の方向をθiと仮定して、座標変換後の2次元距離情報(変換データエリア44a〜44cに記憶された変換データ)を、水平位置&移動速度計測スレッドによって計測された水平位置および移動速度(位置&速度データエリア46に記憶された位置&速度データ)に基づいて時系列に統合し(図5参照)、結果つまり3次元形状&方向データを3次元形状Fiとして保持する。   The three-dimensional shape & direction calculation process in step S47 is executed according to the subroutine of FIG. 13 in detail. First, in step S61, assuming that the target direction is θi, the two-dimensional distance information after the coordinate conversion (conversion data stored in the conversion data areas 44a to 44c) was measured by the horizontal position & moving speed measurement thread. Based on the horizontal position and moving speed (position & speed data stored in the position & speed data area 46), it is integrated in time series (see FIG. 5), and the result, that is, the 3D shape & direction data is held as a 3D shape Fi. To do.

次に、ステップS63で、この3次元形状Fiを3次元形状モデルDB52に登録された各3次元形状モデルM1,M2,…と比較して、両者の間の距離を評価し、結果つまり距離データを保持する。そして、ステップS65で変数iをインクリメントした後、変数iが最大値imaxを越えたか否かをステップS67で判別し、判別結果がNOであれば、ステップS61に戻って上記と同様の処理を繰り返す。ステップS67の判別結果がYESであれば、ステップS69に進む。   Next, in step S63, the 3D shape Fi is compared with each of the 3D shape models M1, M2,... Registered in the 3D shape model DB 52, and the distance between the two is evaluated. Hold. Then, after incrementing the variable i in step S65, it is determined whether or not the variable i exceeds the maximum value imax in step S67. If the determination result is NO, the process returns to step S61 and the same processing as above is repeated. . If the determination result of step S67 is YES, it will progress to step S69.

この時点でCPU12cには、3次元形状F1,F2,…,Fimaxと3次元形状モデルM1,M2,…との全ての組について、距離を示す距離データが保持されている。ステップS69では、このような距離データに基づいて、最小距離を検出する。そしてステップS71で、検出された最小距離に対応する3次元形状および3次元形状モデルの組(Fm,Mn)を特定し、特定された組の3次元形状Fmが最も確からしい(可能性が高い)と推定して、結果つまり3次元形状Fmに対応する3次元形状&方向データを3次元形状&方向データエリア48に書き込む。なお、最小距離に対応する3次元形状Fmに代えて、3次元形状F1,F2,…,Fimaxを距離に応じて加重平均した結果を書き込んでもよい。その後、メインルーチン(図12参照)に復帰する。   At this time, the CPU 12c holds distance data indicating distances for all sets of the three-dimensional shapes F1, F2,..., Fimax and the three-dimensional shape models M1, M2,. In step S69, the minimum distance is detected based on such distance data. In step S71, a set (Fm, Mn) of the three-dimensional shape and the three-dimensional shape model corresponding to the detected minimum distance is specified, and the specified three-dimensional shape Fm is most likely (highly likely). And the result, that is, the three-dimensional shape & direction data corresponding to the three-dimensional shape Fm is written in the three-dimensional shape & direction data area 48. Instead of the three-dimensional shape Fm corresponding to the minimum distance, a result obtained by weighted averaging the three-dimensional shapes F1, F2,. Thereafter, the process returns to the main routine (see FIG. 12).

図12に戻って、次のステップS49では、3次元形状モデルDB52から上述のステップS67で特定された組の3次元形状モデルMnに対応する種類(属性)を読み取って、種類(属性,プロファイル)データエリア50に書き込む。そしてステップS51で、ステップS47の計算結果つまり3次元形状&方向データに基づいてパーティクルフィルタを更新した後、ステップS43に戻って上記と同様の処理をたとえば0.1秒毎に繰り返す。   Returning to FIG. 12, in the next step S49, the type (attribute) corresponding to the set of the three-dimensional shape model Mn specified in step S67 is read from the three-dimensional shape model DB 52, and the type (attribute, profile) is read. Write to the data area 50. In step S51, the particle filter is updated based on the calculation result of step S47, that is, the three-dimensional shape & direction data, and then the process returns to step S43 to repeat the same process as described above, for example, every 0.1 second.

したがって、3次元形状&方向データエリア48および種類(属性,プロファイル)データエリア50には常時、最新の3次元形状&方向データおよび種類(属性,プロファイル)データが記憶されていることになり、このようなデータに基づく計測結果画面(図示せず)を表示器12bにリアルタイムに表示することができる。また、3次元形状&方向データエリア48および種類(属性,プロファイル)データエリア50に関する更新履歴をデータエリア22内の不揮発領域(図示せず)に保存しておくことで、計測結果画面を事後に再現することもできる。   Accordingly, the latest 3D shape & direction data and type (attribute, profile) data are always stored in the 3D shape & direction data area 48 and the type (attribute, profile) data area 50. A measurement result screen (not shown) based on such data can be displayed on the display 12b in real time. In addition, an update history relating to the three-dimensional shape & direction data area 48 and the type (attribute, profile) data area 50 is stored in a non-volatile area (not shown) in the data area 22 so that the measurement result screen can be displayed after the fact. It can also be reproduced.

こうして、計測装置10が水平LRF14hを利用した水平位置および移動速度の計測と、傾斜LRF14iを利用した3次元形状および方向の計測とを同時並列に行うことで、観測者は、対象の位置や動きだけでなく、サイズや種類なども知ることができる。たとえば、対象が人か物かを区別できるし、さらには、人であれば大人か子供か、物であれば買い物カートか手荷物かというように、より詳細な種類ないし属性を知ることができる。また、3次元形状から身長,性別といったプロファイルも識別できる。   In this way, the measurement apparatus 10 simultaneously performs parallel measurement of the horizontal position and moving speed using the horizontal LRF 14h and measurement of the three-dimensional shape and direction using the inclined LRF 14i, so that the observer can detect the position and movement of the target. As well as knowing the size and type. For example, it is possible to distinguish whether the target is a person or an object, and further, it is possible to know more detailed types or attributes such as whether an object is an adult or a child, and if an object is a shopping cart or baggage. In addition, profiles such as height and sex can be identified from the three-dimensional shape.

以上から明らかなように、この実施例の計測装置10は、コンピュータ12および7台のLRF14を含む。コンピュータ12は、たとえば人や買い物カートといった動く対象Objを7台のLRF14で計測する。これら7台のLRF14のうち3つは、そのスキャン面Scnが水平面に対して傾斜した傾斜LRF14iである。他の4台は、そのスキャン面Scnが水平面と平行な水平LRF14hである。   As is apparent from the above, the measurement apparatus 10 of this embodiment includes a computer 12 and seven LRFs 14. The computer 12 measures a moving object Obj such as a person or a shopping cart with seven LRFs 14. Three of these seven LRFs 14 are inclined LRFs 14i whose scan surfaces Scn are inclined with respect to the horizontal plane. The other four units are horizontal LRFs 14h whose scan plane Scn is parallel to the horizontal plane.

コンピュータ12のデータベース52には、上記のような対象Objの3次元形状モデルM1,M2,…が登録されており、コンピュータ12のCPU12cは、各水平LRF14hからの計測データ(2次元距離情報)に基づいて対象Objの水平位置(および移動速度)を推定し(S35)、各傾斜LRF14iからの計測データとデータベース52に登録された3次元形状モデルM1,M2,…との比較に基づいて対象Objの3次元形状(およびその方向)を推定する(S47)。   In the database 52 of the computer 12, the above-described three-dimensional shape models M1, M2,... Of the object Obj are registered, and the CPU 12c of the computer 12 stores measurement data (two-dimensional distance information) from each horizontal LRF 14h. The horizontal position (and moving speed) of the object Obj is estimated based on the object Obj (S35), and the object Obj is based on the comparison between the measurement data from each inclination LRF 14i and the three-dimensional shape models M1, M2,. The three-dimensional shape (and its direction) is estimated (S47).

したがって、各傾斜LRF14iからの計測データに基づいて対象Objの水平位置(および移動速度)を推定することができる。また、傾斜したスキャン面Scn内を対象Objが動くことで、各傾斜LRF14iからの計測データには、異なる高さ(h)での2次元距離情報が含まれる結果となるため、このような計測データから3次元形状(および方向)を推定することができる。   Therefore, the horizontal position (and moving speed) of the object Obj can be estimated based on the measurement data from each inclination LRF 14i. In addition, since the object Obj moves in the inclined scan plane Scn, the measurement data from each inclination LRF 14i includes two-dimensional distance information at different heights (h). A three-dimensional shape (and direction) can be estimated from the data.

なお、水平位置を推定するためのLRF14は、水平LRF14hとは限らず、傾斜LRF14iであってもよい。傾斜角が既知であれば先述のような座標変換を行うことで、水平位置の推定は可能だからである。また、1つの傾斜LRF14iを、水平位置の推定と3次元形状の推定とに兼用してもよい。このため、この発明を実現するためのLRF14の最小構成は、原理的には2台でよく、その内訳は、水平および傾斜が各1個、または傾斜が2個となる。しかし、一般的には、水平位置の推定用に水平2個と、3次元形状の推定用に傾斜1個との、計3個が最小構成である。そして、レーザ光の当たらない死角を減らすためには、たとえば水平4個および傾斜3個の計7個といった構成が必要になる。   Note that the LRF 14 for estimating the horizontal position is not limited to the horizontal LRF 14h, but may be an inclined LRF 14i. This is because if the inclination angle is known, the horizontal position can be estimated by performing the coordinate conversion as described above. Further, one inclined LRF 14i may be used for both the estimation of the horizontal position and the estimation of the three-dimensional shape. Therefore, in principle, the minimum configuration of the LRF 14 for realizing the present invention may be two, and the breakdown is one each for horizontal and tilt, or two for tilt. However, in general, a total of three components, two horizontal components for estimating the horizontal position and one gradient component for estimating the three-dimensional shape, are the minimum configuration. And in order to reduce the blind spot where a laser beam does not hit, for example, a configuration of 7 pieces in total of 4 horizontal pieces and 3 inclined pieces is required.

CPU12cはまた、こうして推定された3次元形状に基づいて対象Objを認識する(S49)。これによって、さらに多様な情報が得られる。たとえば、人,物といった種類に関する情報、さらには、人であれば大人,子供といった属性に関する情報や身長,性別などのプロファイルに関する情報をも知ることができる。   The CPU 12c also recognizes the target Obj based on the three-dimensional shape thus estimated (S49). As a result, more diverse information can be obtained. For example, it is possible to know information on types such as people and things, and information on attributes such as adults and children and information on profiles such as height and sex.

10 …計測装置
12 …コンピュータ
14 …レーザレンジファインダ(LRF)
14h …水平LRF
14i …傾斜LRF
52 …3次元形状モデルデータベース(DB)
M1,M2 …3次元形状モデル
Obj …対象
Scn …スキャン面
10 ... Measuring device 12 ... Computer 14 ... Laser range finder (LRF)
14h ... Horizontal LRF
14i ... Inclined LRF
52 ... 3D shape model database (DB)
M1, M2 ... 3D shape model Obj ... Target Scn ... Scan plane

Claims (12)

複数のレーザレンジファインダで動く対象を計測する計測装置であって、
前記複数のレーザレンジファインダの少なくとも1つは、そのスキャン面が水平面に対して傾斜した傾斜レーザレンジファインダであり、
前記対象の3次元形状モデルが登録されたデータベース、
前記複数のレーザレンジファインダのうち少なくとも2つからの計測データに基づいて前記対象の水平位置を推定する第1推定手段、および
前記傾斜レーザレンジファインダからの計測データと前記データベースに登録された3次元形状モデルとの比較に基づいて前記対象の3次元形状を推定する第2推定手段を備える、計測装置。
A measuring device for measuring a moving object with a plurality of laser range finders,
At least one of the plurality of laser range finders is an inclined laser range finder whose scan surface is inclined with respect to a horizontal plane,
A database in which the three-dimensional shape model of the object is registered;
First estimation means for estimating a horizontal position of the target based on measurement data from at least two of the plurality of laser range finders, and measurement data from the tilt laser range finder and a three-dimensional registered in the database A measurement apparatus comprising second estimation means for estimating a three-dimensional shape of the object based on a comparison with a shape model.
前記傾斜レーザレンジファインダからの計測データに対してそのスキャン面の前記水平面に対する傾斜角に応じた座標変換処理を施す座標変換手段をさらに備え、
前記第2推定手段は、前記座標変換手段による座標変換処理が施された計測データに基づいて推定を行う、請求項1記載の計測装置。
Coordinate conversion means for performing a coordinate conversion process according to an inclination angle of the scan plane with respect to the horizontal plane with respect to measurement data from the inclined laser range finder,
The measurement apparatus according to claim 1, wherein the second estimation unit performs estimation based on measurement data subjected to coordinate conversion processing by the coordinate conversion unit.
前記第2推定手段は、前記座標変換手段による座標変換処理が施された計測データを時系列に統合する時系列統合手段を含む、請求項2記載の計測装置。   The measurement apparatus according to claim 2, wherein the second estimation unit includes a time series integration unit that integrates measurement data subjected to coordinate conversion processing by the coordinate conversion unit into a time series. 前記時系列統合手段は、前記対象の可能な3次元形状および方向を時系列フィルタリングにより計算しながら統合を行う、請求項3記載の計測装置。   The measurement apparatus according to claim 3, wherein the time series integration unit performs integration while calculating possible three-dimensional shapes and directions of the object by time series filtering. 前記時系列統合手段は、前記時系列フィルタリングによる計算結果と前記3次元形状モデルとの間の距離に基づいて、最も可能性の高い3次元形状および方向を推定する、請求項4記載の計測装置。   The measurement apparatus according to claim 4, wherein the time series integration unit estimates the most likely three-dimensional shape and direction based on a distance between a calculation result by the time series filtering and the three-dimensional shape model. . 前記前記時系列統合手段は、前記3次元形状モデルとの間の距離が最短である計算結果を最も可能性が高いと推定する、請求項5記載の計測装置。   The measurement apparatus according to claim 5, wherein the time series integration unit estimates that the calculation result having the shortest distance to the three-dimensional shape model is most likely. 前記時系列統合手段は、統合を行う際に前記第1推定手段の計測結果を利用する、請求項3記載の計測装置。   The measurement apparatus according to claim 3, wherein the time series integration unit uses a measurement result of the first estimation unit when performing integration. 前記傾斜レーザレンジファインダで前記対象を計測して当該対象に対応する3次元形状モデルを作成する作成手段をさらに備える、請求項1記載の計測装置。   The measurement apparatus according to claim 1, further comprising a creation unit that measures the target with the tilt laser range finder and creates a three-dimensional shape model corresponding to the target. 前記第2推定手段の推定結果に基づいて前記対象を認識する認識手段をさらに備える、請求項1記載の計測装置。   The measurement apparatus according to claim 1, further comprising a recognition unit that recognizes the target based on an estimation result of the second estimation unit. 前記複数のレーザレンジファインダの少なくとも2つは、そのスキャン面が前記水平面と平行な水平レーザレンジファインダであり、
前記第1推定手段は、各前記水平レーザレンジファインダからの計測データに基づいて推定を行う、請求項1記載の計測装置。
At least two of the plurality of laser range finders are horizontal laser range finders whose scan surfaces are parallel to the horizontal plane,
The measurement apparatus according to claim 1, wherein the first estimation unit performs estimation based on measurement data from each horizontal laser range finder.
複数のレーザレンジファインダで動く対象を計測する計測方法であって、
(a)前記複数のレーザレンジファインダの少なくとも1つを、そのスキャン面が水平面に対して傾斜するように設置し、
(b)前記対象の3次元形状モデルをデータベースに登録し、
(c)前記複数のレーザレンジファインダのうち少なくとも2つからの計測データに基づいて前記対象の水平位置を推定し、そして
(d)前記ステップ(a)で傾斜させて設置したレーザレンジファインダからの計測データと前記ステップ(b)でデータベースに登録された3次元形状モデルとの比較に基づいて前記対象の3次元形状を推定する、計測方法。
A measurement method for measuring an object moving with a plurality of laser range finders,
(a) installing at least one of the plurality of laser range finders so that a scan surface thereof is inclined with respect to a horizontal plane;
(b) registering the target three-dimensional shape model in a database;
(c) estimating a horizontal position of the object based on measurement data from at least two of the plurality of laser range finders; and
(d) Based on the comparison between the measurement data from the laser range finder inclined at the step (a) and the three-dimensional shape model registered in the database at the step (b), the three-dimensional shape of the object is determined. The measurement method to estimate.
そのスキャン面が水平面に対して傾斜した少なくとも1つの傾斜レーザレンジファインダを含む複数のレーザレンジファインダで動く対象を計測する計測装置のコンピュータを、
前記対象の3次元形状モデルをデータベースに登録する登録ステップ、
前記複数のレーザレンジファインダのうち少なくとも2つからの計測データに基づいて前記対象の水平位置を推定する第1推定ステップ、および
前記傾斜レーザレンジファインダからの計測データと前記データベースに登録された3次元形状モデルとの比較に基づいて前記対象の3次元形状を推定する第2推定ステップとして機能させる、計測プログラム。
A measuring device computer for measuring an object moving with a plurality of laser range finders including at least one inclined laser range finder whose scan surface is inclined with respect to a horizontal plane;
A registration step of registering the three-dimensional shape model of the object in a database;
A first estimation step of estimating a horizontal position of the object based on measurement data from at least two of the plurality of laser range finders; and three-dimensional data registered in the database and measurement data from the tilt laser range finder A measurement program that functions as a second estimation step for estimating a three-dimensional shape of the object based on a comparison with a shape model.
JP2010095803A 2010-04-19 2010-04-19 Measuring device, measuring method and measuring program Pending JP2011226880A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010095803A JP2011226880A (en) 2010-04-19 2010-04-19 Measuring device, measuring method and measuring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010095803A JP2011226880A (en) 2010-04-19 2010-04-19 Measuring device, measuring method and measuring program

Publications (1)

Publication Number Publication Date
JP2011226880A true JP2011226880A (en) 2011-11-10

Family

ID=45042393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010095803A Pending JP2011226880A (en) 2010-04-19 2010-04-19 Measuring device, measuring method and measuring program

Country Status (1)

Country Link
JP (1) JP2011226880A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012215555A (en) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International Measurement device, measurement method, and measurement program
JP2016145742A (en) * 2015-02-06 2016-08-12 株式会社国際電気通信基礎技術研究所 Identification system, identification program, identification method and identification device
JPWO2021106207A1 (en) * 2019-11-29 2021-06-03

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08149516A (en) * 1994-11-16 1996-06-07 Secom Co Ltd Three-dimensional image decoder
JP2000019253A (en) * 1998-07-01 2000-01-21 Nippon Signal Co Ltd:The Obstacle detection device
JP2006047134A (en) * 2004-08-05 2006-02-16 Advanced Telecommunication Research Institute International Pedestrian position detector
JP2008186375A (en) * 2007-01-31 2008-08-14 Univ Of Tokyo Object measuring system
JP2009168578A (en) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International Measurement device and measurement method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08149516A (en) * 1994-11-16 1996-06-07 Secom Co Ltd Three-dimensional image decoder
JP2000019253A (en) * 1998-07-01 2000-01-21 Nippon Signal Co Ltd:The Obstacle detection device
JP2006047134A (en) * 2004-08-05 2006-02-16 Advanced Telecommunication Research Institute International Pedestrian position detector
JP2008186375A (en) * 2007-01-31 2008-08-14 Univ Of Tokyo Object measuring system
JP2009168578A (en) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International Measurement device and measurement method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012215555A (en) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International Measurement device, measurement method, and measurement program
JP2016145742A (en) * 2015-02-06 2016-08-12 株式会社国際電気通信基礎技術研究所 Identification system, identification program, identification method and identification device
JPWO2021106207A1 (en) * 2019-11-29 2021-06-03
WO2021106207A1 (en) * 2019-11-29 2021-06-03 日本電気株式会社 Measurement device, information processing device, data specification method, and non-transitory computer-readable medium
JP7276504B2 (en) 2019-11-29 2023-05-18 日本電気株式会社 Measurement device, information processing device, and data identification method

Similar Documents

Publication Publication Date Title
AU2020200546B2 (en) Structure modelling
JP6296043B2 (en) Measuring device, measuring method and measuring program
TWI467494B (en) Mobile camera localization using depth maps
US8504292B1 (en) Indoor localization based on ultrasound sensors
CN107680124B (en) System and method for improving three-dimensional attitude score and eliminating three-dimensional image data noise
US9117281B2 (en) Surface segmentation from RGB and depth images
CN108256430B (en) Obstacle information acquisition method and device and robot
JP5198883B2 (en) Tumor area size measuring method, apparatus and program
JP5430456B2 (en) Geometric feature extraction device, geometric feature extraction method, program, three-dimensional measurement device, object recognition device
JP5548482B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
JP5187878B2 (en) Object measurement system
Vidas et al. Real-time mobile 3D temperature mapping
JP2006302284A (en) System and method for transforming 2d image domain data into 3d high density range map
JP2011095797A (en) Image processing device, image processing method and program
CN107025663A (en) It is used for clutter points-scoring system and method that 3D point cloud is matched in vision system
CN105144283A (en) Viewing angle image manipulation based on device rotation
JP6999588B2 (en) Travel route prediction system, travel route prediction method, computer program
US10565786B1 (en) Sensor placement interface
CN112880674A (en) Positioning method, device and equipment of driving equipment and storage medium
JP2011226880A (en) Measuring device, measuring method and measuring program
JP2004272515A (en) Interface method, device, and program
CN113140032A (en) Floor plan generation based on room scanning
US20240013415A1 (en) Methods and systems for representing a user
JP2022501751A (en) Systems and methods for selecting complementary images from multiple images for 3D geometric extraction
Suppa Autonomous robot work cell exploration using multisensory eye-in-hand systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140318