JP5187878B2 - Object measurement system - Google Patents

Object measurement system Download PDF

Info

Publication number
JP5187878B2
JP5187878B2 JP2007021338A JP2007021338A JP5187878B2 JP 5187878 B2 JP5187878 B2 JP 5187878B2 JP 2007021338 A JP2007021338 A JP 2007021338A JP 2007021338 A JP2007021338 A JP 2007021338A JP 5187878 B2 JP5187878 B2 JP 5187878B2
Authority
JP
Japan
Prior art keywords
data
identification information
laser
processing
dimensional coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007021338A
Other languages
Japanese (ja)
Other versions
JP2008186375A (en
Inventor
亮介 柴崎
卉菁 趙
京市郎 帷子
慶樹 外口
一郎 有山
昇 長谷川
馨 大本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2007021338A priority Critical patent/JP5187878B2/en
Publication of JP2008186375A publication Critical patent/JP2008186375A/en
Application granted granted Critical
Publication of JP5187878B2 publication Critical patent/JP5187878B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、物体測定システムに係り、特に所定の領域内を移動する歩行者のような移動物の測定システム、物体情報の処理方法及びその処理のためのプログラムに関する。   The present invention relates to an object measurement system, and more particularly to a measurement system for a moving object such as a pedestrian moving within a predetermined area, a method for processing object information, and a program for the processing.

商品の販売状況や消費者の商品嗜好を調べる場合、特定の場所、例えばスーパーマーケットにおける人の動きを把握することが重要である。また、遊園地やイベント広場で、人や乗り物等の物体の動きを調査することが必要となる場合がある。   When examining the sales situation of a product and the consumer's product preference, it is important to grasp the movement of a person in a specific place, for example, a supermarket. In addition, it may be necessary to investigate the movement of objects such as people and vehicles in an amusement park or event plaza.

従来、物体を検知し或いは物体の表面を測定する場合、レーザ測距装置を用いることが提唱されている。例えば、物体の表面形状を測定する技術として、特許文献1にはステレオカメラに焦点光源装置を付け、画像演算により物体形状を計算する技術が開示されている。また、特許文献2には、レーザ測距装置内部にレーザ光を3次元方向に走査する機構を組み込み、3次元スキャンを行うことで物体の表面形状を測定する技術が開示されている。また、特許文献3には、2台のレーザ測距装置を測定領域の高所に設置し、2面のレーザ照射面を平行にして地面に対してほぼ垂直に照射することによって、その計測面を通過する車両の速度と形状を計測する技術が開示されている。更に、特許文献4には、異なる高さにレーザ変位計を設置したアームで物体の周囲を測距する技術が開示されている。   Conventionally, it has been proposed to use a laser range finder when detecting an object or measuring the surface of an object. For example, as a technique for measuring the surface shape of an object, Patent Document 1 discloses a technique in which a focus light source device is attached to a stereo camera and the object shape is calculated by image calculation. Patent Document 2 discloses a technique for measuring the surface shape of an object by incorporating a mechanism for scanning a laser beam in a three-dimensional direction inside the laser distance measuring device and performing a three-dimensional scan. Further, in Patent Document 3, two laser distance measuring devices are installed at a high position in a measurement region, and the two laser irradiation surfaces are parallel to irradiate the surface substantially perpendicularly to the ground. A technique for measuring the speed and shape of a vehicle passing through the vehicle is disclosed. Furthermore, Patent Document 4 discloses a technique for measuring the distance around an object with an arm in which laser displacement meters are installed at different heights.

特開2001−194128号公報JP 2001-194128 A 特開2002−181533号公報JP 2002-181533 A 特開2001−319290号公報JP 2001-319290 A 特開平7−260440号公報JP 7-260440 A

然るに、上記特許文献1の技術は、複雑な画像演算を行う必要があり、物体の3次元位置の計算に要するコストが高いという問題がある。また、焦点光源付ステレオカメラという特殊な装置を必要とし、外乱光の影響が強い実環境での適用は困難な場合が多い。また、視野角が狭いため、広範囲の計測には不向きである。   However, the technique of Patent Document 1 has a problem that it is necessary to perform complicated image calculation, and the cost required for calculating the three-dimensional position of the object is high. In addition, a special device called a stereo camera with a focal light source is required, and it is often difficult to apply in a real environment where the influence of ambient light is strong. In addition, since the viewing angle is narrow, it is not suitable for a wide range of measurements.

上記特許文献2の技術は、レーザ測距装置内部にレーザを3次元的に走査する機構を組み込むため、内部の構造が複雑化し、耐久性に問題がある。また、レーザ照射方向を複雑に稼動させるため1回のスキャンに時間がかかり、被測定物は測定領域にてスキャン完了までの一定時間、静止している必要がある。したがって、移動物を高速に計測することは困難である。   The technique disclosed in Patent Document 2 incorporates a mechanism for three-dimensionally scanning a laser inside the laser distance measuring device, which complicates the internal structure and has a problem with durability. Further, since the laser irradiation direction is operated in a complicated manner, it takes time for one scan, and the object to be measured needs to be stationary for a certain time until the scan is completed in the measurement region. Therefore, it is difficult to measure a moving object at high speed.

上記特許文献3の技術は、主に車両のような比較的水平方向に平たい物体を対象としていて、人物のように垂直方向に細長い物体に対して垂直方向に照射する場合、主に物体の上面すなわち人物の頭部の情報しか得られない点で問題がある。また、物体速度はレーザの計測断面に入る瞬間と出る瞬間でのみ計算しているが、計測断面を通過している途中で速度が変わったり、あるいは物体の進入方向が照射面に対して直交する方向では無かったりする場合、正確な物体形状の計算は困難である。   The technique of the above-mentioned patent document 3 mainly targets a relatively flat object such as a vehicle, and when irradiating a vertically elongated object such as a person in the vertical direction, mainly the upper surface of the object. That is, there is a problem in that only information on the person's head can be obtained. The object speed is calculated only at the moment of entering and exiting the laser measurement section, but the speed changes while passing through the measurement section, or the object entry direction is orthogonal to the irradiation surface. When there is no direction, it is difficult to calculate an accurate object shape.

上記特許文献4の技術は、レーザ変位計を設置したアームで物体の周囲を測距する技術は、大規模な装置を用いる必要があるためコストが高い。また、測定はその回転するアームの内側で行う必要があるため、測定できる物体サイズに対してアームの大きさによる制限がある。   The technique of the above-mentioned Patent Document 4 is expensive because the technique of measuring the periphery of an object with an arm provided with a laser displacement meter requires the use of a large-scale device. Further, since the measurement needs to be performed inside the rotating arm, there is a limitation on the size of the object that can be measured depending on the size of the arm.

そこで、本発明の目的は、測定のためにコストや手間をかけず、レーザ測距装置を用いて測定領域内を移動する物体の情報を取得し、その物体の位置や3次元形状のデータを容易に得ることことにある。
また、本発明は、取得した物体の情報を利用して、指定された物体の3次元形状の表示を行うことにある。
Therefore, an object of the present invention is to acquire information on an object moving within a measurement region using a laser distance measuring device without cost and labor for measurement, and to obtain the position and three-dimensional shape data of the object. It is easy to get.
Further, the present invention is to display a three-dimensional shape of a specified object using the acquired object information.

本発明に係る物体測定システムは、レーザ測距装置を用いて領域内に移動する物体を測定する物体測定システムであって、
測定対象の該領域にレーザ照射し、該領域内に居る物体に関する位置情報に関する測距データを得るレーザ測距装置と、
該レーザ測距装置から得られた該測距データに関するデータ処理を行う処理装置と、関連する情報を記憶する記憶手段を有し、
該処理装置は、該レーザ測距装置より連続的に得られる該測距データから、レーザ照射による物体のポイントデータごとの、該レーザ測距装置を原点として定義される共通座標系における3次元座標データを求め、
さらに、ここから得られた物体のポイントデータごとの、共通座標系における3次元座標データからレーザポイント群のうち一定距離以内に存在し同一物体とみなされるポイント
をクラスタにする処理を行う第1の処理手段と、
該クラスタ処理を行った後の1つのクラスタに含まれる複数のポイントの重心座標を求めながらクラスタを1つにマッピングして、該重心座標を求めマッピングしたクラスタに対して物体固有の識別情報を付与する第2の処理手段と、
前記第1の処理手段によって求められた物体の前記共通座標系における前記3次元座標データから、該第2の処理手段によって求められた物体の該重心座標を原点として定義されるローカル座標系における3次元座標データを求める第3の処理手段とを有し、
該記憶手段は、前記第3の処理手段によって求められた該物体の該重心座標データを、該物体の識別情報に対応して記憶する物体位置DBを有する、ことを特徴とする物体測定システムとして構成される。
An object measurement system according to the present invention is an object measurement system for measuring an object moving in an area using a laser distance measuring device,
A laser distance measuring device that irradiates the area to be measured with laser and obtains distance measurement data related to position information about an object in the area;
A processing device that performs data processing on the distance measurement data obtained from the laser distance measuring device, and storage means for storing related information;
The processing device is configured to obtain, from the ranging data continuously obtained from the laser ranging device, three-dimensional coordinates in a common coordinate system defined with the laser ranging device as an origin for each point data of an object by laser irradiation. Seeking data ,
Further, for each point data of the object obtained from this point, the points that are present within a certain distance from the three-dimensional coordinate data in the common coordinate system and are regarded as the same object.
A first processing means for performing processing to make a cluster;
The cluster is mapped to one while obtaining the centroid coordinates of a plurality of points included in one cluster after the cluster processing is performed, and the identification information specific to the object is given to the mapped cluster by obtaining the centroid coordinates. Second processing means to:
3 in the local coordinate system defined by using the center of gravity coordinates of the object obtained by the second processing means as the origin from the three-dimensional coordinate data of the object obtained by the first processing means in the common coordinate system. Third processing means for obtaining dimensional coordinate data;
The storage means has an object position DB for storing the barycentric coordinate data of the object obtained by the third processing means in correspondence with the identification information of the object. Composed.

本発明に係る物体情報処理方法は、レーザ測距装置を用いて領域内に移動する物体を測定して得られる物体情報処理方法であって、
測定対象の該領域にレーザ照射し、該領域内に居る物体に関する位置情報に関する測距データを得るステップと、
該レーザ測距装置より連続的に得られる該測距データから、レーザ照射による物体のポイントデータごとの、該レーザ測距装置を原点として定義される共通座標系における3次元座標データを求め、
さらに、ここから得られた物体のポイントデータごとの、共通座標系における3次元座標データからレーザポイント群のうち一定距離以内に存在し同一物体とみなされるポイントをクラスタにする処理を行う第1の処理ステップと、
該クラスタ処理を行った後の1つのクラスタに含まれる複数のポイントの重心座標を求めながらクラスタを1つにマッピングして、該重心座標を求めマッピングしたクラスタに対して物体固有の識別情報を付与する第2の処理ステップと、
前記第1の処理ステップによって求められた物体の前記共通座標系における前記3次元座標データから、該第2の処理ステップによって求められた物体の該重心座標を原点として定義されるローカル座標系における3次元座標データを求める第3の処理ステップと、
前記第3の処理ステップによって求められた該物体の該重心座標データを、該物体の識別情報に対応して物体位置DBに記憶するステップとを有することを特徴とする物体情報処理方法として構成される。
Object information processing method according to the present invention is an object information processing method obtained by measuring the moving objects laser range equipment using area,
Irradiating the area to be measured with a laser to obtain distance measurement data relating to position information about an object in the area;
From the distance measurement data obtained continuously from the laser distance measurement device, three-dimensional coordinate data in a common coordinate system defined with the laser distance measurement device as the origin for each point data of the object by laser irradiation ,
Furthermore, for each point data of the object obtained from this, a first process for clustering points that are within a certain distance from the three-dimensional coordinate data in the common coordinate system and are regarded as the same object within the laser point group. Processing steps;
The cluster is mapped to one while obtaining the centroid coordinates of a plurality of points included in one cluster after the cluster processing is performed, and the identification information specific to the object is given to the mapped cluster by obtaining the centroid coordinates. A second processing step,
From the three-dimensional coordinate data of the object obtained by the first processing step in the common coordinate system, 3 in the local coordinate system defined by using the barycentric coordinates of the object obtained by the second processing step as the origin. A third processing step for obtaining dimensional coordinate data;
And storing the barycentric coordinate data of the object obtained in the third processing step in an object position DB corresponding to the identification information of the object. The

また、本発明に係るプログラムは、レーザ測距装置を用いて領域内に移動する物体を測定して得られる物体の情報を処理するための計算機上で実行されるプログラムであって、
該レーザ測距装置より測定対象の該領域にレーザ照射し、連続的に得られる位置情報に関する測距データから、レーザ照射による物体のポイントデータごとの、該レーザ測距装置を原点として定義される共通座標系における3次元座標データを求め、
さらに、これから得られた物体のポイントデータごとの、共通座標系における3次元座標データからレーザポイント群のうち一定距離以内に存在し同一物体とみなされるポイントをクラスタにする処理を行う第1の処理ステップと、
該クラスタ処理を行った後の1つのクラスタに含まれる複数のポイントの重心座標を求めながらクラスタを1つにマッピングして、該重心座標を求めマッピングしたクラスタに対して物体固有の識別情報を付与する第2の処理ステップと、
前記第1の処理ステップによって求められた物体の前記共通座標系における前記3次元座標データから、該第2の処理ステップによって求められた物体の該重心座標を原点として定義されるローカル座標系における3次元座標データを求める第3の処理ステップと、
前記第3の処理ステップによって求められた該物体の該重心座標データを、該物体の識別情報に対応して物体位置DBに記憶するステップとを計算機上で実行することを特徴とするプログラムとして構成される。
The program according to the present invention is a program executed on a computer for processing information of an object obtained by measuring an object moving within an area using a laser distance measuring device,
Laser irradiation is performed on the region to be measured from the laser distance measuring device, and the laser distance measuring device is defined with the laser distance measuring device as the origin for each point data of the object by laser irradiation based on distance measurement data relating to position information obtained continuously. Find 3D coordinate data in a common coordinate system ,
Further, a first process for clustering points that are present within a certain distance from the three-dimensional coordinate data in the common coordinate system and are regarded as the same object for each point data of the object obtained from this point data. Steps,
The cluster is mapped to one while obtaining the centroid coordinates of a plurality of points included in one cluster after the cluster processing is performed, and the identification information specific to the object is given to the mapped cluster by obtaining the centroid coordinates. A second processing step,
From the three-dimensional coordinate data of the object obtained by the first processing step in the common coordinate system, 3 in the local coordinate system defined by using the barycentric coordinates of the object obtained by the second processing step as the origin. A third processing step for obtaining dimensional coordinate data;
A program for executing, on a computer, the step of storing the barycentric coordinate data of the object obtained in the third processing step in the object position DB corresponding to the identification information of the object Is done.

本発明によれば、レーザ測距装置を用いて測定領域にレーザを照射して測距データを得て、測定領域内を移動する物体の位置及び3次元形状のデータを取得することができる。また、対象物に対してレーザを斜めに照射することで、物体の移動に伴って、物体の様々な高さの3次元形状データを取得することができる。また、取得した物体の情報を利用して物体の3次元形状を表示することができる。 According to the present invention, it is possible to obtain distance measurement data by irradiating a measurement area with a laser using a laser distance measuring apparatus, and to acquire the position and three-dimensional shape data of an object moving within the measurement area. In addition, by irradiating the target with the laser at an angle, three-dimensional shape data of various heights of the object can be acquired as the object moves. Further, the three-dimensional shape of the object can be displayed using the acquired object information.

以下、図面を参照して本発明の実施形態について説明する。
図1は、一実施例による移動物測定システムの構成を示す。
このシステムは、測定領域Xとしてスーパーや遊園地の出入り口等の特定の領域を決めて、測定対象の移動物として歩行者を対象とする。測定領域X内を移動した歩行者の形状、大きさ、速度等を測定し、その情報を例えば市場調査用として利用するために、DBに保存するシステムである。これにより、歩行者が何人連れであるか、子供か大人か、荷物を持っているか、カートを牽いているか等の情報を取得することが可能となる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows a configuration of a moving object measuring system according to an embodiment.
This system determines a specific area such as a supermarket or an amusement park entrance as the measurement area X, and targets a pedestrian as a moving object to be measured. This is a system that measures the shape, size, speed, etc. of a pedestrian who has moved within the measurement region X, and stores the information in a DB in order to use it for, for example, market research. Thereby, it becomes possible to acquire information such as how many pedestrians are accompanied, whether they are children or adults, whether they have luggage, whether they are checking carts, or the like.

図示のように、このシステムは、測定領域Xを照射する2台のレーザ測距装置11、12と、これらレーザ測距装置11,12で検出された距離データを受信し、歩行者を含む移動物の3次元形状を計算する1台のPC(パーソナルコンピュータ)により構成される。PC3は、移動物の表面形状や位置、移動速度を計算して記憶するための処理装置としてのCPU31と、関係する種々のデータを記憶するデータベース(DB)32と、表示装置33及び入力装置34を有する。   As shown in the figure, this system receives two laser distance measuring devices 11 and 12 that irradiate the measurement region X, and distance data detected by the laser distance measuring devices 11 and 12, and moves including a pedestrian. It is composed of one PC (personal computer) that calculates the three-dimensional shape of an object. The PC 3 is a CPU 31 as a processing device for calculating and storing the surface shape, position and moving speed of a moving object, a database (DB) 32 for storing various related data, a display device 33 and an input device 34. Have

レーザ測距装置1(以下2台の装置11,12を総称する場合、単に1と表す)は、回転するレーザにより1つの平面を連続的に測距する装置である。例えば、レーザ測距装置11は、測定面が床面から約16cmの高さに設置され、レーザ測距装置12は高さ2m程の高所から俯角θ(ピッチ角PB)で斜め下方に照射面を傾けて設置される。
レーザ測距装置1はその前方180°の範囲を扇状に0.5°刻みで角度を変えながら物体までの距離を連続的に測定し、移動物までの距離データとその角度番号を含む情報をPC3へ送信する。距離データは、式(1)のように、180°の範囲を0.5°で刻んだ角度と、その角度の前方までの距離をセンチ単位で並べたデータの組として構成される。
The laser distance measuring device 1 (hereinafter, when the two devices 11 and 12 are collectively referred to as “1”) is a device that continuously measures a single plane with a rotating laser. For example, the laser distance measuring device 11 is installed at a height of about 16 cm from the floor surface, and the laser distance measuring device 12 is obliquely downward at a depression angle θ (pitch angle P B ) from a height of about 2 m. Installed with the irradiation surface tilted.
The laser distance measuring device 1 continuously measures the distance to the object while changing the angle in the range of 180 ° in front of the fan in steps of 0.5 °, and information including the distance data to the moving object and the angle number thereof. Send to PC3. The distance data is configured as a set of data in which an angle obtained by engraving a range of 180 ° by 0.5 ° and a distance to the front of the angle are arranged in centimeters, as in Expression (1).

Figure 0005187878
Figure 0005187878

1スキャンのデータは1回のレーザの回転により得られた距離値のデータ列であり、毎秒数十フレームの距離データがPC3へ送信される。   The data for one scan is a data string of distance values obtained by one rotation of the laser, and distance data of several tens of frames per second is transmitted to the PC 3.

計測範囲はレーザ測距装置11を原点(xyz座標の(0、0、0))とした共通座標系W(xw、 yw、 zw)を定義し、その座標系におけるレーザ測距装置11の位置(x、 y、 z)、姿勢(ロール角R、ピッチ角P、方位角Y)およびレーザ測距装置12の位置(xB、 yB、 zB)、姿勢(ロール角RB、ピッチ角PB、方位角YB)を予め求めておく。ここでロール角とは、レーザ正面に対して垂直な軸に対する回転角、ピッチ角とはレーザ真横に対して垂直な軸に対する回転角、方位角とはレーザ真上に対して垂直な軸に対する回転角である。また、レーザ測距装置12の計測範囲は、レーザ測距装置11の測定範囲に含まれるように設置する。レーザ測距装置11、12により測定される範囲を測定領域と呼び、この領域内に入る歩行者を測定対象とする。 The measurement range defines a common coordinate system W (x w , y w , z w ) with the laser distance measuring device 11 as the origin (xyz coordinates (0, 0, 0)), and the laser distance measuring device in that coordinate system 11 position (x A , y A , z A ), posture (roll angle R A , pitch angle P A , azimuth angle Y A ) and position of laser ranging device 12 (x B , y B , z B ), Postures (roll angle R B , pitch angle P B , azimuth angle Y B ) are obtained in advance. Here, the roll angle is a rotation angle with respect to an axis perpendicular to the laser front surface, the pitch angle is a rotation angle with respect to an axis perpendicular to the laser right side, and an azimuth angle is rotation with respect to an axis perpendicular to the laser right above. It is a horn. Further, the measurement range of the laser distance measuring device 12 is installed so as to be included in the measurement range of the laser distance measuring device 11. A range measured by the laser distance measuring devices 11 and 12 is referred to as a measurement region, and a pedestrian entering the region is set as a measurement target.

図2は、測定領域に歩行者20が入ってきた際に、レーザ測距装置11,12の1回分のスキャンによって得られるデータの例を示したものである。(A)、(B)はそれぞれレーザ測距装置11,12から得られたデータを示す。   FIG. 2 shows an example of data obtained by one scan of the laser distance measuring devices 11 and 12 when a pedestrian 20 enters the measurement area. (A) and (B) show data obtained from the laser distance measuring devices 11 and 12, respectively.

レーザ測距装置11から照射されるレーザ光は、常に歩行者の足首付近に当たる。そのため、(A)のように歩行者20の両足の前面から円弧状のレーザポイントのデータとなり、歩行者が測定領域内のどの位置に居るかが分かる。
また、(B)のように、レーザ測距装置12からのレーザ光が歩行者に照射する高さは、レーザ測距装置12と歩行者との間の距離に応じて変化する。歩行者がレーザ測距装置12から遠方にいる時は、歩行者の低い位置にレーザ光が当たり、歩行者がレーザ測距装置12に近づくにつれて歩行者の高い位置にレーザ光が当たる。
Laser light emitted from the laser distance measuring device 11 always strikes the vicinity of the pedestrian's ankle. Therefore, as shown in (A), the arc-shaped laser point data is obtained from the front surface of both feet of the pedestrian 20, and the position of the pedestrian in the measurement region is known.
Moreover, as shown in (B), the height at which the laser light from the laser distance measuring device 12 irradiates the pedestrian changes according to the distance between the laser distance measuring device 12 and the pedestrian. When the pedestrian is far away from the laser distance measuring device 12, the laser light hits the lower position of the pedestrian, and the laser light hits the higher position of the pedestrian as the pedestrian approaches the laser distance measuring device 12.

図3(A)に示すように、歩行者20が測定領域内を右から左方向へ移動するにつれて、レーザ測距装置12からのレーザ光によって足元から頭まで照射され、歩行者の表面形状に関する複数の3次元座標データを得ることができる。例えば、レーザ光のスキャンタイミングをt1〜t6とすると、(B)に示すように、歩行者に対する複数の3次元座標としてその表面形状データC1〜C6を得ることができる。このように収集した多数の3次元座標データを処理して表示装置33に表示すると、図3(C)に示すように、ある歩行者の全体の表面形状を表示することができる。本システムはこのような原理に基づき歩行者の表面形状を取得して表示する。なお、図3は説明上C1〜C6の6つの表面形状データであるが、レーザ光のスキャン数を増やせば、歩行者(移動物)の概観を十分に認識できる程度の3次元表示が可能である。 As shown in FIG. 3A, as the pedestrian 20 moves from the right to the left in the measurement region, the laser beam from the laser distance measuring device 12 is irradiated from the foot to the head, and the surface shape of the pedestrian is related. A plurality of three-dimensional coordinate data can be obtained. For example, when the scanning timing of the laser beam is t1 to t6, as shown in (B), the surface shape data C1 to C6 can be obtained as a plurality of three-dimensional coordinates for the pedestrian. When a large number of three-dimensional coordinate data collected in this way is processed and displayed on the display device 33, the entire surface shape of a pedestrian can be displayed as shown in FIG. This system acquires and displays the surface shape of the pedestrian based on such a principle. Note that FIG. 3 shows six surface shape data C1 to C6 for the sake of explanation, but if the number of laser light scans is increased, three-dimensional display to the extent that the pedestrian (moving object) can be fully recognized is possible. is there.

図8〜図10を参照して、DB32内に形成される具体的なDBの構成について説明する。
図8は、3次元座標管理DB800の構成を示す。
3次元座標管理DB800は、物体(歩行者)の3次元形状を把握するために、測定された3次元座標データを物体ごとに管理する。測定領域に入場して来た歩行者を識別するために、歩行者ごとに物体IDが付与され、その物体IDごとにその物体のポイントおよびポイントに対応した3次元座標を記憶する。ポイントNoとは、1つの点ごとに付与された通し番号である。
例えば、801は物体ID:00001の3次元座標を記憶し、802,803は、それぞれ物体ID:00002、00003の3次元座標を記憶するが如きである。
A specific configuration of the DB formed in the DB 32 will be described with reference to FIGS.
FIG. 8 shows the configuration of the three-dimensional coordinate management DB 800.
The three-dimensional coordinate management DB 800 manages the measured three-dimensional coordinate data for each object in order to grasp the three-dimensional shape of the object (pedestrian). In order to identify a pedestrian who has entered the measurement area, an object ID is assigned to each pedestrian, and a point of the object and a three-dimensional coordinate corresponding to the point are stored for each object ID. Point No is a serial number assigned to each point.
For example, 801 stores the three-dimensional coordinates of the object ID: 00001, and 802 and 803 store the three-dimensional coordinates of the object IDs: 00002 and 00003, respectively.

図9は、物体ID管理DB900の構成を示す。
物体DI管理DB900は、それぞれの歩行者の移動時刻と、形状データとの対応を管理するためのDBであり、物体IDに対応して、測定領域Xへの進入時刻、退出時刻、及び当該物体の3次元座標データのアドレスを記憶する。このアドレスによって3次元座標管理DB800から物体IDに対応した3次元座標データを読み出すことができる。
FIG. 9 shows the configuration of the object ID management DB 900.
The object DI management DB 900 is a DB for managing the correspondence between the movement time of each pedestrian and the shape data. The object DI management DB 900 corresponds to the object ID, the entry time to the measurement region X, the exit time, and the object. The address of the three-dimensional coordinate data is stored. With this address, the three-dimensional coordinate data corresponding to the object ID can be read from the three-dimensional coordinate management DB 800.

図10は、物体位置DB100の構成を示す。
物体位置DB100は、歩行者の移動を管理するものであり、物体IDに対応して重心座標g1を記憶する。同じ歩行者と認識をしている場合には、その度に重心座標g1が更新され、一方、新たな歩行者と認識をした場合には、その歩行者に対して新たな物体IDが付与され、重心座標g1が記憶される。
FIG. 10 shows the configuration of the object position DB 100.
The object position DB 100 manages the movement of pedestrians and stores barycentric coordinates g1 corresponding to the object ID. When recognizing the same pedestrian, the center-of-gravity coordinate g1 is updated each time. On the other hand, when recognizing a new pedestrian, a new object ID is assigned to the pedestrian. The barycentric coordinates g1 are stored.

本発明に係る物体測定システムの一連の処理は、PC3のCPU31でプログラムを実行することで実現する。
このシステムにおける全体の処理について述べると、図14に示すように、まず、測定場所の背景データを取得し(S1401)、その後、測定場所に入場して来る移動物の表面形状データ(3次元形状データ)を取得する(S1402)。移動物の表面形状データが蓄積されると、その後、移動物の表示処理を行う(S1403)。なお、表面形状データの取得処理については、図4を参照し、また表示処理については図15を参照してそれぞれ後述する。
A series of processing of the object measurement system according to the present invention is realized by executing a program by the CPU 31 of the PC 3.
The overall processing in this system will be described. As shown in FIG. 14, first, background data of a measurement location is acquired (S1401), and then surface shape data (three-dimensional shape) of a moving object entering the measurement location. Data) is acquired (S1402). When the surface shape data of the moving object is accumulated, display processing of the moving object is subsequently performed (S1403). The surface shape data acquisition process will be described later with reference to FIG. 4 and the display process will be described later with reference to FIG.

ここで、背景データの取得処理(S1401)について述べる。本システムが起動されると、まず歩行者の測定を行う前の処理として測定場所の背景データを取得する。例えば、レーザ測距装置1から歩行者の居ない測定場所全体を照射して、背景となる壁や柱等の動かない物体に関するデータ(背景データ)を取得する。レーザ測距装置1で取得された距離データをPC3のDB32に順次記憶しておき、距離データの角度ごとに距離値のヒストグラムを計算すると、動かない物体に当たり続けたレーザポイントは最頻値を取るので、その最頻値が背景データとなる(図5(B)参照)。
なお、取得された背景データは、式(1)に示した距離データと同様に、背景までの角度と距離を順に並べた形式でDB32に記憶される。
Here, background data acquisition processing (S1401) will be described. When this system is started, first, background data of a measurement place is acquired as a process before measuring a pedestrian. For example, the entire measurement place where there is no pedestrian is irradiated from the laser distance measuring device 1 to acquire data (background data) related to an object that does not move, such as a wall or a pillar as a background. When the distance data acquired by the laser distance measuring device 1 is sequentially stored in the DB 32 of the PC 3 and a histogram of distance values is calculated for each angle of the distance data, the laser point that has continued to hit the non-moving object takes the mode value. Therefore, the mode value becomes background data (see FIG. 5B).
The acquired background data is stored in the DB 32 in a format in which angles and distances to the background are arranged in order, similarly to the distance data shown in Expression (1).

次に、図4を参照して、3次元形状データの取得処理について説明する。
以下の処理は、PC3のCPU31でプログラムを実行することで行われる。
まず、物体IDを‘0’にする(S0)。物体IDは、検知された物体が同一であることを識別するための情報であり、測定領域に新たな歩行者が入って来たと認識される度に新たな物体IDが付与される。
次に、PC3はレーザ測距装置11、12それぞれの距離データを受信可能になるまで待機し(S1)、受信可能になると2つの距離データを受信する(S2)。受信された距離データはそれぞれ背景データと比較して、歩行者などの移動物にレーザ光が当たったデータのみを算出する(S3)。
すなわち、図5に示すように、レーザ測距装置1が検知する距離データ(A)には、測定領域における壁53や柱等の背景データ51と歩行者のデータ52が混在する。PC3のCPU31は、受信した距離データから背景データ51を差分計算すると、背景データ51が削除されて歩行者のデータのみが残った移動物データCn(図3)を求める。測定領域内に歩行者が居る場合には移動物データCnのデータは1つ以上残り、測定領域内に歩行者が居ない場合には距離データと背景データが等しくなり背景差分は残らないことになる。
Next, with reference to FIG. 4, a process for acquiring three-dimensional shape data will be described.
The following processing is performed by executing a program with the CPU 31 of the PC 3.
First, the object ID is set to “0” (S0). The object ID is information for identifying that the detected object is the same, and a new object ID is given every time it is recognized that a new pedestrian has entered the measurement region.
Next, the PC 3 stands by until it becomes possible to receive the distance data of each of the laser distance measuring devices 11 and 12 (S1), and when it can be received, it receives two distance data (S2). The received distance data is compared with the background data, respectively, and only the data in which the moving object such as a pedestrian hits the laser beam is calculated (S3).
That is, as shown in FIG. 5, the distance data (A) detected by the laser distance measuring device 1 includes background data 51 such as walls 53 and pillars in the measurement region and pedestrian data 52. When the CPU 31 of the PC 3 calculates the difference of the background data 51 from the received distance data, the CPU 31 calculates the moving object data Cn (FIG. 3) in which the background data 51 is deleted and only the pedestrian data remains. When there is a pedestrian in the measurement area, one or more data of the moving object data Cn remain, and when there is no pedestrian in the measurement area, the distance data and the background data are equal and no background difference remains. Become.

次に、(S1)で得られた移動物データCを、その角度と距離の極座標系から平面座標系(X、Y)に変換し、さらにレーザ測距装置1の位置(x、 y、 z)、姿勢
(R、 P、 Y)から共通座標系Wにおける3次元座標(x、 y、 z)に変換する(S4)。以下にその変換式(式2)を示す。
Next, the moving object data C obtained in (S1) is converted from the polar coordinate system of the angle and distance to the planar coordinate system (X, Y), and further the position (x A , y A of the laser distance measuring device 1). , Z A ) and posture (R A , P A , Y A ) are converted into three-dimensional coordinates (x, y, z) in the common coordinate system W (S4). The conversion formula (Formula 2) is shown below.

Figure 0005187878
Figure 0005187878

ここで、αは背景差分が示すそれぞれの角度、rは角度が示す距離であり、この変換式は、レーザ測距装置12に対しても同様に、レーザ測装置11の位置(x、 y、 z)、姿勢(R、 P、 Y)をレーザ測装置12の位置(x、 y、 z)、姿勢(R、 P、 Y)に置き換えたものを使用する。以後、スキャン1回分の移動物データCを共通座標系Wにおける座標(x、 y、 z)に変換した後の座標データを、それぞれ位置データ、形状データと呼ぶ。
この時、形状データの有無より歩行者が存在しているかを判定する(S5)。判定の結果、形状データが存在しない場合には(S5:No)、CPU31は再び次の距離データが送られてくるのを待つ。
Here, alpha respective angles indicated by the background difference, r is the distance indicated by angle, the conversion formula, similarly to the laser range finder 12, the position of the laser distance measuring device 11 (x A, y a, z a), the attitude (R a, P a, Y a) position of the laser distance measuring device 12 (x B, y B, z B), attitude (R B, P B, replaced by Y B) Use the same thing. Hereinafter, the coordinate data groups obtained by converting the moving object data C for one scan into coordinates (x, y, z) in the common coordinate system W are referred to as position data and shape data, respectively.
At this time, it is determined whether there is a pedestrian based on the presence or absence of shape data (S5). As a result of the determination, if there is no shape data (S5: No), the CPU 31 waits for the next distance data to be sent again.

一方、例えばレーザ測距装置12から得られた形状データに移動物が存在している場合には、CPU31は位置データのクラスタリング処理を行う(S6)。クラスタリングとは、レーザポイント群のうち一定距離以内に存在するレーザポイント同士を、同一物体として1つの組(クラスタ)にする処理である。これを再帰的に行うことで同一の歩行者の足2本による位置データを同一人物として1つに纏め、一定距離以上にある別の歩行者と区別する。   On the other hand, for example, when there is a moving object in the shape data obtained from the laser distance measuring device 12, the CPU 31 performs a clustering process of position data (S6). Clustering is a process in which laser points existing within a certain distance in a laser point group are grouped as one object (cluster). By performing this recursively, the position data based on the two feet of the same pedestrian are combined into one as the same person, and distinguished from another pedestrian that is more than a certain distance.

クラスタリングを行った後、1つのクラスタに含まれる全てのポイントの重心座標g1を求める(S7)。ここでクラスタの重心として1つの座標を決定し、歩行者の居る位置とする。
全てのクラスタの重心座標を求めた後、各クラスタの重心に関して物体位置DB100を検索することで、それぞれがある一定距離以下(例えば15cm以下)である重心座標g1のクラスタに対して、物体位置DB900を検索して関連する物体IDを得る(S8)。
After clustering, the barycentric coordinates g1 of all points included in one cluster are obtained (S7). Here, one coordinate is determined as the center of gravity of the cluster, and is set as a position where a pedestrian is present.
After obtaining the center-of-gravity coordinates of all the clusters, the object position DB 100 is searched for the center of gravity of each cluster, so that the object position DB 900 for each cluster of the center-of-gravity coordinates g1 that is less than a certain distance (for example, 15 cm or less). To obtain a related object ID (S8).

これにより、関連付けられる物体IDが存在し、同一人物と判定された場合は(S9)、前回のスキャンからの経過時間および重心の移動距離により移動ベクトルを求め(S10)、物体位置DB100の対応する物体IDの重心をステップS7で求めた重心座標g1を更新する。(S11)
形状データについても同様に、ステップS7で求めた重心座標g1を開始点としたクラスタリングを行い、位置データにより検出された歩行者の、レーザ測距装置1より測定された物体の表面形状を求める(S12)。
As a result, when there is an associated object ID and it is determined that they are the same person (S9), a movement vector is obtained from the elapsed time from the previous scan and the movement distance of the center of gravity (S10), and the corresponding object position DB 100 corresponds. The center-of-gravity coordinates g1 obtained by calculating the center of gravity of the object ID in step S7 is updated. (S11)
Similarly for the shape data, clustering is performed with the centroid coordinates g1 obtained in step S7 as the starting point, and the surface shape of the object measured by the laser distance measuring device 1 of the pedestrian detected from the position data is obtained ( S12).

図7の(B´)に示すように、ステップS7で求めた重心座標g1を原点とするローカル座標系Lを定義して、ステップS11で同一人物と関連付けられた座標群とステップS11で求めた移動ベクトルvの方向をy軸の正の向きに回転した座標に変換する(S13)。この変換は、以下の式(3)を用いて計算される。   As shown in FIG. 7 (B ′), a local coordinate system L is defined with the center of gravity coordinate g1 obtained in step S7 as the origin, and the coordinate group associated with the same person is obtained in step S11 and obtained in step S11. The direction of the movement vector v is converted into coordinates rotated in the positive direction of the y-axis (S13). This conversion is calculated using the following equation (3).

変換前の共通座標系で示されたステップS11の形状データにおける座標を(xW, yW, z)、ステップS7で求めたクラスタの重心座標を(xg,yg,zg)、ステップS10の移動ベクトルと共通座標系Wにおけるx軸との成す角をφとすると、ローカル座標系Lへ投影した座標(x′,y′,z′)は、式(3)より求める。 Before conversion of the common coordinate system at the indicated coordinates in the shape data in step S11 (x W, y W, z W), the barycentric coordinates of the clusters obtained in step S7 (xg, yg, zg) , in step S10 When the angle formed between the x W axis in a common coordinate system W and the movement vector and phi, the coordinates projected to the local coordinate system L (x ', y', z ') is obtained from equation (3).

Figure 0005187878
Figure 0005187878

この変換後の座標を、物体形状の3次元座標データとして物体IDごとにそれぞれ3次元座標管理DB800に追加して登録する(S14)。
一方、ステップS9において同一人物と判定されるクラスタが見つからなかった場合には(S9:No)には、新たな歩行者が入って来たと判断して、その歩行者に対して新たな物体ID(最新の物体IDに‘1’を加えて)を作成し(S91)、上記ステップS7で求めた重心座標g1を、物体位置DB100に新たに追加して登録する(S92)。このとき、図9の物体ID管理DB900には、新規の物体IDと進入時刻の欄に現在時刻が登録される(S93)。
The converted coordinates are added and registered in the three-dimensional coordinate management DB 800 for each object ID as three-dimensional coordinate data of the object shape (S14).
On the other hand, if a cluster determined to be the same person is not found in step S9 (S9: No), it is determined that a new pedestrian has entered, and a new object ID is given to the pedestrian. (Adding “1” to the latest object ID) is created (S91), and the barycentric coordinates g1 obtained in step S7 are newly added to the object position DB 100 and registered (S92). At this time, the current time is registered in the new object ID and entry time fields in the object ID management DB 900 of FIG. 9 (S93).

全てのクラスタの重心座標g1に対して物体位置DB100を検索して、物体IDの関連付けを検索し(S15)、その結果、何れのクラスタにも関連付けなかった物体IDのクラスタは、物体位置DB100より物体IDが破棄される。また、物体ID管理DB900の退出時刻の欄に現在時刻を登録し、3次元座標管理DB800の3次元座標データへアクセスするためのアドレスを物体ID管理DB900のアドレス欄に登録する(S16)。   The object position DB 100 is searched for the center-of-gravity coordinates g1 of all the clusters, and the association of the object ID is searched (S15). As a result, the cluster of the object ID that is not associated with any cluster is obtained from the object position DB 100. The object ID is discarded. Also, the current time is registered in the exit time column of the object ID management DB 900, and an address for accessing the 3D coordinate data of the 3D coordinate management DB 800 is registered in the address column of the object ID management DB 900 (S16).

以上のように、ステップ1〜ステップ16の処理を実行することで、測定領域内Xに到来する歩行者ごとの3次元形状を3次元座標管理DB900に記録することができ、一連の処理を終了する。   As described above, by executing the processing from step 1 to step 16, the three-dimensional shape for each pedestrian arriving in the measurement area X can be recorded in the three-dimensional coordinate management DB 900, and the series of processing is completed. To do.

ここで、上記ステップS6〜ステップS13の処理についてより具体例に説明する。
図6に示すように水平に照射したレーザ測距装置11から得られたレーザデータに移動物が存在する場合(すなわち、図5の(C)背景差分において差分データがある場合)、データの背景差分を得た後のレーザポイントをクラスタリングし(S6)、クラスタに含まれるポイントの重心座標を求める。ここで、時刻t1のクラスタの重心座標をg1とし、その座標を時刻t1における歩行者の位置とする。
Here, the process of step S6 to step S13 will be described more specifically.
As shown in FIG. 6, when a moving object exists in the laser data obtained from the laser distance measuring device 11 irradiated horizontally (that is, when there is difference data in (C) background difference in FIG. 5), the background of the data The laser points after obtaining the difference are clustered (S6), and the barycentric coordinates of the points included in the cluster are obtained. Here, the center-of-gravity coordinate of the cluster at time t1 is g1, and the coordinate is the position of the pedestrian at time t1.

次に、時刻t2においても同様にクラスタリングを行ってクラスタの重心座標g2を求め、時刻t1における歩行者の位置g1から一定の範囲内に存在する歩行者を同一人物と判断し(S9)、t1,t2時刻間の重心座標の差から移動ベクトルv1を求める(S10)。   Next, clustering is similarly performed at time t2 to obtain the center-of-gravity coordinates g2 of the cluster, and pedestrians existing within a certain range from the position g1 of the pedestrian at time t1 are determined as the same person (S9), t1 , t2 is obtained from the difference in barycentric coordinates between times t2 (S10).

次に、図7に示すように時刻t2におけるレーザ測距装置12から得られたデータにおいて、上記の処理で計算した歩行者の重心座標g2から閾値以内に存在するレーザレーザポイントをクラスタリングする(S12)。さらに、重心座標g2を原点(0、 0、 0)としたローカル座標系Lを定義し、ステップS12でクラスタリングした座標列を、移動ベクトルv1をy軸の正の向きに回転し、このローカル座標系Lに投影して変換する(S13)。   Next, as shown in FIG. 7, in the data obtained from the laser distance measuring device 12 at time t2, the laser laser points existing within the threshold from the centroid coordinates g2 of the pedestrian calculated by the above processing are clustered (S12). ). Further, a local coordinate system L is defined with the center of gravity coordinate g2 as the origin (0, 0, 0), the coordinate vector clustered in step S12 is rotated in the positive direction of the y-axis, and the local coordinate system L1 is rotated. Projection is performed on the system L for conversion (S13).

また、次の時刻t3においても、同様にレーザ測距装置11から物体の重心座標g3および移動ベクトルv2を求めることによって、重心座標g3を中心としたローカル座標系Lを更新する。上述と同様に、時刻t3におけるレーザ測距装置12から得られたレーザデータを、式(3)を用いてローカル座標系Lに投影して変換する。
このように、ローカル座標系Lに投影した歩行者の表面形状データを、3次元座標管理DB800に物体IDごとに逐次記憶する。
Also at the next time t3, the local coordinate system L centered on the center-of-gravity coordinate g3 is updated by similarly obtaining the center-of-gravity coordinate g3 and the movement vector v2 of the object from the laser distance measuring device 11. Similarly to the above, the laser data obtained from the laser distance measuring device 12 at time t3 is projected and converted to the local coordinate system L using Expression (3).
As described above, the surface shape data of the pedestrian projected onto the local coordinate system L is sequentially stored in the three-dimensional coordinate management DB 800 for each object ID.

次に、図15を参照して、本システムにおける物体の形状の表示処理(S4003)について説明する。以下の処理は、PC3のCPU31でプログラムを実行することで行われる。
移動物の測定が終了した後、PC11の入力装置34を操作して表示装置33に物体形状表示の初期画面を表示する(S1501)。この画面は、図16に示すように(図16は検索結果を示す画面であるが)、「検索区間」の入力欄1601を備える。操作者はこの入力欄1601に、検索すべき時刻の範囲を入力して検索ボタンを押す。
Next, an object shape display process (S4003) in the present system will be described with reference to FIG. The following processing is performed by executing a program with the CPU 31 of the PC 3.
After the measurement of the moving object is completed, the input device 34 of the PC 11 is operated to display the initial screen for displaying the object shape on the display device 33 (S1501). As shown in FIG. 16 (FIG. 16 is a screen showing a search result), this screen includes an input field 1601 for “search section”. The operator inputs a time range to be searched for in this input field 1601 and presses the search button.

CPU31は、検索ボタンの押下により検索操作が行われたと判断すると(S1502)、検索区間のデータを受け付ける。検索区間のデータが受け付けられると、CPU31はそのデータが正しいかを判断する(S1503)。この判定は、入力値の書式が正しいか否かをチェックすることである。その判定の結果が正しい場合、物体ID管理DB900を検索して、指定された検索区間に測定領域に進入した物体の物体ID、進入時刻、退出時刻、3次元座標データのアドレスを得る(S1504)。そして、表示装置33の画面に、検索結果の物体IDと、物体IDの測定領域への進入時刻、退出時刻を表示する(S1505)。   When the CPU 31 determines that a search operation has been performed by pressing the search button (S1502), the CPU 31 accepts data in the search section. When the data of the search section is accepted, the CPU 31 determines whether the data is correct (S1503). This determination is to check whether the format of the input value is correct. If the determination result is correct, the object ID management DB 900 is searched to obtain the object ID, the entry time, the exit time, and the address of the three-dimensional coordinate data of the object that has entered the measurement area in the designated search section (S1504). . Then, the object ID of the search result and the entry time and exit time of the object ID into the measurement area are displayed on the screen of the display device 33 (S1505).

図16に示すように、例えば検索区間1601として、2006/04/12、13時02分00秒〜13時05分00秒の区間が指定されて物体ID管理DB900(図9)を検索した結果、3つの物体ID(00003、00004、00005)がヒットして、その検索結果1602が表示される。
ここで、検索区間において何の物体も測定領域に進入しておらず、物体IDがヒットしない場合は、再度、初期画面に戻り「検索区間」の入力と検索ボタンの押下を待機することになる(S1506)。
As shown in FIG. 16, for example, as a search section 1601, a result of searching the object ID management DB 900 (FIG. 9) in which a section between 2006/04/12, 13:02:00 to 13:05:00 is designated. Three object IDs (00003, 00004, 00005) are hit, and the search result 1602 is displayed.
Here, if no object has entered the measurement area in the search section and the object ID does not hit, the process returns to the initial screen and waits for the input of the “search section” and the pressing of the search button. (S1506).

一方、1つ以上の物体IDがヒットした場合は、操作者は検索結果1602よりカーソル1603を移動させて、目的の物体IDを選択する。CPU31は、ある物体ID(‘00005’)が選択されたことを検知すると(S1507)、その物体IDに関連するアドレスで3次元座標管理DB800をアクセスして、対応する3次元座標データを読み込む(S1508)。図17に、読み込まれた3次元座標データの例を示す。
CPU31は、3次元座標データを読み込むと、そのデータを基に3次元の散布図を作成して、物体(人)の形状を示す画面を表示する(S1509)。図17に、その表示例を示す。
On the other hand, when one or more object IDs are hit, the operator moves the cursor 1603 from the search result 1602 and selects a target object ID. When the CPU 31 detects that an object ID ('00005') has been selected (S1507), it accesses the 3D coordinate management DB 800 with an address associated with the object ID and reads the corresponding 3D coordinate data ( S1508). FIG. 17 shows an example of the read three-dimensional coordinate data.
When reading the three-dimensional coordinate data, the CPU 31 creates a three-dimensional scatter diagram based on the data and displays a screen showing the shape of the object (person) (S1509). FIG. 17 shows a display example.

3次元座標データを用いて物体の形状を示す画面を作成する処理は、既存のプログラムを用いることで実現できる(S1509)。
図18は物体形状の表示例を示す。画面には、表示している物体の物体ID、測定領域への進入時刻、退出時刻といった物体の情報表示1801、及び3次元の物体の表示1802が含まれる。また、画面上には、物体の表示を中止し初期画面に戻り検索をやり直す「再検索ボタン」1803、システムを終了させる「終了ボタン」1804が用意されている。
The process of creating a screen showing the shape of the object using the three-dimensional coordinate data can be realized by using an existing program (S1509).
FIG. 18 shows a display example of the object shape. The screen includes an object information display 1801 such as an object ID of the displayed object, an entry time to the measurement region, and an exit time, and a three-dimensional object display 1802. On the screen, there are prepared a “re-search button” 1803 for stopping the display of the object, returning to the initial screen and redoing the search, and an “end button” 1804 for terminating the system.

ここで、物体形状の表示処理(ステップS1509〜1513)に関しては、種々変形して表示することができる。この物体形状の表示は、図18に示すように、3次元処理されたものであるが、利用者が入力装置34を操作することで、3次元図形を適宜、回転(S1510、S1511)、拡大や縮小(S1512、S1513)することができ、表示の視点を変更することが可能である。例えば、図19は、図18の表示を「左90度回転」した場合の表示例であり、この視点において、物体の左側の形状を表示することができる。   Here, the object shape display processing (steps S1509 to 1513) can be displayed with various modifications. This object shape display is three-dimensionally processed as shown in FIG. 18, but when the user operates the input device 34, the three-dimensional figure is appropriately rotated (S 1510, S 1511) and enlarged. Or can be reduced (S1512, S1513), and the display viewpoint can be changed. For example, FIG. 19 is a display example when the display of FIG. 18 is “rotated 90 degrees left”, and the shape of the left side of the object can be displayed at this viewpoint.

このように、ある時間に測定領域内に入場した物体を検索して表示すること、及び表示形状の回転や、拡大、縮小をすることにより、物体の形状を分析することができる。また、「再検索ボタン」1803を操作することで物体の表示を中止し、初期画面に戻って検索をやり直すことや(1514)、「終了ボタン」1804を操作することでシステムを終了させることもできる(1515)。   Thus, the shape of the object can be analyzed by searching and displaying the object that entered the measurement area at a certain time, and rotating, enlarging, or reducing the display shape. Further, the display of the object is stopped by operating the “re-search button” 1803, the search can be performed again by returning to the initial screen (1514), or the system can be ended by operating the “end button” 1804. Yes (1515).

次に、図12及び図13を参照して、他の例について説明する。
図12は、図1におけるレーザ測距装置12を地面に設置し、測定面を斜め上方に向けて測定を行う構成である。このように設置することで、レーザ測距装置12を高所に設置する必要が無くなり、設置作業やメンテナンスが容易となる。
また、図13のように、更にレーザ測距装置13を別の位置に配置して、3台以上のレーザ測距装置13を用いて測距することで、多くの物体の3次元情報及び位置情報を得ることができる。レーザ測距装置13を追加することにより、歩行者がレーザ測距装置12に対して正面へ移動する場合、歩行者の前面だけでなく、レーザ測距装置13によって歩行者の後面の形状も得ることができる。
Next, another example will be described with reference to FIGS.
FIG. 12 shows a configuration in which the laser distance measuring device 12 in FIG. 1 is installed on the ground and the measurement surface is directed obliquely upward. By installing in this way, it is not necessary to install the laser distance measuring device 12 at a high place, and installation work and maintenance become easy.
Further, as shown in FIG. 13, the three-dimensional information and positions of many objects can be obtained by arranging the laser distance measuring device 13 at another position and measuring the distance using three or more laser distance measuring devices 13. Information can be obtained. By adding the laser distance measuring device 13, when the pedestrian moves to the front with respect to the laser distance measuring device 12, not only the front surface of the pedestrian but also the shape of the rear surface of the pedestrian is obtained by the laser distance measuring device 13. be able to.

以上、本発明の好ましい実施例について説明したが、本発明は上記した実施例に限定されず、種々変形して実施し得る。
例えば、上記の例は、人の3次元形状を取得するものであるが、他の例によれば、測定対象の移動物として人物に限定されず、車両や動物といった任意の物体に対する測距が可能である。また、測定領域に複数の物体が存在する場合でも、同時に個々の物体の3次元形状を測距することが可能である。
As mentioned above, although the preferable Example of this invention was described, this invention is not limited to an above-described Example, It can implement in various deformation | transformation.
For example, in the above example, a three-dimensional shape of a person is acquired. However, according to another example, the moving object to be measured is not limited to a person, and distance measurement for an arbitrary object such as a vehicle or an animal is possible. Is possible. Further, even when there are a plurality of objects in the measurement region, it is possible to measure the three-dimensional shape of each object at the same time.

また、図8〜図10に示したDBの構成は一例であり、これに限定されない。また、上記実施例において使用された用語は一例であり、上記表現に限定されない。例えば、PCは、要するに計算機あるいは計算手段であれば良い。DBは表現上、テーブルあるいは記憶領域、記憶手段と言っても良い。また、上記の実施例では、説明上、3つのDB800〜100を有しているが、物体IDによって関連付けられている限りにおいてこれらは2つに纏めてもよいし、或いは4つ以上のDBに分割して構成するようにしもよい。
また、移動物の表示処理はPC3による処理に限らず、他のサーバやPCで行ってもよい。この場合、それらの装置から関連するDB800、900がアクセスできることは勿論である。
また、この表示処理はいつの時点で行ってもよい。例えば、1日のイベントが終了した後、夜間に行ってもよい。
Moreover, the structure of DB shown in FIGS. 8-10 is an example, and is not limited to this. Further, the terminology used in the above embodiments is an example and is not limited to the above expression. For example, the PC may be a computer or a calculation means in short. The DB may be referred to as a table, a storage area, or storage means in terms of expression. In the above embodiment, for the sake of explanation, the three DBs 800 to 100 are provided. However, as long as they are related by the object ID, these may be combined into two, or may be combined into four or more DBs. You may make it comprise and divide | segment.
In addition, the moving object display process is not limited to the process performed by the PC 3, and may be performed by another server or PC. In this case, of course, the related DBs 800 and 900 can be accessed from these devices.
Further, this display process may be performed at any time. For example, the event may be performed at night after the event of the day ends.

以上のように、本実施例によれば、対象物に対してレーザを斜めに照射するので、物体の移動に伴い、斜めに照射したレーザ光が物体の側面の様々な高さに射たる。このため、3次元スキャン方式のようにレーザ照射方向を複雑に移動させる必要がなく、装置内部の稼動部が単純で壊れにくい。そのため、1回のスキャンに要する時間が短く、高速に物体の3次元形状を取得できる。   As described above, according to the present embodiment, the target is irradiated with the laser at an angle, so that the laser beam irradiated at an angle is irradiated at various heights on the side surface of the object as the object moves. For this reason, it is not necessary to move the laser irradiation direction in a complicated manner as in the three-dimensional scanning method, and the operation part inside the apparatus is simple and hardly broken. Therefore, the time required for one scan is short, and the three-dimensional shape of the object can be acquired at high speed.

さらに、斜めにレーザを照射することで、人物のように垂直方向に細長い物体に対して全身の形状を取得することができる。また、水平照射により物体の位置および速度を計算し、それらの情報を基に斜め照射により得られた物体側面の形状を適切に座標変換することによって、速度や移動方向に依存しない正確な3次元形状を取得する。
このシステムは少なくとも2台のレーザ測距装置により計測が可能なので、小規模で単純かつ安価にシステムを構築できる。また、レーザの照射角度や設置する位置を変更するだけで物体サイズに対して柔軟に対応可能である。
Furthermore, by irradiating the laser obliquely, the shape of the whole body can be acquired for an object that is elongated in the vertical direction like a person. In addition, by calculating the position and speed of the object by horizontal irradiation and appropriately transforming the shape of the side surface of the object obtained by oblique irradiation based on the information, accurate three-dimensional independent of speed and moving direction. Get the shape.
Since this system can be measured by at least two laser distance measuring devices, the system can be constructed in a small scale, simply and inexpensively. In addition, it is possible to flexibly cope with the object size simply by changing the laser irradiation angle or the installation position.

また、物体の3次元形状より簡便かつ高速に情報から物体の幅や高さ等の情報も得ることができるようになる。これにより、形状にこれら情報を加えた応用アプリケーションが考えられる。例えば、形状や速度から人物の年齢や性別を推測することも可能となる。   Also, information such as the width and height of the object can be obtained from the information more easily and at a higher speed than the three-dimensional shape of the object. Thus, an application application in which such information is added to the shape can be considered. For example, the age and sex of a person can be estimated from the shape and speed.

一実施例における移動物測定システムの構成例を示す図、The figure which shows the structural example of the moving object measurement system in one Example, 測定領域内を移動する歩行者から得られるデータの概要を示す図、A diagram showing an overview of data obtained from a pedestrian moving in the measurement area, 歩行者が測定領域を移動する際にレーザ測距装置から時系列で得られる3次元形状データの様子を概念的に示す図、The figure which shows notionally the mode of the three-dimensional shape data obtained in a time series from a laser range finder when a pedestrian moves a measurement area, 移動物測定システムにおける3次元形状データを取得するための処理動作を示すフローチャート図、The flowchart figure which shows the processing operation for acquiring the three-dimensional shape data in a moving object measurement system, 測定領域における距離データ及び背景データの関係を示す概念図、Conceptual diagram showing the relationship between distance data and background data in the measurement region, レーザ測距装置11から得られたデータからローカル座標系に変換する処理を示す図、The figure which shows the process which converts into the local coordinate system from the data obtained from the laser distance measuring device 11. レーザ測距装置12から得られたデータからローカル座標系に変換する処理を示す図、The figure which shows the process which converts into the local coordinate system from the data obtained from the laser distance measuring device 12. 3次元座標管理DB800の記憶フォーマットを示す図、The figure which shows the storage format of three-dimensional coordinate management DB800, 物体ID管理DB900の記憶フォーマットを示す図、The figure which shows the storage format of object ID management DB900, 物体位置DB100の記憶フォーマットを示す図、The figure which shows the storage format of object position DB100, 測定領域におけるレーザ測距装置11と歩行者の足元の様子を示す概念図、The conceptual diagram which shows the mode of the laser ranging device 11 and the step of a pedestrian in the measurement area | region, 図1におけるレーザ測距装置の配置の変形例を示す図、The figure which shows the modification of arrangement | positioning of the laser ranging apparatus in FIG. 図1におけるレーザ測距装置の配置の変形例を示す図、The figure which shows the modification of arrangement | positioning of the laser ranging apparatus in FIG. 移動物測定システムにおける全体の処理動作を示すフローチャート図、The flowchart figure which shows the whole processing operation in a moving object measurement system, 移動物測定システムにおける移動物の表示処理動作を示すフローチャート図、The flowchart figure which shows the display processing operation | movement of the moving object in a moving object measurement system, 物体ID管理DB900の検索結果の表示例を示す図、The figure which shows the example of a display of the search result of object ID management DB900, 3次元座標管理DB800内のデータ構成例を示す図、The figure which shows the data structural example in 3D coordinate management DB800, 3次元処理された物体形状の表示例を示す図、The figure which shows the example of a display of the object shape processed three-dimensionally, 表示物体を左90度回転した場合の表示例を示す図。The figure which shows the example of a display at the time of rotating a display object 90 degree | times left.

符号の説明Explanation of symbols

X:測定領域 1、11、12:レーザ測距装置 3:PC 31:CPU 32:DB 33:表示装置 34:入力装置 800:3次元座標管理DB 900:物体ID管理DB 100:物体位置DB X: Measurement area 1, 11, 12: Laser distance measuring device 3: PC 31: CPU 32: DB 33: Display device 34: Input device 800: Three-dimensional coordinate management DB 900: Object ID management DB 100: Object position DB

Claims (6)

レーザ測距装置を用いて領域内に移動する物体を測定する物体測定システムであって、
測定対象の該領域にレーザ照射し、該領域内に居る物体との距離に関する測距データを得るレーザ測距装置と、
該レーザ測距装置から得られた該測距データに関するデータ処理を行う処理装置と、
関連する情報を記憶する記憶手段を有し、
該記憶手段は、該物体の重心座標データを該物体に固有の識別情報に対応して記憶する物体位置DBと、
該物体の3次元形状を把握するために、求められた物体の3次元座標データを、該物体の識別情報に対応して記憶する3次元座標管理DBを有し、
該処理装置は、該レーザ測距装置より連続的に得られる該測距データから、レーザ照射による物体の位置及び形状を示すポイントデータごとの、該レーザ測距装置を原点として定義される共通座標系における3次元座標データを求め、
さらに、ここから得られた物体のポイントデータごとの、共通座標系における3次元座標データの該物体の位置を示すデータから、レーザポイント群のうち一定距離以内に存在し同一物体とみなされるポイントをクラスタにする処理を行う第1の処理手段と、
該クラスタ処理を行った後の1つのクラスタに含まれる複数のポイントの重心座標を求めながらクラスタを1つにマッピングしてこれを該物体の位置とし、全てのクラスタの該重心座標を求めた後、該重心座標が一定距離内にあるクラスタに対しては該物体と同じ識別情報を付与し、該重心座標が一定距離内にないクラスタに対しては該物体に新たな識別情報を付与する第2の処理手段と、
前記第1の処理手段によって求められた物体の前記共通座標系における前記3次元座標データから、該第2の処理手段によって求められた物体の該重心座標を原点として定義されるローカル座標系において、該物体の移動方向を3次元の所定の軸を中心に回転した座標に変換することにより該物体の形状のデータを示す3次元座標データを求める第3の処理手段とを有し、
該物体位置DBが、前記第2の処理手段によって求められた該重心座標について、同じ該識別情報については該重心座標を更新し、新たに付与された該識別情報については求められた該重心座標を該新たな識別情報に対応して記憶し、
該3次元座標管理DBは、前記第3の処理手段によって求められた該物体の該3次元座標データを、該物体の識別情報に対応して記憶し、
該物体位置DBを検索して、指定された該物体の識別情報に対応する該重心座標データを得て、更に該3次元座標管理DBを検索して、該物体の該識別情報に対応する該3次元座標データを得て、該重心座標データが示す位置における、該3次元座標データによって示される該物体の形状データを把握して物体を測定する
ことを特徴とする物体測定システム。
An object measurement system for measuring an object moving in an area using a laser range finder,
A laser range finder that irradiates the area to be measured with laser and obtains distance measurement data related to the distance from the object in the area;
A processing device for performing data processing on the ranging data obtained from the laser ranging device;
Having storage means for storing relevant information;
The storage means stores an object position DB that stores barycentric coordinate data of the object corresponding to identification information unique to the object;
In order to grasp the three-dimensional shape of the object, it has a three-dimensional coordinate management DB for storing the obtained three-dimensional coordinate data of the object corresponding to the identification information of the object,
The processing device has common coordinates defined with the laser distance measuring device as an origin for each point data indicating the position and shape of the object by laser irradiation from the distance measurement data continuously obtained from the laser distance measuring device. Find 3D coordinate data in the system,
Further, from the data indicating the position of the object in the three-dimensional coordinate data in the common coordinate system for each point data of the object obtained from this point, points that are present within a certain distance and regarded as the same object in the laser point group First processing means for performing processing to form a cluster;
After obtaining the barycentric coordinates of a plurality of points included in one cluster after performing the cluster processing and mapping the cluster to one as a position of the object, and obtaining the barycentric coordinates of all the clusters The same identification information as that of the object is given to the cluster whose centroid coordinates are within a certain distance, and new identification information is given to the object for the cluster whose centroid coordinates are not within a certain distance. Two processing means;
From the three-dimensional coordinate data in the common coordinate system of the object determined by the first processing means, in the local coordinate system defined with the barycentric coordinates of the object determined by the second processing means as the origin, Third processing means for obtaining three-dimensional coordinate data indicating the shape data of the object by converting the moving direction of the object into coordinates rotated around a predetermined three-dimensional axis;
The object position DB updates the barycentric coordinates for the same identification information with respect to the barycentric coordinates obtained by the second processing means, and the obtained barycentric coordinates for the newly given identification information. Corresponding to the new identification information,
The three-dimensional coordinate management DB stores the three-dimensional coordinate data of the object obtained by the third processing unit corresponding to the identification information of the object,
The object position DB is searched to obtain the barycentric coordinate data corresponding to the specified identification information of the object, and the three-dimensional coordinate management DB is further searched to correspond to the identification information of the object. An object measurement system characterized in that three-dimensional coordinate data is obtained and an object is measured by grasping shape data of the object indicated by the three-dimensional coordinate data at a position indicated by the barycentric coordinate data.
前記記憶手段は、前記第2の処理手段によって付与された該物体の識別情報に対応して、該物体を測定した時刻と、前記物体位置DBに記憶された物体の重心座標データをアクセスすることができるアドレスとを記憶する物体ID管理DBを更に有する、
ことを特徴とする請求項1の物体測定システム。
The storage means accesses the time when the object is measured and the barycentric coordinate data of the object stored in the object position DB, corresponding to the identification information of the object given by the second processing means. And an object ID management DB for storing addresses capable of
The object measurement system according to claim 1 .
前記第1の処理手段は、該測距データから、式(2)の式を用いて共通座標系における物体の3次元座標データを算出し、
前記第3の処理手段は、式(3)を用いて該物体の該重心座標データを算出することを特徴する請求項1又は2記載の物体測定システム。

式(2)
Figure 0005187878

式(3)
Figure 0005187878
The first processing means calculates the three-dimensional coordinate data of the object in the common coordinate system from the distance measurement data using the equation (2),
The object measurement system according to claim 1 or 2, wherein the third processing means calculates the barycentric coordinate data of the object using the equation (3).

Formula (2)
Figure 0005187878

Formula (3)
Figure 0005187878
測定対象の該領域にレーザ照射して領域内に居る物体との距離に関する測距データを得るレーザ測距装置と、該レーザ測距装置から得られた該測距データに関するデータ処理を行う処理装置と、関連する情報を記憶する記憶手段を有する物体測定システムにおける物体情報処理方法であって、
測定対象の該領域にレーザ照射し、該領域内に居る物体に関する位置情報に関する測距データを得るステップと、
該レーザ測距装置より連続的に得られる該測距データから、レーザ照射による物体の位置及び形状を示すポイントデータごとの、該レーザ測距装置を原点として定義される共通座標系における3次元座標データを求め、
さらに、ここから得られた物体のポイントデータごとの、共通座標系における3次元座標データの該物体の位置を示すデータから、レーザポイント群のうち一定距離以内に存在し同一物体とみなされるポイントをクラスタにする処理を行う第1の処理ステップと、
該クラスタ処理を行った後の1つのクラスタに含まれる複数のポイントの重心座標を求めながらクラスタを1つにマッピングしてこれを該物体の位置とし、全てのクラスタの該重心座標を求めた後、該重心座標が一定距離内にあるクラスタに対しては該物体と同じ識別情報を付与し、該重心座標が一定距離内にないクラスタに対しては該物体に新たな識別情報を付与する第2の処理ステップと、
前記第1の処理ステップによって求められた物体の前記共通座標系における前記3次元座標データから、該第2の処理ステップによって求められた物体の該重心座標を原点として定義されるローカル座標系において、該物体の移動方向を3次元の所定の軸を中心に回転した座標に変換することにより該物体の形状のデータを示す3次元座標データを求める第3の処理ステップと、
該第2の処理ステップによって求められた該重心座標について、物体位置DBの同じ該識別情報については該重心座標を更新し、新たに付与された該識別情報については求められた該重心座標を該新たな識別情報に対応して該物体位置DBに記憶するステップと、
該第3の処理ステップによって求められた該物体の該3次元座標データを、該物体の識別情報に対応して3次元座標管理DBに記憶するステップと、
該物体位置DBを検索して、指定された該物体の識別情報に対応する該重心座標データを得て、更に該3次元座標管理DBを検索して、該物体の該識別情報に対応する該3次元座標データを得て、得られた該重心座標データが示す位置における、該3次元座標データによって示される該物体の形状データを把握して物体を測定するステップと
を有することを特徴とする物体情報処理方法。
A laser distance measuring device that obtains distance measurement data related to a distance from an object in the region by irradiating the region to be measured, and a processing device that performs data processing on the distance measurement data obtained from the laser distance measuring device And an object information processing method in an object measurement system having storage means for storing related information,
Irradiating the area to be measured with a laser to obtain distance measurement data relating to position information about an object in the area;
Three-dimensional coordinates in a common coordinate system defined with the laser distance measuring device as the origin for each point data indicating the position and shape of the object by laser irradiation from the distance measurement data continuously obtained from the laser distance measuring device Seeking data,
Further, from the data indicating the position of the object in the three-dimensional coordinate data in the common coordinate system for each point data of the object obtained from this point, points that are present within a certain distance within the laser point group and are regarded as the same object are obtained. A first processing step for performing a clustering process;
After obtaining the barycentric coordinates of a plurality of points included in one cluster after performing the cluster processing and mapping the cluster to one as a position of the object, and obtaining the barycentric coordinates of all the clusters The same identification information as that of the object is given to the cluster whose centroid coordinates are within a certain distance, and new identification information is given to the object for the cluster whose centroid coordinates are not within a certain distance. Two processing steps;
From the three-dimensional coordinate data in the common coordinate system of the object obtained by the first processing step, in a local coordinate system defined using the barycentric coordinates of the object obtained by the second processing step as an origin, A third processing step of obtaining three-dimensional coordinate data indicating shape data of the object by converting the moving direction of the object into coordinates rotated around a predetermined three-dimensional axis;
With respect to the barycentric coordinates obtained by the second processing step, the barycentric coordinates are updated for the same identification information of the object position DB, and the obtained barycentric coordinates are used for the newly assigned identification information. Storing in the object position DB corresponding to new identification information;
Storing the three-dimensional coordinate data of the object obtained by the third processing step in a three-dimensional coordinate management DB corresponding to the identification information of the object;
The object position DB is searched to obtain the barycentric coordinate data corresponding to the specified identification information of the object, and the three-dimensional coordinate management DB is further searched to correspond to the identification information of the object. Obtaining three-dimensional coordinate data, grasping shape data of the object indicated by the three-dimensional coordinate data at a position indicated by the obtained barycentric coordinate data, and measuring the object. Object information processing method.
更に、入力装置の操作によって該物体の識別情報を指定して、指定された該物体の識別情報に対応する該重心座標データを得て、更に該3次元座標管理DBを検索して、該物体の該識別情報に対応する該3次元座標データを得て、得られた該重心座標データが示す位置における、該3次元座標データによって示される該物体の形状データを用いて描画処理して表示装置に表示することを特徴とする請求項4の物体情報処理方法。 Furthermore, the identification information of the object is designated by operating the input device, the barycentric coordinate data corresponding to the identification information of the designated object is obtained, and the three-dimensional coordinate management DB is further searched to obtain the object The three-dimensional coordinate data corresponding to the identification information is obtained, and the display device performs drawing processing using the shape data of the object indicated by the three-dimensional coordinate data at the position indicated by the obtained barycentric coordinate data The object information processing method according to claim 4, wherein the object information processing method is displayed. レーザ測距装置を用いて領域内に移動する物体を測定して得られる物体の情報を処理するための計算機上で実行されるプログラムであって、
測定対象の該領域にレーザ照射し、該領域内に居る物体に関する位置情報に関する測距データを得るステップと、
該レーザ測距装置より連続的に得られる該測距データから、レーザ照射による物体の位置及び形状を示すポイントデータごとの、該レーザ測距装置を原点として定義される共通座標系における3次元座標データを求め、
さらに、ここから得られた物体のポイントデータごとの、共通座標系における3次元座標データの該物体の位置を示すデータから、レーザポイント群のうち一定距離以内に存在し同一物体とみなされるポイントをクラスタにする処理を行う第1の処理ステップと、
該クラスタ処理を行った後の1つのクラスタに含まれる複数のポイントの重心座標を求めながらクラスタを1つにマッピングしてこれを該物体の位置とし、全てのクラスタの該重心座標を求めた後、該重心座標が一定距離内にあるクラスタに対しては該物体と同じ識別情報を付与し、該重心座標が一定距離内にないクラスタに対しては該物体に新たな識別情報を付与する第2の処理ステップと、
前記第1の処理ステップによって求められた物体の前記共通座標系における前記3次元座標データから、該第2の処理ステップによって求められた物体の該重心座標を原点として定義されるローカル座標系において、該物体の移動方向を3次元の所定の軸を中心に回転した座標に変換することにより該物体の形状のデータを示す3次元座標データを求める第3の処理ステップと、
該第2の処理ステップによって求められた該重心座標について、物体位置DBの同じ該識別情報については該重心座標を更新し、新たに付与された該識別情報については求められた該重心座標を該新たな識別情報に対応して該物体位置DBに記憶するステップと、
該第3の処理ステップによって求められた該物体の該3次元座標データを、該物体の識別情報に対応して3次元座標管理DBに記憶するステップと、
該物体位置DBを検索して、指定された該物体の識別情報に対応する該重心座標データを得て、更に該3次元座標管理DBを検索して、該物体の該識別情報に対応する該3次元座標データを得て、得られた該重心座標データが示す位置における、該3次元座標データによって示される該物体の形状データを把握して物体を測定するステップと
を計算機上で実行することを特徴とするプログラム。
A program executed on a computer for processing information on an object obtained by measuring an object moving within an area using a laser distance measuring device,
Irradiating the area to be measured with a laser to obtain distance measurement data relating to position information about an object in the area;
Three-dimensional coordinates in a common coordinate system defined with the laser distance measuring device as the origin for each point data indicating the position and shape of the object by laser irradiation from the distance measurement data continuously obtained from the laser distance measuring device Seeking data,
Further, from the data indicating the position of the object in the three-dimensional coordinate data in the common coordinate system for each point data of the object obtained from this point, points that are present within a certain distance within the laser point group and are regarded as the same object are obtained. A first processing step for performing a clustering process;
After obtaining the barycentric coordinates of a plurality of points included in one cluster after performing the cluster processing and mapping the cluster to one as a position of the object, and obtaining the barycentric coordinates of all the clusters The same identification information as that of the object is given to the cluster whose centroid coordinates are within a certain distance, and new identification information is given to the object for the cluster whose centroid coordinates are not within a certain distance. Two processing steps;
From the three-dimensional coordinate data in the common coordinate system of the object obtained by the first processing step, in a local coordinate system defined using the barycentric coordinates of the object obtained by the second processing step as an origin, A third processing step of obtaining three-dimensional coordinate data indicating shape data of the object by converting the moving direction of the object into coordinates rotated around a predetermined three-dimensional axis;
With respect to the barycentric coordinates obtained by the second processing step, the barycentric coordinates are updated for the same identification information of the object position DB, and the obtained barycentric coordinates are used for the newly assigned identification information. Storing in the object position DB corresponding to new identification information;
Storing the three-dimensional coordinate data of the object obtained by the third processing step in a three-dimensional coordinate management DB corresponding to the identification information of the object;
The object position DB is searched to obtain the barycentric coordinate data corresponding to the specified identification information of the object, and the three-dimensional coordinate management DB is further searched to correspond to the identification information of the object. Obtaining three-dimensional coordinate data, grasping the shape data of the object indicated by the three-dimensional coordinate data at the position indicated by the obtained barycentric coordinate data, and measuring the object on the computer A program characterized by
JP2007021338A 2007-01-31 2007-01-31 Object measurement system Active JP5187878B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007021338A JP5187878B2 (en) 2007-01-31 2007-01-31 Object measurement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007021338A JP5187878B2 (en) 2007-01-31 2007-01-31 Object measurement system

Publications (2)

Publication Number Publication Date
JP2008186375A JP2008186375A (en) 2008-08-14
JP5187878B2 true JP5187878B2 (en) 2013-04-24

Family

ID=39729348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007021338A Active JP5187878B2 (en) 2007-01-31 2007-01-31 Object measurement system

Country Status (1)

Country Link
JP (1) JP5187878B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9296393B2 (en) 2013-10-08 2016-03-29 Hyundai Motor Company Apparatus and method for recognizing vehicle

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5278721B2 (en) * 2007-04-27 2013-09-04 国立大学法人 東京大学 Laser measurement system and method
JP5076070B2 (en) * 2007-10-26 2012-11-21 オプテックス株式会社 Object detection device, object detection method, and object detection program
JP2011081634A (en) * 2009-10-07 2011-04-21 Sogo Keibi Hosho Co Ltd Device and method for estimating human body direction
JP5462597B2 (en) * 2009-11-12 2014-04-02 株式会社日立情報通信エンジニアリング Object measurement system and method
JP5728815B2 (en) * 2010-03-18 2015-06-03 株式会社豊田中央研究所 Object detection device
JP2011226880A (en) * 2010-04-19 2011-11-10 Advanced Telecommunication Research Institute International Measuring device, measuring method and measuring program
JP5953484B2 (en) * 2011-03-30 2016-07-20 株式会社国際電気通信基礎技術研究所 Measuring device, measuring method and measuring program
JP5801610B2 (en) * 2011-06-06 2015-10-28 株式会社日立情報通信エンジニアリング Traffic flow measurement system
JP5872071B2 (en) * 2012-01-20 2016-03-01 シック アイヴィピー エービー Method and apparatus enabling calculation of collision time, computer program, computer recording medium, and computer
KR102460225B1 (en) * 2016-01-29 2022-10-31 각코호진 메이지다이가쿠 The laser scan system, the laser scan method, and the movement laser scan system and program
JP7257752B2 (en) 2018-07-31 2023-04-14 清水建設株式会社 Position detection system
CN113554894A (en) * 2021-08-02 2021-10-26 合肥市春华起重机械有限公司 Intelligent vertical lifting parking system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244714A (en) * 1994-03-03 1995-09-19 Omron Corp Object detection device
JP4006577B2 (en) * 2002-03-13 2007-11-14 オムロン株式会社 Monitoring device
JP3638569B2 (en) * 2002-05-15 2005-04-13 川崎重工業株式会社 3D measuring device
JP4445763B2 (en) * 2004-01-30 2010-04-07 セコム株式会社 Image generating apparatus and intruder monitoring apparatus
KR100790860B1 (en) * 2004-12-14 2008-01-03 삼성전자주식회사 Human tracking apparatus and method thereof, and recording media and removing electronic system therefor
JP4069926B2 (en) * 2005-01-11 2008-04-02 株式会社Ihi Object detection device
JP4691701B2 (en) * 2005-01-26 2011-06-01 株式会社Ihi Number detection device and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9296393B2 (en) 2013-10-08 2016-03-29 Hyundai Motor Company Apparatus and method for recognizing vehicle

Also Published As

Publication number Publication date
JP2008186375A (en) 2008-08-14

Similar Documents

Publication Publication Date Title
JP5187878B2 (en) Object measurement system
Dong et al. ViNav: A vision-based indoor navigation system for smartphones
JP5950296B2 (en) Person tracking attribute estimation device, person tracking attribute estimation method, program
JP6296043B2 (en) Measuring device, measuring method and measuring program
Leung et al. The UTIAS multi-robot cooperative localization and mapping dataset
JP5337905B2 (en) Speed measurement system, speed measurement method and program
CN102834691B (en) Surveying method
TW201715476A (en) Navigation system based on augmented reality technique analyzes direction of users' moving by analyzing optical flow through the planar images captured by the image unit
TW201520577A (en) Length measuring method and length measuring apparatus
JP5278721B2 (en) Laser measurement system and method
JP2010511212A (en) Method and apparatus for identifying and locating planar objects in an image
De Amici et al. A Wii remote-based infrared-optical tracking system
JP2019101000A (en) Distance measurement point group data measurement system and control program
JP6601613B2 (en) POSITION ESTIMATION METHOD, POSITION ESTIMATION DEVICE, AND POSITION ESTIMATION PROGRAM
US20240111382A1 (en) Touch recognition method and device having lidar sensor
JP2019519786A (en) Radiation imaging device
CN109213363A (en) Predictive indicator touch location determines the system and method being directed toward in 3d space
JP2008076234A (en) Moving object measuring system
TW201211941A (en) Analyzing device for vehicle dynamic behavior and analyzing program for vehicle dynamic behavior
JP2017122690A (en) Method for correcting coordinates of human being measuring system
JP2009198382A (en) Environment map acquiring device
CN110530376A (en) Robot localization method, apparatus, robot and storage medium
CN105572154B (en) X-ray detection method and device and system
Adamczyk et al. Three-dimensional measurement system for crime scene documentation
CN115082520A (en) Positioning tracking method and device, terminal equipment and computer readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130118

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5187878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250