JP7194015B2 - Sensor system and distance measurement method - Google Patents

Sensor system and distance measurement method Download PDF

Info

Publication number
JP7194015B2
JP7194015B2 JP2018247332A JP2018247332A JP7194015B2 JP 7194015 B2 JP7194015 B2 JP 7194015B2 JP 2018247332 A JP2018247332 A JP 2018247332A JP 2018247332 A JP2018247332 A JP 2018247332A JP 7194015 B2 JP7194015 B2 JP 7194015B2
Authority
JP
Japan
Prior art keywords
sensor
sensors
trajectory
detection target
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018247332A
Other languages
Japanese (ja)
Other versions
JP2020106475A (en
Inventor
昭信 渡邊
敦 根尾
佳一 三谷
敏 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi LG Data Storage Inc
Original Assignee
Hitachi LG Data Storage Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi LG Data Storage Inc filed Critical Hitachi LG Data Storage Inc
Priority to JP2018247332A priority Critical patent/JP7194015B2/en
Publication of JP2020106475A publication Critical patent/JP2020106475A/en
Application granted granted Critical
Publication of JP7194015B2 publication Critical patent/JP7194015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数の測距センサを有するセンサシステム及びこれを用いた距離測定方法に関する。 The present invention relates to a sensor system having a plurality of ranging sensors and a distance measuring method using the same.

光の伝達時間に基づいて物体までの距離を測定し(以下、TOF法:タイム・オブ・フライト)、画素毎に距離情報を有する距離画像を取得する測距センサが知られている。例えば特許文献1に記載の距離画像カメラは、複数のカメラユニットを備え、単一の撮像部の画角よりも広い画角を有するとともに距離精度の高い距離画像を得ることを目的としている。その構成として、「距離情報置換部で求められた前記平均距離情報と前記各距離画像の各画素の2次元画素位置とに基づいて各画素の2次元位置情報を補正する2次元位置補正部と、この2次元位置補正部で補正された各画素の前記2次元位置情報と前記距離情報とを共通の3次元座標系に変換することによって前記各距離画像を合成した合成距離画像を求める距離画像合成部とを有する」ことが開示されている。 2. Description of the Related Art A distance measuring sensor is known that measures a distance to an object based on light transmission time (hereinafter referred to as TOF method: time of flight) and acquires a distance image having distance information for each pixel. For example, a distance image camera disclosed in Patent Document 1 includes a plurality of camera units, and aims to obtain a distance image having a wider angle of view than that of a single imaging unit and high distance accuracy. A two-dimensional position correction unit for correcting the two-dimensional position information of each pixel based on the average distance information obtained by the distance information replacement unit and the two-dimensional pixel position of each pixel of each distance image; a distance image for obtaining a synthesized distance image obtained by synthesizing the distance images by converting the two-dimensional position information and the distance information of each pixel corrected by the two-dimensional position correction unit into a common three-dimensional coordinate system; It is disclosed that it has a synthetic part.

特開2012-247226号公報JP 2012-247226 A

特許文献1では、各カメラユニットの距離画像を座標変換して合成する場合、「各カメラユニット10の設置時のキャリブレーションによって得られたカメラパラメータ(内部および外部)にしたがって、各距離画像の各画素のX値、Y値、Z値をカメラ座標系または世界座標系にそれぞれ座標変換することで各距離画像を合成する」と記載されている。 In Japanese Patent Laid-Open No. 2004-100000, when the distance images of each camera unit are coordinate-transformed and synthesized, "each distance image is generated according to the camera parameters (internal and external) obtained by calibration at the time of installation of each camera unit 10. Each distance image is synthesized by coordinate-transforming the X-value, Y-value, and Z-value of the pixel into the camera coordinate system or the world coordinate system."

このキャリブレーション(補正)の一般的手法として、測定空間に特定の対象物(マーカ)を配置して各カメラユニットでマーカの位置を測定し、共通の座標値となるように座標変換を行うことが知られている。しかし、現実にはマーカを適切に配置するのが困難な場合がある。すなわち、各カメラユニットでカバーする測定領域は本来異なっている(分割されている)ので、マーカは各領域に跨るように配置せねばならず、カメラユニットの設置に応じて得られる距離画像を確認しながらマーカの配置を変更する、もしくはカメラユニットの設置を調整するという煩雑な繰返し作業になる。あるいはこれを避けるため、マーカを大型化し、または特殊な形状のマーカを用いることも考えられるが、現実の測定空間には様々な障害物が存在し、マーカを所望の位置に配置できない場合もある。 As a general method for this calibration (correction), a specific object (marker) is placed in the measurement space, the position of the marker is measured by each camera unit, and coordinate conversion is performed so that common coordinate values are obtained. It has been known. However, in reality, it may be difficult to properly place the markers. That is, since the measurement area covered by each camera unit is originally different (divided), the marker must be placed across each area, and the distance image obtained according to the installation of the camera unit can be confirmed. It becomes a troublesome and repetitive work of changing the placement of the marker or adjusting the installation of the camera unit. Alternatively, in order to avoid this, it is conceivable to increase the size of the marker or use a marker with a special shape. .

以上を鑑みて、本発明の目的は、複数の測距センサを備えたセンサシステムにおいて、各測距センサの設置の調整と各測距センサのから得られる距離データの補正が容易となるセンサシステム及び距離測定方法を提供することである。 In view of the above, an object of the present invention is to provide a sensor system having a plurality of ranging sensors, which facilitates adjustment of installation of each ranging sensor and correction of distance data obtained from each ranging sensor. and to provide a distance measuring method.

上記課題を解決するため、本発明は、複数のセンサを設置し検出対象領域内の検出対象物までの距離を測定して距離画像を生成するセンサシステムにおいて、複数のセンサからの距離画像を合成するために、センサ間の座標合わせ処理を行うセンサ連携処理装置と、生成した距離画像を表示する表示装置と、を備える。センサ連携処理装置は、センサ間の座標合わせ処理を行うため、複数のセンサにより検出対象領域内を移動する移動体の軌跡データを取得し、各センサで検出した移動体の軌跡が連続または一致するように各センサの検出座標を変換する。 In order to solve the above problems, the present invention provides a sensor system in which a plurality of sensors are installed to measure the distance to a detection object within a detection target area and generate a distance image, and the distance images from the plurality of sensors are synthesized. In order to do so, a sensor cooperation processing device that performs coordinate matching processing between sensors and a display device that displays the generated distance image are provided. In order to perform coordinate matching processing between sensors, the sensor cooperation processing device acquires trajectory data of a moving object moving within a detection target area using a plurality of sensors, and the trajectory of the moving object detected by each sensor is continuous or coincides. Transform the detection coordinates of each sensor as follows.

また本発明は、複数のセンサを設置し検出対象領域内の検出対象物までの距離を測定して距離画像を生成するための距離測定方法において、複数のセンサにより検出対象領域内を移動する移動体の軌跡データを取得するステップと、各センサで検出した移動体の軌跡が連続または一致するように各センサの検出座標を変換してセンサ間の座標合わせを行うステップと、座標合わせを行った状態で複数のセンサからの距離画像を合成して表示するステップと、を備える。 The present invention also provides a distance measurement method for installing a plurality of sensors and measuring the distance to a detection target within a detection target area to generate a range image, wherein the distance measurement method moves within the detection target area using the plurality of sensors. a step of acquiring trajectory data of a body; a step of converting coordinates detected by each sensor so that the trajectory of a moving object detected by each sensor is continuous or coincident to match the coordinates of the sensors; and synthesizing and displaying range images from a plurality of sensors in the state.

本発明によれば、複数の測距センサのキャリブレーションのために作業者の移動軌跡を利用するので、キャリブレーション用の専用のマーカを配置する必要がなく、測距センサの設置の調整が容易に行える。 According to the present invention, since the movement trajectory of the worker is used for the calibration of a plurality of distance measuring sensors, there is no need to arrange dedicated markers for calibration, and the installation of the distance measuring sensors can be easily adjusted. can be done

実施例1に係るセンサシステム1の外観図。1 is an external view of a sensor system 1 according to Example 1. FIG. センサシステム1の構成を示すブロック図。2 is a block diagram showing the configuration of the sensor system 1; FIG. センサ11a,11bの内部構成を示すブロック図。FIG. 2 is a block diagram showing the internal configuration of sensors 11a and 11b; センサ連携処理装置12の内部構成を示すブロック図。FIG. 2 is a block diagram showing the internal configuration of the sensor cooperation processing device 12; キャリブレーション処理の概要を示す全体のフローチャート。4 is an overall flowchart showing an overview of calibration processing; 床面検出処理(S200)のフローチャート。Flowchart of floor surface detection processing (S200). 平面検出処理(S210)の詳細フローチャート。A detailed flowchart of a plane detection process (S210). 各ボクセル領域の平面検出処理(S215)の詳細フローチャート。4 is a detailed flowchart of plane detection processing (S215) for each voxel region; 移動体軌跡検出処理(S220)の詳細フローチャート。A detailed flowchart of a moving object trajectory detection process (S220). 平行判定処理(S230)の詳細フローチャート。A detailed flowchart of a parallel determination process (S230). 軌跡連結処理(S300)のフローチャート。Flowchart of trajectory connection processing (S300). 移動体軌跡検出処理(S330)の詳細フローチャート。A detailed flowchart of a moving object trajectory detection process (S330). 座標変換処理(S340)の詳細フローチャート。Detailed flowchart of coordinate conversion processing (S340). 1個のセンサの撮影空間の表示の仕方を示す図。The figure which shows the method of displaying the imaging|photography space of one sensor. 回転変換が不要な設置状態の撮影空間を示す図。FIG. 10 is a diagram showing a photographing space in an installation state that does not require rotation conversion; 図8Aの設置状態における作業者の軌跡を示す図。FIG. 8B is a diagram showing a trajectory of a worker in the installation state of FIG. 8A; 回転変換が必要な設置状態の撮影空間を示す図。FIG. 10 is a diagram showing a photographing space in an installation state that requires rotation conversion; 図9Aの設置状態における作業者の軌跡を示す図。FIG. 9B is a diagram showing a trajectory of a worker in the installation state of FIG. 9A; 図9Bの軌跡を座標変換により補正した後の状態を示す図。FIG. 9B is a diagram showing a state after the trajectory of FIG. 9B is corrected by coordinate transformation; 補正不可能な設置状態の例を示す図。FIG. 4 is a diagram showing an example of an installation state that cannot be corrected; センサの設置状態(角度)に不良があることを警告する画面。A screen that warns that there is a defect in the installation state (angle) of the sensor. 不良内容の情報91と補正情報92を示す画面。A screen showing information 91 on the content of defects and correction information 92 . 補正結果を示す画面。Screen showing correction results. 補正不可を示す画面。A screen indicating that correction is not possible. センサの設置状態(高さ)に不良があることを警告する画面。A screen that warns that there is a problem with the installation state (height) of the sensor. 不良内容の情報91と補正情報92を示す画面。A screen showing information 91 on the content of defects and correction information 92 . 補正結果を示す画面。Screen showing correction results. 補正不可を示す画面。A screen indicating that correction is not possible. 実施例2の床面検出処理(S400)のフローチャート。FIG. 10 is a flowchart of floor surface detection processing (S400) of the second embodiment; FIG. 平行判定処理(S420)の詳細フローチャート。A detailed flowchart of a parallel determination process (S420). 実施例3に係るセンサシステム1’の外観図。FIG. 11 is an external view of a sensor system 1' according to Example 3; センサシステム1’の構成を示すブロック図。2 is a block diagram showing the configuration of a sensor system 1'; FIG. 軌跡重畳処理(S500)のフローチャート。Flowchart of locus superimposition processing (S500). 座標変換処理(S540)の詳細フローチャート。Detailed flowchart of coordinate conversion processing (S540). 回転変換が不要な設置状態の撮影空間を示す図。FIG. 10 is a diagram showing a photographing space in an installation state that does not require rotation conversion; 図15Aの設置状態における作業者の軌跡を示す図。FIG. 15B is a diagram showing the trajectory of a worker in the installation state of FIG. 15A; 回転変換が必要な設置状態の撮影空間を示す図。FIG. 10 is a diagram showing a photographing space in an installation state that requires rotation conversion; 図16Aの設置状態における作業者の軌跡を示す図。FIG. 16B is a diagram showing the trajectory of the worker in the installation state of FIG. 16A; 図16Bの軌跡を座標変換により補正した後の状態を示す図。FIG. 16B is a diagram showing a state after the trajectory of FIG. 16B is corrected by coordinate transformation;

以下、本発明の実施形態を図面を用いて説明する。また、測距センサは単に「センサ」とも呼ぶ。 An embodiment of the present invention will be described below with reference to the drawings. Also, the ranging sensor is simply called a "sensor".

実施例1では、室内の天井に複数のセンサを設置し、室内の人物を測距する場合について説明する。以下では、2個のセンサを用いた構成について説明するが、2以上のセンサの場合も同様である。 In the first embodiment, a case will be described in which a plurality of sensors are installed on the ceiling of a room to measure the range of a person in the room. Although a configuration using two sensors will be described below, the same applies to the case of two or more sensors.

図1Aは、実施例1に係るセンサシステム1の外観図である。天井5には2個のセンサ11a,11bが設置され、床面4上の検出対象物体(例えば人物3)を撮影し、距離画像を生成する。各センサによる撮影領域2a,2bは隣接するように、センサの位置と撮影方向が調整される。各センサ11a,11bはネットワーク13を介して、センサ連携処理装置12と表示装置10に接続されている。表示装置10は、室内に存在する人物3の距離画像を表示する。例えば、本システムを店舗に適用することで、店舗内の客の動きを把握することができる。実施例1においては、広い室内をカバーするように複数のセンサの位置をずらして設置している。そのため、各センサの座標系を合わせるため、センサ設置作業時に座標変換処理を行う。 FIG. 1A is an external view of a sensor system 1 according to Example 1. FIG. Two sensors 11a and 11b are installed on the ceiling 5 to photograph a detection target object (for example, the person 3) on the floor surface 4 and generate a distance image. The sensor positions and imaging directions are adjusted so that the imaging regions 2a and 2b by the respective sensors are adjacent to each other. Each sensor 11 a and 11 b is connected to the sensor cooperation processing device 12 and the display device 10 via the network 13 . The display device 10 displays a distance image of the person 3 present in the room. For example, by applying this system to a store, it is possible to grasp the movements of customers in the store. In Example 1, a plurality of sensors are installed at different positions so as to cover a large room. Therefore, in order to match the coordinate systems of the sensors, coordinate conversion processing is performed during the sensor installation work.

図1Bは、センサシステム1の構成を示すブロック図である。センサシステム1は、2個のセンサ11a,11bと、2個のセンサを連携して処理するセンサ連携処理装置12と、2個のセンサとセンサ連携処理装置12との間の通信を行うネットワーク13と、センサ連携処理装置12からの出力と実行結果を可視化して表示する表示装置10と、を備えている。 FIG. 1B is a block diagram showing the configuration of the sensor system 1. As shown in FIG. The sensor system 1 includes two sensors 11a and 11b, a sensor cooperation processing device 12 that performs processing in cooperation with the two sensors, and a network 13 that performs communication between the two sensors and the sensor cooperation processing device 12. and a display device 10 that visualizes and displays the output from the sensor cooperation processing device 12 and the execution result.

センサ11a,11bは、測定空間へ照射光を発光し、測定空間からの反射光を受光して、その遅延時間から空間内の各物体までの距離を測定し、距離画像を生成する。
センサ連携処理装置12は、2個のセンサ11a,11bの距離画像を合成するために、センサ間の座標合わせ処理(キャリブレーション)を行う。座標合わせ処理のため、床面検出処理と軌跡連結処理を行う。床面検出処理では、2個のセンサ11a,11bでそれぞれの撮影領域2a,2bの床面の座標(高さ)を測定して、それらの値を一致させる。軌跡連結処理では、床面4上を移動体(例えば作業者3)が移動してセンサ11a,11bで移動軌跡を測定し、撮影領域2a,2bにおける軌跡が連続に連結されるよう座標変換する。
The sensors 11a and 11b emit irradiation light to the measurement space, receive reflected light from the measurement space, measure the distance to each object in the space from the delay time, and generate a distance image.
The sensor cooperation processing device 12 performs coordinate matching processing (calibration) between the sensors in order to combine the distance images of the two sensors 11a and 11b. For coordinate matching processing, floor detection processing and trajectory connection processing are performed. In the floor surface detection process, the two sensors 11a and 11b measure the coordinates (height) of the floor surface of the imaging regions 2a and 2b, respectively, and match the values. In the trajectory linking process, a moving object (for example, the worker 3) moves on the floor surface 4, the trajectories are measured by the sensors 11a and 11b, and coordinate transformation is performed so that the trajectories in the photographing areas 2a and 2b are continuously linked. .

図2は、センサ11a,11bの内部構成を示すブロック図である。センサ11a,11bは、TOF方式により対象物までの距離を測定する。発光部21は測定空間へ照射光を出射し、受光部22は測定空間からの反射光を受光する。受光部22は、複数の画素センサが2次元状に配置されており、2次元状の遅延時間と反射光の強度の情報を生成する。距離画像生成部23は、発光部21での発光タイミングから受光部22での受光タイミングまでの遅延時間から、測定空間内の物体までの距離を測定し、距離値を例えば色分けして2次元表示した距離画像を生成する。輝度画像生成部24は、受光部22での反射光の強度から輝度画像を生成する。 FIG. 2 is a block diagram showing the internal configuration of the sensors 11a and 11b. Sensors 11a and 11b measure the distance to the object by the TOF method. The light emitting unit 21 emits irradiation light to the measurement space, and the light receiving unit 22 receives reflected light from the measurement space. The light receiving unit 22 has a plurality of pixel sensors arranged two-dimensionally, and generates two-dimensional information about the delay time and the intensity of the reflected light. The distance image generation unit 23 measures the distance to the object in the measurement space from the delay time from the light emission timing of the light emission unit 21 to the light reception timing of the light reception unit 22, and two-dimensionally displays the distance value by color-coding, for example. generate a range image. The luminance image generator 24 generates a luminance image from the intensity of the light reflected by the light receiver 22 .

通信部25は、距離画像、輝度画像、制御情報を、ネットワーク13を介してセンサ連携処理装置12と通信する。制御部26は、通信部25で受けたセンサ連携処理装置12からの制御信号に応じて、発光部21や受光部22などの各部を制御する。バッファメモリ27は距離画像を生成するために使用され、バッファメモリ28は輝度画像を生成するために使用される。なお、2つのバッファメモリ27,28は、1つメモリをアドレスを別々に割りあてて共有しても構わない。 The communication unit 25 communicates the distance image, luminance image, and control information with the sensor cooperation processing device 12 via the network 13 . The control unit 26 controls each unit such as the light emitting unit 21 and the light receiving unit 22 according to the control signal from the sensor cooperation processing device 12 received by the communication unit 25 . Buffer memory 27 is used to generate the range image, and buffer memory 28 is used to generate the luminance image. The two buffer memories 27 and 28 may share one memory by allocating addresses separately.

図3は、センサ連携処理装置12の内部構成を示すブロック図である。通信部31は、ネットワーク13経由で、センサ11a,11bに実行モードの指示を送信し、センサ11a,11bから測定データの受信を行う。バッファメモリ32は、送受信するデータの一時格納エリアとして使用する。 FIG. 3 is a block diagram showing the internal configuration of the sensor cooperation processing device 12. As shown in FIG. The communication unit 31 transmits execution mode instructions to the sensors 11a and 11b via the network 13, and receives measurement data from the sensors 11a and 11b. The buffer memory 32 is used as a temporary storage area for data to be transmitted and received.

演算処理部35は、通信部31で受信したセンサ11a,11bからの距離データをバッファメモリ36に蓄積し、蓄積した距離データを基に、床面検出処理や軌跡連結処理などを含む座標合わせ処理を行う。また、センサ11a,11bで生成された距離画像や輝度画像を合成する。演算支援部33は、演算処理部35の処理の一部を実行することで、パフォーマンスを向上させる。演算処理部35から演算支援部33へのデータ入力や、演算支援部33から演算処理部35への演算結果出力などのデータ転送は、共有メモリ34を介して行われる。 The arithmetic processing unit 35 accumulates the distance data from the sensors 11a and 11b received by the communication unit 31 in the buffer memory 36, and based on the accumulated distance data, performs coordinate matching processing including floor surface detection processing and trajectory connection processing. I do. Also, the distance image and the luminance image generated by the sensors 11a and 11b are synthesized. The calculation support unit 33 improves performance by executing a part of the processing of the calculation processing unit 35 . Data transfer such as data input from the calculation processing unit 35 to the calculation support unit 33 and calculation result output from the calculation support unit 33 to the calculation processing unit 35 are performed via the shared memory 34 .

表示出力部37は、演算処理部35で処理された結果(座標変換処理結果や合成した距離画像)を出力し、表示装置10に表示させる。バッファメモリ38は、表示データを一時的に蓄積する。なお、バッファメモリ32,36,38と共有メモリ34については、1つのメモリのアドレスを別々に割り当てて共有しても構わない。 The display output unit 37 outputs the results of processing by the arithmetic processing unit 35 (coordinate conversion processing results and synthesized distance images) and causes the display device 10 to display them. The buffer memory 38 temporarily accumulates display data. The buffer memories 32, 36, 38 and the shared memory 34 may be shared by allocating one memory address separately.

次に、センサシステム1における複数のセンサのキャリブレーション動作(座標合わせ処理)について詳細に説明する。
図4は、キャリブレーション処理の概要を示す全体のフローチャートである。設置作業者の動作(S101-S106)とセンサシステム1の処理(S111-S120)を対応させて示している。また、各処理の詳細を示す後述の図面番号を記述している。
Next, a calibration operation (coordinate alignment processing) of a plurality of sensors in the sensor system 1 will be described in detail.
FIG. 4 is an overall flowchart showing an overview of calibration processing. The operation of the installation operator (S101-S106) and the process of the sensor system 1 (S111-S120) are shown in correspondence. In addition, the number of a later-described drawing showing the details of each process is described.

作業者は複数のセンサを設置して処理動作を起動させると(S101)、センサシステム1は床面検出処理を開始する。各センサは撮影空間から距離データ(点群データ)を取得し(S111)、撮影空間内で平面状に分布する面(平面)を検出する(S112)。平面を検出すると、センサシステムから移動開始通知が送られ(S113)、作業者(移動体)は撮影空間内の床面上を移動し(S102)、各センサは移動体の距離データ(点群データ)を取得する(S114)。センサシステムは点群データから移動体の軌跡を検出し(S115)、S112で検出した平面と移動体の軌跡の成す面の平行度を判定することで(S116)、移動体の軌跡の成す面と最も平行な平面を床面として検出する。全てのセンサについてデータの取得(床面検出)が完了すると(S117)、作業者は移動を終了する(S103)。 When the operator installs a plurality of sensors and activates the processing operation (S101), the sensor system 1 starts floor surface detection processing. Each sensor acquires distance data (point cloud data) from the imaging space (S111), and detects planes (planes) distributed in a plane within the imaging space (S112). When the plane is detected, a movement start notification is sent from the sensor system (S113), the operator (moving object) moves on the floor surface in the imaging space (S102), and each sensor collects distance data (point cloud data) is obtained (S114). The sensor system detects the trajectory of the moving object from the point cloud data (S115), determines the parallelism between the plane detected in S112 and the plane formed by the trajectory of the moving object (S116), and determines the plane formed by the trajectory of the moving object. The plane most parallel to is detected as the floor surface. When data acquisition (floor surface detection) is completed for all sensors (S117), the worker ends movement (S103).

次に、センサシステム1は軌跡連結処理に進む。S114で取得した移動体の点群データから、隣接する撮影空間2a,2bに跨る軌跡を取得する(S118)。そして、隣接する撮影空間2a,2bの連結部で移動体の軌跡が連続するように各センサの座標を変換る(S119)。連結結果を作業者に通知する(S120)。通知内容は、センサの初期設置状態が正常か不良か(S104)、不良の場合には座標変換(補正)の内容、又は補正不可の理由を示す(S105)。補正後の連結状態を示し(S106)、作業者が承認すればキャリブレーション動作(設置作業)を終了する。補正が不可能な場合や作業者が承認しない場合は、S101に戻りセンサを再度設置し直す。 Next, the sensor system 1 proceeds to trajectory connection processing. From the point cloud data of the moving object acquired in S114, the trajectory spanning the adjacent imaging spaces 2a and 2b is acquired (S118). Then, the coordinates of each sensor are transformed so that the trajectory of the moving object is continuous at the connecting portion of the adjacent photographing spaces 2a and 2b (S119). The operator is notified of the connection result (S120). The content of notification indicates whether the initial installation state of the sensor is normal or defective (S104), and if defective, the content of coordinate conversion (correction) or the reason why correction is impossible (S105). The connection state after correction is indicated (S106), and if the worker approves, the calibration operation (installation work) is completed. If the correction is impossible or the operator does not approve, the process returns to S101 and the sensor is installed again.

なお、S111の平面の距離データの取得とS114の移動体の距離データの取得は、同時に行うことができる。すなわち、撮影空間から動体抽出する際の背景と前景として取得すればよく、別々に取得するよりも高速に処理できる。また、S118における軌跡取得についても、S114で取得した移動体の点群データを利用することで、移動体(作業者)の一連の歩行動作は1回で済ますことができる。 Acquisition of the distance data of the plane in S111 and acquisition of the distance data of the moving object in S114 can be performed at the same time. In other words, the background and the foreground can be acquired when extracting a moving object from the shooting space, and processing can be performed at a higher speed than if they are acquired separately. Also, for the locus acquisition in S118, by using the point cloud data of the moving body acquired in S114, a series of walking motions of the moving body (worker) can be completed only once.

S111~S116の床面検出処理では、設置した各センサで撮影空間内の距離データと床面上を移動する移動体(作業者)の距離データを取得し、移動体の軌跡の成す面と平行な平面を床面と判定するものである。そして、床面検出処理の結果から、各センサの床面からの設置高さや向きなどの自己位置を取得し、各センサの設置高さと撮影方向(仰俯角)について座標合わせを行うことができる。 In the floor surface detection processing of S111 to S116, the distance data in the shooting space and the distance data of the moving object (worker) moving on the floor surface are acquired by each installed sensor, and the plane parallel to the plane formed by the trajectory of the moving object is obtained. is determined to be the floor surface. Then, from the result of the floor surface detection processing, it is possible to acquire the self-position such as the installation height and orientation of each sensor from the floor surface, and coordinate the installation height and imaging direction (elevation/depression angle) of each sensor.

S118~S119の軌跡連結処理では、移動体としての作業者が測定対象領域をくまなく歩行し、各センサで一連の歩行動作を少なくとも1回以上撮影する。各センサは、撮影した距離データから、歩行する作業者の座標データを時系列に並べた軌跡データを取得する。そして、軌跡データの先頭と末尾、すなわち、当該センサの撮影範囲に作業者が入ったときの軌跡のベクトルと、撮影範囲から出たときの軌跡のベクトルを算出する。この出現時のベクトルと消失時のベクトルが、隣接するセンサの撮影空間の間で連続して連結されるように、各センサの座標変換(ローカル座標からワールド座標への変換)を行う。これにより、センサシステムがカバーする全体の測定対象領域を、1つの座標系(ワールド座標)で捉えることができる。 In the trajectory linking process of S118 and S119, the worker as a mobile body walks all over the measurement target area, and each sensor captures a series of walking motions at least once or more. Each sensor acquires trajectory data in which the coordinate data of the walking worker is arranged in time series from the photographed distance data. Then, the head and tail of the trajectory data, that is, the vector of the trajectory when the worker enters the imaging range of the sensor and the vector of the trajectory when the worker exits the imaging range are calculated. Coordinate transformation of each sensor (transformation from local coordinates to world coordinates) is performed so that the vector at the time of appearance and the vector at the time of disappearance are continuously connected between the photographing spaces of adjacent sensors. As a result, the entire measurement target area covered by the sensor system can be grasped in one coordinate system (world coordinates).

このように本実施例では、キャリブレーション動作のために移動体(作業者)の移動軌跡を利用するので、従来のような専用のマーカを配置する必要がなく、容易にセンサの設置作業を行うことができる。 As described above, in this embodiment, since the moving locus of the moving body (worker) is used for the calibration operation, there is no need to arrange a dedicated marker as in the conventional art, and the sensor installation work can be easily performed. be able to.

以下、個別の処理について詳細に説明する。
図5Aは、床面検出処理(S200)のフローチャートである。本フローは、センサ連携処理装置12から床面検出処理の指示を受けて、センサ11a,11bが撮影空間内の距離データと床面上を移動する移動体の距離データを取得する。そして、移動体の軌跡の成す面と平行な平面を床面と判定するものである。
Individual processing will be described in detail below.
FIG. 5A is a flowchart of floor surface detection processing (S200). In this flow, the sensors 11a and 11b acquire the distance data in the shooting space and the distance data of the moving object moving on the floor surface upon receiving an instruction for floor surface detection processing from the sensor cooperation processing device 12. FIG. A plane parallel to the plane formed by the trajectory of the moving object is determined as the floor surface.

S210では、センサ11a,11bが撮影空間内の距離データを取得し、撮影空間内で平面状に分布する面(平面)を検出する。詳細は図5B、図5Cに示す。
S220では、移動体(作業者)は撮影空間内の床面上を移動し、各センサは移動体の距離データを取得するとともに、移動体の軌跡を検出する。詳細は図5Dに示す。
In S210, the sensors 11a and 11b acquire distance data in the imaging space, and detect surfaces (planes) distributed in a plane in the imaging space. Details are shown in FIGS. 5B and 5C.
In S220, the moving body (operator) moves on the floor surface in the imaging space, and each sensor acquires distance data of the moving body and detects the trajectory of the moving body. Details are shown in FIG. 5D.

S230では、S210で検出した平面と、S220で検出した移動体の軌跡の成す面の平行度を判定し、移動体の軌跡の成す面と最も平行な平面を床面として検出する。詳細は図5Eに示す。
本フローは、床面検出処理の1回分の動作を示すものであり、繰り返し実行して平均化することや、ローレベル信号カットなどの方法と組み合わせることにより、センサで取得する距離データのノイズを除去して、床面検出の精度を向上できる。
In S230, the parallelism between the plane detected in S210 and the plane formed by the trajectory of the moving body detected in S220 is determined, and the plane most parallel to the plane formed by the trajectory of the moving body is detected as the floor surface. Details are shown in FIG. 5E.
This flow shows one operation of the floor surface detection process, and noise in the distance data acquired by the sensor can be reduced by combining it with methods such as repeated execution and averaging and low-level signal cuts. It can be removed to improve the accuracy of floor detection.

図5Bは、図5Aにおける平面検出処理(S210)の詳細フローチャートである。
S211では、平面の垂直軸(すなわち平面の法線ベクトルに平行な軸)の角度の初期値を取得する。ここで、床面を検出対象の平面とし、センサを床面から離れた高さの天井に鉛直下向きに設置する。センサのローカル座標の向きとしてZ軸正方向をセンサの向きとする場合は、水平な床面の垂直軸の初期値は、Z軸正方向を基準の向きとして、基準の向きからの差分として、X軸回転角度=180度、Y軸回転角度=0度、と表現することができる。なお、検出対象の平面が床面ではなく、鉛直な壁面の場合は、壁面に垂直な水平軸を基準とすることで、以下に説明する処理と同様な処理で検出が可能となる。
FIG. 5B is a detailed flowchart of the plane detection process (S210) in FIG. 5A.
At S211, the initial value of the angle of the vertical axis of the plane (that is, the axis parallel to the normal vector of the plane) is obtained. Here, the floor surface is used as a plane to be detected, and the sensor is installed vertically downward on the ceiling at a height away from the floor surface. When the sensor is oriented in the positive direction of the Z-axis as the orientation of the local coordinates of the sensor, the initial value of the vertical axis of the horizontal floor surface is the positive Z-axis direction as the reference orientation, and the difference from the reference orientation is: It can be expressed as X-axis rotation angle=180 degrees and Y-axis rotation angle=0 degrees. If the plane to be detected is not the floor surface but a vertical wall surface, the horizontal axis perpendicular to the wall surface is used as a reference, and detection can be performed by the same processing as the processing described below.

S212では、検出対象の平面が含まれる領域の距離データを取得する。この段階では、どの領域が平面か不明なので、センサで取得可能な全ての距離データを取得しておく。
S213では、S212で取得した距離データを、ワールド座標の3D点群データに変換する。点群データは、個々の距離データの位置をXYZ座標で表現したデータセットである。例えば、640×480画素の解像度を持つTOFセンサで取得できる距離データは、最大でおよそ30万画素分であり、各画素がもつセンサからの距離情報を、センサのローカル座標に変換して、XYZ座標値を30万個並べたデータセットが、距離データとなる。さらに、ワールド座標のZ軸正方向を鉛直下向きとし、ワールド座標の座標軸とローカル座標の座標軸の変換を、X軸回転角度と、Y軸回転角度で表現することで、ワールド座標とローカル座標の回転変換が可能となる。なお、1つのローカル座標をワールド座標に変換する場合は、Z軸回転が0度に固定しても問題ないが、複数のローカル座標をワールド座標に変換する場合は、Z軸回転の変換も必要となる。
In S212, the distance data of the area including the detection target plane is acquired. At this stage, since it is unknown which area is flat, all the distance data that can be obtained by the sensor is obtained.
In S213, the distance data acquired in S212 is converted into 3D point cloud data in world coordinates. The point cloud data is a data set in which the positions of individual distance data are represented by XYZ coordinates. For example, the distance data that can be acquired by a TOF sensor with a resolution of 640 x 480 pixels is about 300,000 pixels at maximum. A data set in which 300,000 coordinate values are arranged is distance data. Furthermore, the positive direction of the Z-axis of the world coordinates is vertically downward, and the conversion of the coordinate axes of the world coordinates and the coordinate axes of the local coordinates is expressed by the rotation angle of the X-axis and the rotation angle of the Y-axis. conversion is possible. When converting one local coordinate to world coordinates, there is no problem even if the Z-axis rotation is fixed at 0 degrees, but when converting multiple local coordinates to world coordinates, conversion of Z-axis rotation is also necessary. becomes.

S214では、検出対象の3次元空間を一定サイズの領域に分割する。例えば、一辺25cmの立方体がXYZ軸方向に隣接して3次元空間を充填するように分割する。この立方体をボクセル領域と呼ぶ。
S215では、各ボクセル領域に含まれる点群データごとに、平面検出を実行する。ボクセル領域の平面検出処理の詳細は、図5Cで説明する。
S216では、S215で検出した各領域で検出した平面と平面の距離が十分小さければ、同じ平面とみなす。
In S214, the three-dimensional space to be detected is divided into regions of a certain size. For example, it is divided so that cubes each side of which is 25 cm are adjacent to each other in the XYZ axis direction and fill the three-dimensional space. This cube is called a voxel region.
In S215, plane detection is performed for each point cloud data included in each voxel area. Details of the voxel region plane detection processing will be described with reference to FIG. 5C.
In S216, if the distance between the planes detected in each area detected in S215 is sufficiently small, they are regarded as the same plane.

S217では、全てのボクセル領域で平面検出したかどうかを判定し、全てのボクセル領域で平面検出していれば、終了する。まだ平面検出していないボクセル領域が残っていれば、そのボクセル領域に対して、S215以下の処理を実行する。 In S217, it is determined whether plane detection has been performed in all voxel areas, and if plane detection has been performed in all voxel areas, the process ends. If there remains a voxel area that has not yet been plane-detected, the voxel area is subjected to the processing from S215 onwards.

図5Cは、図5Bにおける各ボクセル領域の平面検出処理(S215)の詳細フローチャートである。ここでの平面検出処理は、ボクセル領域内の点群データを投影した場合に最も点群が密集する投影軸の向きを求めることで、投影軸の向きを平面の法線ベクトルの向きとみなして平面検出を行うものである。 FIG. 5C is a detailed flowchart of plane detection processing (S215) for each voxel region in FIG. 5B. In the plane detection process here, when the point cloud data in the voxel area is projected, the direction of the projection axis where the point cloud is most dense is obtained, and the direction of the projection axis is regarded as the direction of the normal vector of the plane. It performs plane detection.

S2151では、平面検出対象のボクセル領域の投影軸の角度を設定する。投影軸の角度は、例えばX軸回転角度を5度刻みで72通り、Y軸とZ軸についても同様に72通りずつ、それらの組み合わせで計72×72×72=373248通りを試行することで粗探索し、さらに、その結果のうち候補となる角度の組み合わせを中心に、1度刻みで精査することで、高速かつ高精度に探索ができる。
S2152では、点群データを投影軸に射影し、S2153では、投影軸上の点群分布を一次元のヒストグラムとして作成する。
In S2151, the angle of the projection axis of the voxel area targeted for plane detection is set. For the angle of the projection axis, for example, 72 X-axis rotation angles are set in 5-degree increments, and 72 Y-axis and Z-axis rotation angles are also set. A rough search is performed, and further, a combination of candidate angles among the results of the search is focused on and examined in increments of 1 degree.
In S2152, the point cloud data is projected onto the projection axis, and in S2153, the point cloud distribution on the projection axis is created as a one-dimensional histogram.

S2154では、S2153で作成したヒストグラムの極大点を求め、S2155では、極大点がはっきりとしたピークを持つかどうかを判定する。ピークを持つ(Yes)と判定されれば、S2156で、投影軸の角度を平面の法線ベクトルの候補としてリストアップする。S2155でピークを持たない(No)と判定されれば、平面に垂直な軸ではないと考えられるので、候補からは除外しリストアップしない。
S2157では、未実施の角度の組み合わせパターンが残っているかどうかを判定し、残っていれば(Yes)、S2151から繰り返し処理を行う。未実施の角度の組み合わせパターンが残っていなければ(No)、S2158へ進む。
In S2154, the maximum point of the histogram created in S2153 is obtained, and in S2155, it is determined whether or not the maximum point has a clear peak. If it is determined that there is a peak (Yes), in S2156, the angle of the projection axis is listed as a candidate for the normal vector of the plane. If it is determined that it does not have a peak (No) in S2155, it is considered that the axis is not perpendicular to the plane, so it is excluded from the candidates and not listed.
In S2157, it is determined whether or not an unexecuted angle combination pattern remains, and if it remains (Yes), the processing is repeated from S2151. If there are no unexecuted angle combination patterns left (No), the process proceeds to S2158.

S2158では、S2151からS2157までの処理により、平面の法線ベクトルの候補としてリストアップした投影軸の向きと極大点のうち、最も鋭いピークとなった投影軸の角度を平面の法線ベクトルの向きとみなし、極大の座標をなす点群を、平面をなす点群とみなす。 In S2158, among the directions of the projection axes and the maximum points listed as candidates for the normal vector of the plane by the processing from S2151 to S2157, the angle of the projection axis with the sharpest peak is determined as the direction of the normal vector of the plane. , and the point group forming the coordinates of the maximum is regarded as a point group forming a plane.

図5Dは、図5Aにおける移動体軌跡検出処理(S220)の詳細フローチャートである。ここでは、移動体の距離データから移動体の軌跡を求める。
S221では、床面上を移動する移動体の距離データを取得する。移動体が作業者である場合は、床面の上を歩行する様子を2個のセンサで測定することで距離データを取得する。移動体(作業者)が測定対象の領域をくまなく歩行し、各センサで一連の歩行動作を少なくとも1回以上測定することで、距離データを取得する。
FIG. 5D is a detailed flowchart of the moving body trajectory detection process (S220) in FIG. 5A. Here, the trajectory of the mobile object is obtained from the distance data of the mobile object.
In S221, the distance data of the moving object moving on the floor is acquired. If the mobile object is a worker, distance data is acquired by measuring how the robot walks on the floor with two sensors. A moving object (worker) walks all over the area to be measured, and each sensor measures a series of walking motions at least once or more to obtain distance data.

S222では、S221で取得した距離データから、移動体(作業者)の点群データを抽出し、移動体の位置をXYZ座標で時系列に並べることで、移動体の軌跡データを取得する。なお、移動体の点群データの抽出には、静止している点群を背景とし、動いている点群を前景として、動体を抽出することで実現できる。 In S222, the point cloud data of the moving object (worker) is extracted from the distance data acquired in S221, and the positions of the moving object are arranged in time series on the XYZ coordinates to acquire the trajectory data of the moving object. Note that point cloud data of a moving object can be extracted by extracting a moving object using a stationary point cloud as a background and a moving point cloud as a foreground.

図5Eは、図5Aにおける平行判定処理(S230)の詳細フローチャートである。ここでは、図5Bおよび図5Cで検出した平面と、図5Dで検出した移動体軌跡を突き合わせて、軌跡と平面が平行である条件を満たす平面を床面とみなす。 FIG. 5E is a detailed flowchart of the parallel determination process (S230) in FIG. 5A. Here, the planes detected in FIGS. 5B and 5C are compared with the trajectory of the moving object detected in FIG. 5D, and a plane that satisfies the condition that the trajectory and the plane are parallel is regarded as the floor surface.

S231では、図5Dで検出した移動体の軌跡を、図5Bおよび図5Cで検出した平面の垂直軸に射影する。S232では、S231の垂直軸上の軌跡の分布を、一次元のヒストグラムとして作成する。S233では、S232で作成したヒストグラムの極大点を取得する。 In S231, the trajectory of the moving object detected in FIG. 5D is projected onto the vertical axis of the plane detected in FIGS. 5B and 5C. In S232, the distribution of trajectories on the vertical axis in S231 is created as a one-dimensional histogram. At S233, the maximum point of the histogram created at S232 is acquired.

S234では、S233で取得した極大点が、鋭いピークを持つかどうかを判定する。ピークが鋭い場合(Yes)は、S235で軌跡と平面が平行であるとみなし、その平面を床面とみなす。S234でピークが鋭くない場合(No)は、他の平面に対して、S231からS234までの処理を繰り返す。 In S234, it is determined whether or not the maximum point acquired in S233 has a sharp peak. If the peak is sharp (Yes), the trajectory and the plane are considered parallel in S235, and the plane is considered as the floor surface. If the peak is not sharp in S234 (No), the processing from S231 to S234 is repeated for other planes.

なお、図5Eにおける軌跡と平面との平行判定処理は、移動体が作業者である場合は、作業者の頭頂部の軌跡と平面との距離が作業者の身長に等しいことを利用して判定することもできる。さらに、壁面沿いに歩く場合などは、壁面を床面と誤検出しないよう、移動時の重心の上下動と頭頂部の左右の揺れのパターンから、壁面と床面を区別することができる。すなわち、重心の上下動する方向は鉛直方向であり、左右に揺れる方向は水平方向であることから、鉛直な壁面と水平な床面を区別できる。また、移動体が作業者である場合は、壁面を床面と誤検出しないよう、作業者の足が接地している前提をもとに、平面と移動体の間の点群の存在しない領域の大きさが小さい方を床面とみなすことで、区別が可能である。 It should be noted that the parallel determination processing between the locus and the plane in FIG. You can also Furthermore, when walking along a wall, it is possible to distinguish between the wall and the floor based on the vertical movement of the center of gravity and the left-right swaying pattern of the top of the head during movement so that the wall is not mistakenly detected as the floor. That is, since the direction in which the center of gravity moves up and down is the vertical direction, and the direction in which the center of gravity moves left and right is the horizontal direction, it is possible to distinguish between a vertical wall surface and a horizontal floor surface. In addition, when the moving object is a worker, the area where the point cloud does not exist between the plane and the moving object is assumed based on the premise that the worker's feet are on the ground so as not to misdetect the wall surface as the floor surface. By regarding the smaller one as the floor surface, it is possible to distinguish between them.

図6Aは、軌跡連結処理(S300)のフローチャートである。本フローは、センサ連携処理装置12から軌跡連結処理の指示を受けて、センサ11a,11bが床面上を移動する移動体の軌跡を取得する。そして、センサ11a,11bで取得した移動体の軌跡が連続するように座標変換するものである。 FIG. 6A is a flow chart of the trajectory linking process (S300). In this flow, an instruction for trajectory connection processing is received from the sensor cooperation processing device 12, and the sensors 11a and 11b acquire the trajectory of the moving object moving on the floor surface. Then, coordinate transformation is performed so that the trajectory of the moving object acquired by the sensors 11a and 11b is continuous.

S310は、物理的なセンサ設置作業であり、作業者は複数のセンサ11a,11bを撮影領域をカバーするように設置する。
S320は、図5Aで行った床面検出処理(S200)の結果を用いて、各センサの床面からの設置高さや向きなどの自己位置を取得する。すなわちこれにより、各センサの設置高さと向き(仰俯角)について校正が可能となる。
S310 is a physical sensor installation work, and the operator installs a plurality of sensors 11a and 11b so as to cover the imaging area.
In step S320, using the result of the floor surface detection process (S200) performed in FIG. 5A, the self position such as the installation height and orientation from the floor surface of each sensor is acquired. That is, this makes it possible to calibrate the installation height and orientation (elevation/depression angle) of each sensor.

S330では、隣接する撮影領域に跨るような移動体軌跡検出を行う。その処理の詳細は、図6Bで説明する。
S340では、S330で得られた軌跡を連結する処理、すなわちセンサ間の座標変換を行う。その処理の詳細は、図6Cで説明する。
In S330, moving object trajectory detection that straddles adjacent imaging regions is performed. Details of the processing will be described with reference to FIG. 6B.
In S340, processing for connecting the trajectories obtained in S330, that is, coordinate conversion between sensors is performed. Details of the processing will be described with reference to FIG. 6C.

図6Bは、図6Aにおける移動体軌跡検出処理(S330)の詳細フローチャートである。なお、この処理は、図5Dに示した移動体軌跡検出処理(S220)と兼用することができる。
S331では、各センサが移動体を測定できるよう、移動体(作業者)が動線を網羅するように歩行して移動する。
FIG. 6B is a detailed flowchart of the moving body trajectory detection process (S330) in FIG. 6A. Note that this process can also be used as the moving object trajectory detection process (S220) shown in FIG. 5D.
In S331, the moving body (worker) walks and moves so as to cover the flow line so that each sensor can measure the moving body.

S332では、作業者までの距離を各センサで測定し、得られた距離データから動体抽出を行い、移動体である作業者の点群を取得する。
S333では、S332で得られた作業者の点群から、軌跡を取得する。
In S332, the distance to the worker is measured by each sensor, moving object extraction is performed from the obtained distance data, and the point group of the worker who is a moving object is obtained.
In S333, a trajectory is obtained from the point cloud of the worker obtained in S332.

図6Cは、図6Aにおける座標変換処理(S340)の詳細フローチャートである。図6Aで得られた各センサからの軌跡を時系列に並び替え、軌跡を最も滑らかに連結する座標変換のパラメータを取得するものである。 FIG. 6C is a detailed flowchart of the coordinate conversion process (S340) in FIG. 6A. The trajectories from each sensor obtained in FIG. 6A are rearranged in time series to obtain parameters of coordinate transformation that most smoothly connect the trajectories.

S341では、図6B(S333)で取得した移動体(作業者)の軌跡を、移動体が出現した順番にソートする。このとき、連続する軌跡を1本と数え、ソートされた結果、軌跡の順番は異なるセンサの撮影空間を行き来することになる。なお、出現した順番ではなく、消失した順番でソートしてもよい。 In S341, the trajectories of the moving bodies (workers) acquired in FIG. 6B (S333) are sorted in the order in which the moving bodies appeared. At this time, a continuous trajectory is counted as one, and as a result of sorting, the trajectory moves back and forth between the imaging spaces of the sensors with different orders. In addition, you may sort by the order which disappeared instead of the order which appeared.

S342では、S341でソートされた隣接するN番目とN+1番目の軌跡に着目する。これらは互いに異なるセンサで取得された軌跡である。そして、N番目の軌跡の消失時のベクトルと、N+1番目の軌跡の出現時のベクトルが、外挿して連続するように、N+1番目の軌跡を座標変換する。座標変換には、座標原点の移動と座標軸の回転を含む。 In S342, attention is focused on the adjacent Nth and N+1th trajectories sorted in S341. These are trajectories acquired by different sensors. Then, the N+1th trajectory is coordinate-transformed so that the vector when the Nth trajectory disappears and the vector when the N+1th trajectory appears are continuous by extrapolation. Coordinate transformation includes movement of the coordinate origin and rotation of the coordinate axes.

S343では、S342での座標変換により、N番目の軌跡とN+1番目の軌跡が連続しているかどうかを判定する。判定の結果、連続していなければ(No)、S344でエラー警告を行う。つまり、軌跡の連結が困難、もしくは、ソートされた軌跡のN番目の消失からN+1番目の出現までの時間が長く、軌跡の連続性が低いとみなせる場合は、軌跡連結処理(座標変換処理)が失敗した旨のエラー警告を行う。 In S343, it is determined whether or not the N-th trajectory and the N+1-th trajectory are continuous by the coordinate conversion in S342. If the result of determination is that they are not continuous (No), an error warning is issued in S344. In other words, if it is difficult to connect trajectories, or if the time from the disappearance of the Nth sorted trajectory to the appearance of the N+1th trajectory is long and the continuity of the trajectories can be considered low, the trajectory linking process (coordinate conversion process) is performed. Issue an error warning to the effect that it has failed.

S343の判定で、N番目とN+1番目の軌跡が連続していれば(Yes)、S345では、連結処理が未実施の軌跡が残っているかを判定する。残りの軌跡があれば、S341以降の処理を繰り返し、残っていなければ終了する。
なお、S343の判定で、軌跡が連続するように座標変換できた場合(Yes)にも、座標変換時のパラメータを表示装置10に表示するようにしてもよい。
If it is determined in S343 that the N-th and N+1-th trajectories are continuous (Yes), it is determined in S345 whether or not there remains a trajectory that has not been subjected to the connection processing. If there is a remaining trajectory, the processing from S341 is repeated, and if there is no remaining trajectory, the process ends.
It should be noted that, even if the determination in S343 indicates that the coordinates have been transformed so that the trajectory is continuous (Yes), the parameters at the time of coordinate transformation may be displayed on the display device 10 .

次に、複数のセンサの具体的な設置状態を例に挙げて、座標変換処理(S342)を具体的に説明する。座標変換では、各センサによる撮影空間の位置関係が関係するので、センサの撮影空間の表記法から説明する。 Next, the coordinate conversion process (S342) will be described in detail, taking a specific installation state of the plurality of sensors as an example. Coordinate transformation is related to the positional relationship of the imaging space of each sensor, so the notation of the imaging space of the sensor will be described.

図7は、1個のセンサの撮影空間の表示の仕方を示す図であり、(a)は撮影空間を横方向から見た側面図、(b)は撮影空間を天井から見た平面図である。センサ11に対する座標軸(ローカル座標)は、前方方向をX軸、左右方向をY軸、上下方向をZ軸、床面をXY面とする。センサ11は、空間を斜め方向に見下ろすように設置されている。 7A and 7B are diagrams showing how the imaging space of one sensor is displayed. FIG. 7A is a side view of the imaging space viewed from the lateral direction, and FIG. 7B is a plan view of the imaging space viewed from the ceiling. be. The coordinate axes (local coordinates) for the sensor 11 are the forward direction as the X axis, the horizontal direction as the Y axis, the vertical direction as the Z axis, and the floor surface as the XY plane. The sensor 11 is installed so as to obliquely look down on the space.

符号41で示す扇形と円弧を組み合わせた稜線はセンサ11の画角を示す。符号42で示す点線の範囲は、センサ11による床面上の撮影平面を示す。従って、符号41と符号42で囲まれた空間が、センサ11の撮影空間(以下、センサ撮影空間)となる。 A ridge indicated by reference numeral 41, which is a combination of a sector and an arc, indicates the angle of view of the sensor 11. FIG. A range of dotted lines indicated by reference numeral 42 indicates a plane on the floor photographed by the sensor 11 . Therefore, the space surrounded by reference numerals 41 and 42 is the imaging space of the sensor 11 (hereinafter referred to as sensor imaging space).

まず、2個のセンサの具体的な設置状態として、座標変換処理(S342)における座標回転変換が不要な場合から説明する。すなわち、回転変換処理を行わなくとも、隣接する2個のセンサの軌跡が連続している場合である。
図8Aは、回転変換が不要な設置状態の撮影空間を示す図である。(a)は側面図、(b)は平面図である。ここでの表示はワールド座標で表示している。XY面が床面で、Z軸方向が高さ方向である。
First, as a specific installation state of the two sensors, a case where coordinate rotation conversion is unnecessary in the coordinate conversion processing (S342) will be described. In other words, this is the case where the trajectories of two adjacent sensors are continuous even without rotation conversion processing.
FIG. 8A is a diagram showing an imaging space in an installation state that does not require rotation conversion. (a) is a side view, and (b) is a plan view. The display here is in world coordinates. The XY plane is the floor surface, and the Z-axis direction is the height direction.

2個のセンサ11a,11bは、天井から同じ高さで同じ角度の姿勢で、撮影方向に所定距離Xoだけ平行移動して設置されている。言い換えれば、2個のセンサ11a,11bの設置位置をワールド座標で表記すれば、X座標は距離Xoだけずれた位置、Y座標は同じ位置、Z座標は同じ位置(天井面)である。また、2個のセンサ11a,11bの設置方向(X軸方向)は、ワールド座標とローカル座標で一致している。 The two sensors 11a and 11b are installed at the same height from the ceiling and at the same angle, and are parallelly moved by a predetermined distance Xo in the photographing direction. In other words, if the installation positions of the two sensors 11a and 11b are expressed in world coordinates, the X coordinate is the position shifted by the distance Xo, the Y coordinate is the same position, and the Z coordinate is the same position (ceiling surface). Also, the installation directions (X-axis direction) of the two sensors 11a and 11b match in the world coordinates and the local coordinates.

これにより、それぞれのセンサ撮影空間(符号41a,42aで囲まれた空間、及び符号41b,42bで囲まれた空間)もX軸方向に距離Xoだけ平行移動して形成される。ここで、2個のセンサ11a,11bのX方向の距離Xoを、1個のセンサによる撮影平面(符号42a,42b)のX方向の長さに等しくすることで、各センサの撮影平面42a,42bは境界が接した状態で連続に配置される。 As a result, each sensor imaging space (the space surrounded by reference numerals 41a and 42a and the space surrounded by reference numerals 41b and 42b) is also formed by parallel movement in the X-axis direction by a distance Xo. Here, by making the X-direction distance Xo between the two sensors 11a and 11b equal to the X-direction length of the imaging planes (reference numerals 42a and 42b) of one sensor, the imaging planes 42a and 42b of the sensors 42b are arranged continuously with their boundaries touching.

一方、符号40(1点鎖線)で示す直方体の空間領域は、検出対象物(人物)の存在する検出対象領域を示す。つまり、検出対象領域40の範囲(X軸およびY軸方向)は検出対象物の移動範囲であり、高さ(Z軸方向)は、例えば、立ち姿勢の人物が手を上げた際の指先の床面からの高さを含む大きさとなる。 On the other hand, a rectangular parallelepiped spatial region indicated by reference numeral 40 (one-dot chain line) indicates a detection target region in which a detection target (person) exists. That is, the range (X-axis and Y-axis directions) of the detection target area 40 is the movement range of the detection target, and the height (Z-axis direction) is, for example, the distance between the fingertips when a person in a standing posture raises his hand. The size includes the height from the floor.

ここで図8Aに示した状態は、センサ11a及びセンサ11bによるセンサ撮影空間(画角41a、41bを空間上で重ね合わせた領域)は、検出すべき検出対象領域40を完全にカバーしている状態である。 Here, in the state shown in FIG. 8A, the sensor imaging space (area where the angles of view 41a and 41b are overlapped in space) by the sensor 11a and the sensor 11b completely covers the detection target area 40 to be detected. state.

次に、移動体(作業者)が検出対象領域40を移動して、その軌跡を基に行う座標変換処理(設置情報の生成)について説明する。
図8Bは、図8Aの設置状態における作業者の軌跡を示す図である。(a)は撮影空間の平面図、(b)は作業者の軌跡を拡大した図である。ここでの表示は各センサのローカル座標系に従っている。作業者が検出対象領域40を移動したときの、撮影平面42a及び42bにおける軌跡を、符号50a,50bで示している。ここでは、作業者は矢印で示すように、センサ11aによる撮影平面42aの左端境界から出現し、X軸右方向へ移動し、撮影平面42aの右端境界から消失する。次いで、センサ11bの撮影平面42bの左端境界から出現し、X軸右方向へ移動し、撮影平面42bの右端境界から消失する。このような順で、わずかにY軸方向に蛇行しながら移動したとする。
Next, coordinate conversion processing (generation of installation information) performed based on the trajectory of the moving body (worker) moving in the detection target area 40 will be described.
FIG. 8B is a diagram showing the trajectory of the worker in the installation state of FIG. 8A. (a) is a plan view of an imaging space, and (b) is an enlarged view of a worker's trajectory. The display here follows the local coordinate system of each sensor. Trajectories on the imaging planes 42a and 42b when the operator moves in the detection target area 40 are indicated by reference numerals 50a and 50b. Here, the operator appears from the left end boundary of the imaging plane 42a by the sensor 11a, moves in the X-axis right direction, and disappears from the right end boundary of the imaging plane 42a, as indicated by the arrow. Next, it appears from the left end boundary of the imaging plane 42b of the sensor 11b, moves in the X-axis right direction, and disappears from the right end boundary of the imaging plane 42b. Suppose that the object moves in this order while slightly meandering in the Y-axis direction.

図に示した通り、センサ11a及び11bのローカル座標軸(Y座標、Z座標およびX軸方向)が揃っているため、軌跡50a及び50bは、撮影平面42aと42bの境界にて滑らかに連結されている、という様子が見て取れる。なお、図面(b)では、軌跡50aと50bを区別するためにY軸方向にずらして描いている。 As shown in the figure, since the local coordinate axes (Y coordinate, Z coordinate and X axis direction) of the sensors 11a and 11b are aligned, the trajectories 50a and 50b are smoothly connected at the boundary between the imaging planes 42a and 42b. You can see that there is. In the drawing (b), the trajectories 50a and 50b are shown shifted in the Y-axis direction to distinguish them.

前述の座標変換の工程(図6CのS342)では、軌跡50aの右端の消失時のベクトル51aと、軌跡50bの左端の出現時のベクトル51bの方向から、センサ11a及び11bの座標系の回転角度を定量的な情報として生成する。つまりセンサシステム1は設置作業者へ、センサ11a及び11bの連結部のベクトル51a及び51bの情報(角度ずれ)を提示する。本例では、両者のベクトル51a,51bが一致しており、角度ずれは0(座標回転不要)となる。これにより設置作業者は、センサ11a及び11bの設置状態が意図通り(位置・角度ずれなし)であることを定量的に確認し、設置作業を完了する。 In the above-described coordinate transformation step (S342 in FIG. 6C), the rotation angle of the coordinate system of the sensors 11a and 11b is calculated from the direction of the vector 51a when the right end of the trajectory 50a disappears and the vector 51b when the left end of the trajectory 50b appears. is generated as quantitative information. That is, the sensor system 1 presents information (angular deviation) of the vectors 51a and 51b of the connecting portion of the sensors 11a and 11b to the installation operator. In this example, both vectors 51a and 51b match, and the angular deviation is 0 (coordinate rotation is unnecessary). Accordingly, the installation worker quantitatively confirms that the installation state of the sensors 11a and 11b is as intended (no deviation in position and angle), and completes the installation work.

次に、座標回転変換が必要となる設置状態の場合について説明する。
図9Aは、回転変換が必要な設置状態の撮影空間を示す図である。(a)は側面図、(b)は平面図である。ここでの表示はワールド座標で表示している。前記図8Aの設置状態と異なり、2個のセンサ11a,11bの設置位置と設置方向(撮影方向)がずれている。すなわち、両者の設置位置はX軸方向に距離Xoだけずれるとともに、Y軸方向に距離Yoだけずれている。また、設置方向も異なっており、センサ11aはセンサ11bに対して、X軸がZ軸の周りに角度θだけ回転した状態となっている。その結果、撮影平面42aと42bの方向が揃わず、両者の境界が非平行になっている。
Next, an installation state that requires coordinate rotation transformation will be described.
FIG. 9A is a diagram showing a photographing space in an installation state that requires rotation conversion. (a) is a side view, and (b) is a plan view. The display here is in world coordinates. Unlike the installation state shown in FIG. 8A, the installation positions and installation directions (shooting directions) of the two sensors 11a and 11b are deviated. That is, the installation positions of the two are shifted in the X-axis direction by a distance Xo and in the Y-axis direction by a distance Yo. Moreover, the installation directions are also different, and the sensor 11a is in a state where the X axis is rotated by an angle θ about the Z axis with respect to the sensor 11b. As a result, the directions of the imaging planes 42a and 42b are not aligned, and the boundaries between the two are non-parallel.

図9Bは、図9Aの設置状態における作業者の軌跡を示す図である。(a)は撮影空間の平面図、(b)は軌跡を拡大した図である。ここでの表示はそれぞれのセンサのローカル座標の方向で表示しており、撮影平面42a,42bを平行に配置して示す。図から明らかなように、2つの軌跡50a,50bは撮影平面の境界で滑らかに連結されず、軌跡50aの消失時のベクトル51aと軌跡50bの出現時のベクトル51bの方向は、角度θだけずれている。 FIG. 9B is a diagram showing the trajectory of the worker in the installation state of FIG. 9A. (a) is a plan view of an imaging space, and (b) is an enlarged view of the trajectory. The display here is in the direction of the local coordinates of each sensor, and the photographing planes 42a and 42b are arranged in parallel. As is clear from the figure, the two trajectories 50a and 50b are not smoothly connected at the boundary of the imaging plane, and the directions of the vector 51a when the trajectory 50a disappears and the vector 51b when the trajectory 50b appears deviate by an angle θ. ing.

このときセンサシステム1は、センサの設置情報として、連結部のベクトル51a及び51bの角度ずれθが存在することを知らせ、この角度ずれを座標変換工程(S342)で自動的に補正する。なお、座標変換で補正不可能な場合は、その旨のエラー警告を行う。 At this time, the sensor system 1 informs as the sensor installation information that there is an angular deviation θ between the vectors 51a and 51b of the connecting portion, and automatically corrects this angular deviation in the coordinate conversion step (S342). If the coordinates cannot be corrected by coordinate conversion, an error warning to that effect is issued.

図9Cは、図9Bの軌跡を座標変換により補正した後の状態を示す図である。(a)は撮影空間の平面図、(b)は軌跡を拡大した図である。ここでは、2個のセンサに共通なワールド座標で表示している。センサ11aのローカル座標を図9Bに示す角度θだけ回転させること、すなわち、撮影平面42aを撮影平面42a’に回転させることで、ワールド座標において、センサ11aにおける軌跡50a’の消失時のベクトル51a’と、センサ11bにおける軌跡50bの出現時のベクトル51bを平行にすることができる。さらに座標変換では、Y軸方向のずれYoを補正することで、軌跡50a’と軌跡50bとを滑らかに連結させることができる。 FIG. 9C is a diagram showing a state after the trajectory in FIG. 9B is corrected by coordinate transformation. (a) is a plan view of an imaging space, and (b) is an enlarged view of the trajectory. Here, the world coordinates common to the two sensors are displayed. By rotating the local coordinates of the sensor 11a by the angle θ shown in FIG. 9B, that is, by rotating the imaging plane 42a to the imaging plane 42a′, the vanishing vector 51a′ of the trajectory 50a′ on the sensor 11a is obtained in the world coordinates. , the vector 51b at the time of appearance of the trajectory 50b on the sensor 11b can be made parallel. Furthermore, in the coordinate transformation, the trajectory 50a' and the trajectory 50b can be smoothly connected by correcting the deviation Yo in the Y-axis direction.

なお、本例では、Z軸の周りに2個のセンサが傾いて設置された状態を説明したが、X軸やY軸を回転軸として傾いた状態でも同様に座標変換で補正することができる。ここで、補正不可能な設置状態について説明する。 In this example, a state in which two sensors are tilted around the Z axis has been described, but even in a state in which the sensors are tilted with the X or Y axis as the rotation axis, correction can be similarly performed by coordinate transformation. . Here, an installation state that cannot be corrected will be described.

図9Dは、補正不可能な設置状態の例を示す図である。例えば、2個のセンサの設置方向のずれ(角度θ)が過大のときには、座標変換により軌跡50a’と軌跡50bとが連結できたとしても、隣接する撮影平面42a’,42bの境界に隙間43が生じる場合がある。この隙間43の領域では、いずれのセンサでも検出動作が行えないことになり、不適当である。この場合には、エラー警告を表示する。 FIG. 9D is a diagram showing an example of an installation state that cannot be corrected. For example, when the deviation (angle θ) between the installation directions of the two sensors is excessive, even if the trajectory 50a' and the trajectory 50b can be connected by the coordinate conversion, the gap 43 is formed at the boundary between the adjacent photographing planes 42a' and 42b. may occur. In the region of this gap 43, none of the sensors can perform the detection operation, which is inappropriate. In this case, an error warning is displayed.

図10A~D、および図11A~Dは、エラー警告およびセンサ設置支援情報の表示例である。表示装置10の画面10aには座標変換処理の結果を表示し、自動補正を行った結果、あるいは、自動補正が不可能な場合には、ユーザが手動でセンサ位置を調整するための支援情報を提供する。 10A-D and 11A-D are display examples of error warnings and sensor installation assistance information. The screen 10a of the display device 10 displays the result of the coordinate conversion process, and the result of the automatic correction, or when the automatic correction is impossible, the user can display support information for manually adjusting the sensor position. offer.

図10A~Dは、センサの設置角度にずれがある場合の表示例を示す。ここでは6台のセンサS1~S6が設置され、それぞれの撮影平面42a~42fが隣接して形成されている。そして、各撮影平面42a~42fを作業者が移動し、軌跡50a~50fが取得されたとする。 10A to 10D show display examples when there is a deviation in the installation angle of the sensor. Here, six sensors S1 to S6 are installed, and their imaging planes 42a to 42f are formed adjacent to each other. Assume that the operator moves on each of the photographing planes 42a to 42f, and trajectories 50a to 50f are obtained.

図10Aは、センサの設置状態(角度)に不良があることを警告する画面である。画面10aには、6台のセンサS1~S6で取得した軌跡50a~50fが表示され、センサの設置状態に不良がある旨のメッセージ90が表示される。
図10Bは、不良内容の情報91と補正情報92を示す画面である。不良はセンサS1の角度に原因があり、Z軸周りに-10度回転の補正を行うことを示している。またこの補正により、撮影平面42aが符号42a’のように回転されることを示す。
FIG. 10A is a screen warning that there is a defect in the installation state (angle) of the sensor. On the screen 10a, trajectories 50a to 50f obtained by the six sensors S1 to S6 are displayed, and a message 90 is displayed to the effect that there is a defect in the installed state of the sensors.
FIG. 10B is a screen showing defect content information 91 and correction information 92 . The defect is caused by the angle of the sensor S1, and it indicates that the correction of -10 degrees rotation around the Z-axis is performed. It also shows that the imaging plane 42a is rotated as indicated by reference numeral 42a' due to this correction.

図10Cは、補正結果を示す画面である。センサS1は、補正後の撮影平面42a’に置き換わっている。ユーザはこの画面で示された補正後の軌跡を確認し、問題ないと判定したらOKボタン93を押して、設置を完了する。問題ありと判定したら、NGボタン94を押し、再度センサを設置し直す。 FIG. 10C is a screen showing correction results. The sensor S1 is replaced by the corrected imaging plane 42a'. The user confirms the corrected trajectory shown on this screen, and if it is determined that there is no problem, presses the OK button 93 to complete the installation. If it is determined that there is a problem, the NG button 94 is pressed and the sensor is installed again.

図10Dは、補正不可を示す画面である。不良内容の情報91とともに、補正が不可能な理由と設置支援情報95を表示する。ここでは補正不可の理由として、「補正量が回転補正の範囲(±15度)を超えてしまい、隣接領域とに隙間が発生すること」(図9Dの状態)、対応として、「センサS1をZ軸周りに+15度以上回転するよう設置し直すこと」が表示されている。ユーザは提供された情報に基づいてセンサの設置方向を修正することで、センサの設置調整作業を容易に実施できる。 FIG. 10D is a screen indicating that correction is not possible. Along with the information 91 on the details of the defect, the reason why correction is impossible and installation support information 95 are displayed. Here, the reason why correction is not possible is that "the amount of correction exceeds the range of rotation correction (±15 degrees), and a gap is generated between adjacent areas" (the state in FIG. 9D). Reinstall so that it rotates +15 degrees or more around the Z axis." is displayed. The user can easily adjust the installation of the sensor by correcting the installation direction of the sensor based on the provided information.

図11A~Dは、センサの設置高さにずれがある場合の表示例を示す。6台のTOFセンサS1~S6が配置され、各撮影平面42a~42fを作業者が移動する。そして、作業者の高さを示す軌跡60a~60fを取得し、それぞれの撮影側面(XZ面)45a~45fに表示している。この場合同一作業者が移動しているので、センサの設置高さにずれがなければ、高さの軌跡はいずれの撮影側面45a~45fでも等しくなるはずである。 11A to 11D show display examples when there is a deviation in the installation height of the sensor. Six TOF sensors S1 to S6 are arranged, and an operator moves on each imaging plane 42a to 42f. Trajectories 60a to 60f indicating the height of the worker are obtained and displayed on respective imaging side surfaces (XZ planes) 45a to 45f. In this case, since the same worker is moving, if there is no deviation in the installation height of the sensor, the locus of height should be the same on any of the imaging side surfaces 45a to 45f.

図11Aは、センサの設置状態(高さ)に不良があることを警告する画面である。画面10aには、6台のTOFセンサ(S1~S6)で取得した作業者の高さの軌跡60a~60fが表示される。
図11Bは、不良内容の情報91と補正情報92を示す画面である。不良はセンサS1の高さに原因があり、高さ方向に-200mmの補正を行うことを示している。またこの補正により、撮影側面45aが符号45a’のように平行移動されることを示す。
FIG. 11A is a screen warning that there is a defect in the installation state (height) of the sensor. On the screen 10a, trajectories 60a to 60f of the height of the worker acquired by the six TOF sensors (S1 to S6) are displayed.
FIG. 11B is a screen showing defect content information 91 and correction information 92 . The defect is caused by the height of the sensor S1, and it indicates that -200 mm correction is performed in the height direction. Also, this correction causes the imaging side surface 45a to be translated as indicated by reference numeral 45a'.

図11Cは、補正結果を示す画面である。センサS1は、補正後の撮影平面45a’に置き換わっている。ユーザはこの画面で示された補正後の軌跡を確認し、問題ないと判定したらOKボタン93を押して、設置を完了する。問題ありと判定したら、NGボタン94を押し、再度センサを設置し直す。 FIG. 11C is a screen showing correction results. The sensor S1 is replaced by the corrected imaging plane 45a'. The user confirms the corrected trajectory shown on this screen, and if it is determined that there is no problem, presses the OK button 93 to complete the installation. If it is determined that there is a problem, the NG button 94 is pressed and the sensor is installed again.

図11Dは、補正不可を示す画面である。不良内容の情報91とともに、補正が不可能な理由と設置支援情報95を表示する。ここでは、補正不可の理由として、「補正量が高さ補正の範囲(500mm)を超えてしまい、人の全身をセンシングできなくなること」、対応として、「センサS1を500mm以上高い位置へ設置し直すこと」が表示されている。ユーザは提供された情報に基づいてセンサの設置位置を修正することで、センサの設置調整作業を容易に実施できる。 FIG. 11D is a screen indicating that correction is not possible. Along with the information 91 on the details of the defect, the reason why correction is impossible and installation support information 95 are displayed. Here, the reason why correction is not possible is that the amount of correction exceeds the height correction range (500 mm), making it impossible to sense the whole body of a person. Fix it" is displayed. The user can easily perform sensor installation adjustment work by correcting the installation position of the sensor based on the provided information.

このように座標変換の自動補正を行う際、角度や位置の補正範囲を超えている場合や、隣接して設置されたセンサの撮影領域に隙間が生じる場合に、エラー警告を出す。そして、どのセンサとどのセンサのつなぎ目でエラーが起きているか(特に、3個以上のセンサを使用する場合)、それらのセンサの向きや位置をどれだけ修正すべきか、などのセンサ設置支援情報を、表示装置10に表示する。これに従い設置作業者は、指摘された箇所を確認し、支援情報に従って迅速に修正することが可能となる。 When the coordinate conversion is automatically corrected in this manner, an error warning is issued if the angle or position correction range is exceeded or if there is a gap between the photographing areas of the sensors installed adjacently. Then, sensor installation support information such as which sensor and which sensor joint has an error (especially when using three or more sensors) and how much the orientation and position of those sensors should be corrected is provided. , is displayed on the display device 10 . In accordance with this, the installation worker can confirm the indicated point and promptly correct it according to the support information.

あるいは、移動体(作業者)の移動(歩行)がスムーズでなく、途切れるような場合にも警告を出す。例えば、歩行者が立ち止まったり、進路を急に変えたり、反転したり、といった動作を行った場合に警告を出す。また、廊下のコーナーや出入り口など、歩行者の移動の向きが変わりやすい場所での軌跡の連結は誤差を生じる恐れがあるので、避けるように警告する。これにより、軌跡の変化量が少ない区間で軌跡を連結することができ、座標合わせの精度を向上させることができる。 Alternatively, a warning is issued when the movement (walking) of the moving body (worker) is not smooth and interrupted. For example, if a pedestrian stops, suddenly changes course, or reverses, the system issues a warning. In addition, there is a risk of errors in linking trajectories at places where the direction of pedestrian movement is likely to change, such as the corners of corridors and doorways. As a result, the trajectories can be connected in sections where the amount of change in the trajectory is small, and the accuracy of coordinate alignment can be improved.

なお、センサを設置後、システム運用の途中でセンサの向きや位置にズレが生じると、隣接する撮影領域間で表示される距離画像や輝度画像が不連続になってしまう。これに対応するため、定期的にセンサ設置状態を確認し、センサの向きや位置にズレが発生している場合には自動補正を行うか、またはユーザに警告することが望ましい。その際の確認方法は、再度移動体(作業者)の軌跡を取得して上記した軌跡連結処理を行ってもよいが、簡便な方法として、撮影空間を歩行する任意の人物の軌跡を捉えて上記の軌跡連結処理を行うこともできる。 After the sensor is installed, if the orientation or position of the sensor is misaligned during system operation, the distance image and luminance image displayed between adjacent imaging areas will become discontinuous. In order to deal with this, it is desirable to periodically check the installation state of the sensor and, if there is a deviation in the direction or position of the sensor, perform automatic correction or warn the user. As a confirmation method at that time, the trajectory of the moving object (worker) may be acquired again and the trajectory connection process described above may be performed. The trajectory linking process described above can also be performed.

実施例1によれば、複数のセンサのキャリブレーション(座標合わせ)のために移動体(作業者)の移動軌跡を利用するので、測定空間に専用のマーカを配置する必要がなく、センサの設置作業を容易に行うことができるという効果がある。 According to the first embodiment, since the movement trajectory of the moving body (worker) is used for the calibration (coordinate matching) of a plurality of sensors, there is no need to arrange a dedicated marker in the measurement space, and the sensors can be installed. There is an effect that the work can be easily performed.

ここで、移動体の検出をより確実に行うための方法を説明する。移動体が人物であれば、ある特定の姿勢もしくはジェスチャを継続しながら移動することで、人物の姿勢やジェスチャを識別することで、検出対象の人物を特定できる。よって、撮影範囲に複数の人物が映り込む状況でも、移動体の軌跡の取得と座標合わせ処理が可能となる。特定の姿勢やジェスチャとは、例えば、両手を上げたまま移動する、腰に手を当てた状態で移動する、足元を見たまま移動する、などである。これらは移動開始時に取り決めて初期状態として設定すればよく、柔軟に対応が可能である。 Here, a method for more reliably detecting a moving object will be described. If the moving object is a person, the person to be detected can be identified by identifying the person's posture or gesture by moving while maintaining a specific posture or gesture. Therefore, it is possible to acquire the trajectory of the moving body and coordinate matching processing even in a situation where a plurality of persons are captured in the shooting range. Specific postures and gestures are, for example, moving with both hands raised, moving with hands on the waist, moving while looking at feet, and the like. These can be arranged and set as the initial state at the start of movement, and can be handled flexibly.

また、移動体(人物)がジェスチャを行う代わりに、移動体を特定するマーカを持つ、もしくは貼付ける方法でもよい。すなわち、頭部にヘルメットや帽子など形状に特徴のあるものを装着して移動する、球体のように形状に特徴のあるものを持って移動する、特定の表面形状(テクスチャ)をもったマーカを掲げて移動する、などである。例えばTOFセンサの場合は、赤外線光を照射しその反射光を検出するので、赤外光を高反射率で反射するテープを貼付したヘルメットや、高反射率のテープで模様を構成したマーカを用いるとよい。模様としては、例えば、バーコードやQRコード(登録商標)、もしくはアルファベットなどの文字や記号でもよい。 Alternatively, instead of the moving body (person) making a gesture, a method of having or pasting a marker identifying the moving body may be used. In other words, a marker with a specific surface shape (texture) can be used. Lifting and moving, etc. For example, in the case of a TOF sensor, infrared light is emitted and the reflected light is detected. Therefore, a helmet attached with a tape that reflects infrared light with high reflectance or a marker with a pattern made of high reflectance tape is used. Good. The pattern may be, for example, a bar code, a QR code (registered trademark), or letters or symbols such as alphabets.

実施例2では、実施例1における床面検出処理の変形例について説明する。センサシステム1の構成要素は図1Bと同じであり、センサ11a,11bおよびセンサ連携処理装置12のブロック図は図2、図3と同じである。実施例1の床面検出処理(図5A~図5E)を、以下のように置き換える。 Embodiment 2 describes a modification of the floor surface detection process in Embodiment 1. FIG. The components of the sensor system 1 are the same as in FIG. 1B, and the block diagrams of the sensors 11a and 11b and the sensor cooperation processing device 12 are the same as in FIGS. The floor surface detection processing (FIGS. 5A to 5E) of the first embodiment is replaced as follows.

図12Aは、床面検出処理(S400)のフローチャートである。実施例1における床面検出処理(S200)を置き換えたもので、図5A内の平面検出の工程(S210)を省略している。 FIG. 12A is a flowchart of floor surface detection processing (S400). This replaces the floor detection process (S200) in the first embodiment, and omits the plane detection process (S210) in FIG. 5A.

S410は、移動体の軌跡を検出する処理であり、図5A内の軌跡検出処理(S220)と同じである。その詳細は実施例1の図5Dで説明した。
S420では、S410で取得した移動体の軌跡と点群が平行かどうかを判定する。
S410 is processing for detecting the trajectory of the moving object, which is the same as the trajectory detection processing (S220) in FIG. 5A. Details thereof have been described in FIG. 5D of the first embodiment.
In S420, it is determined whether or not the trajectory of the moving object acquired in S410 and the point group are parallel.

図12Bは、図12Aにおける平行判定処理(S420)の詳細フローチャートである。これは、実施例1の図5Eの平行判定処理(S230)に対応している。
S421では、S410で取得した移動体の軌跡を、ある方向に、ある距離だけ平行移動させる。
FIG. 12B is a detailed flowchart of the parallel determination process (S420) in FIG. 12A. This corresponds to the parallel determination process (S230) in FIG. 5E of the first embodiment.
In S421, the trajectory of the moving object obtained in S410 is translated in a certain direction by a certain distance.

S422では、S421で移動させた軌跡と点群とのマッチング、すなわち、点群と軌跡との距離を演算する。
S423では、S421とS422の工程を、全ての方向と全ての距離の組み合わせ(パターン)について演算したかどうかを判定する。全パターンが終了したら(Yes)、S424に進む。終了していなければ(No)、S421に戻り上記工程を繰り返す。
In S422, the trajectory moved in S421 is matched with the point group, that is, the distance between the point group and the trajectory is calculated.
In S423, it is determined whether or not the steps of S421 and S422 have been calculated for all combinations (patterns) of all directions and all distances. If all patterns are completed (Yes), the process proceeds to S424. If not completed (No), return to S421 and repeat the above steps.

S424では、最もマッチングが良かった平行移動の方向を鉛直方向とみなし、最もマッチングが良かった点群の領域を床面とみなす。 In S424, the direction of parallel movement with the best matching is regarded as the vertical direction, and the region of the point cloud with the best matching is regarded as the floor surface.

実施例1では、平面を検出することで床面とみなしていたが、実施例2では、床面が平面でない場合でも、床面と平行に人が移動するという特徴をもとに、鉛直方向と床面の検出が可能となる。 In the first embodiment, the floor is regarded as being detected by detecting a flat surface. In the second embodiment, however, even if the floor is not flat, based on the feature that a person moves parallel to the floor, the vertical direction is detected. and the floor surface can be detected.

実施例3では、自動車などの車両に複数のセンサを設置し、車外の歩行者や他車を測距する場合について説明する。 In the third embodiment, a case will be described in which a plurality of sensors are installed in a vehicle such as an automobile, and distances to pedestrians and other vehicles outside the vehicle are measured.

図13Aは、実施例3に係るセンサシステム1’の外観図である。センサシステム1’において、車両7の前面には、2個のセンサ11a,11bを設置し、前方の路面6上の検出対象物体(例えば歩行者3)を撮影し、距離画像を生成する。各センサによる撮影領域2a,2bはほぼ一致するようセンサの方向が調整されている。各センサ11a,11bはネットワーク13を介して、車両7に搭載されたセンサ連携処理装置12と表示装置10に接続されている。車両7が走行中に、表示装置10には車外の歩行者や他車の距離画像を表示し、運転者に提供する。 FIG. 13A is an external view of a sensor system 1' according to Example 3. FIG. In the sensor system 1', two sensors 11a and 11b are installed on the front of the vehicle 7 to capture an object to be detected (for example, the pedestrian 3) on the road surface 6 in front to generate a range image. The directions of the sensors are adjusted so that the areas 2a and 2b photographed by each sensor are substantially aligned. Each of the sensors 11 a and 11 b is connected to a sensor cooperative processing device 12 and a display device 10 mounted on the vehicle 7 via a network 13 . While the vehicle 7 is running, the display device 10 displays a distance image of pedestrians and other vehicles outside the vehicle and provides it to the driver.

図13Bは、センサシステム1’の構成を示すブロック図である。基本構成は図1Bのセンサシステム1と同じであるが、センサ連携処理装置12においては、床面ではなく路面の検出と軌跡重畳処理を行う。実施例3では、各センサによる撮影領域2a,2bがほぼ一致しているので、座標合わせの処理では、移動体の軌跡全体が一致するように座標変換を行う。これを「軌跡重畳処理」と呼ぶことにする。センサ11a,11bとセンサ連携処理装置12の構成は、実施例1の図2、図3と同様である。 FIG. 13B is a block diagram showing the configuration of the sensor system 1'. The basic configuration is the same as that of the sensor system 1 of FIG. 1B, but in the sensor cooperation processing device 12, detection of the road surface instead of the floor surface and trajectory superimposition processing are performed. In the third embodiment, since the regions 2a and 2b photographed by the respective sensors are substantially the same, coordinate conversion is performed in the process of coordinate matching so that the entire trajectory of the moving object is the same. This is called "trajectory superimposition processing". The configurations of the sensors 11a and 11b and the sensor cooperation processing device 12 are the same as those shown in FIGS. 2 and 3 of the first embodiment.

次いで、実施例3のセンサシステム1’における座標合わせ処理、すなわち、路面検出処理と軌跡重畳処理について説明する。
まず、路面検出処理は、実施例1における床面検出処理と同様に行う。すなわち、図5A~5Eのフローチャートにおいて、「床面」を「路面」に読み替えればよい。あるいはその変形例として、実施例2の図12A~12Bのフローチャートに従ってもよい。
Next, the coordinate matching process in the sensor system 1' of the third embodiment, that is, the road surface detection process and the trajectory superimposition process will be described.
First, the road surface detection process is performed in the same manner as the floor surface detection process in the first embodiment. That is, in the flowcharts of FIGS. 5A to 5E, "floor surface" should be read as "road surface". Alternatively, as a modification thereof, the flow charts of FIGS. 12A to 12B of the second embodiment may be followed.

次に軌跡重畳処理では、2個のセンサ11a,11bで同時に検出されたそれぞれの軌跡の位置と方向を一致させるように座標変換する。具体的には、検出した1本の軌跡の出現時のベクトルと消失時のベクトルを求め、それぞれのベクトルが2個のセンサ間で一致するように座標変換する。 Next, in the trajectory superimposing process, coordinate transformation is performed so that the positions and directions of the trajectories simultaneously detected by the two sensors 11a and 11b are matched. Specifically, a vector at the time of appearance and a vector at the time of disappearance of one detected trajectory are obtained, and coordinate transformation is performed so that the respective vectors match between the two sensors.

図14Aは、軌跡重畳処理(S500)のフローチャートである。このうち、S510~S530は図6Aと同様であり、簡単に説明する。
S510では、作業者は、車両に複数のセンサ11a,11bを、撮影領域がほぼ一致するように設置する
S520では、各センサにて路面検出処理(図5Aのフロー)を行い、各センサの路面からの設置高さや向きなどの自己位置を取得する。
FIG. 14A is a flow chart of the trajectory superimposition process (S500). Of these, S510 to S530 are the same as in FIG. 6A, and will be briefly described.
In S510, the operator installs a plurality of sensors 11a and 11b on the vehicle so that the photographing areas substantially match. Get self-location such as installation height and orientation from

S530では、移動体(作業者)が路面を歩行して移動体軌跡検出を行う。移動体軌跡検出の詳細は図6Bに説明した通りであるが、実施例3では、移動体は各センサの撮影範囲を超えるように移動し、得られる軌跡が複数に分断されるようにする。
S540では、S530で得られた軌跡を重畳する処理、すなわち座標変換処理を行う。この処理は図6AのS340(図6C)と異なっている。
In S530, the moving body (worker) walks on the road surface and the moving body trajectory is detected. Details of moving object trajectory detection are as described in FIG. 6B, but in the third embodiment, the moving object moves beyond the imaging range of each sensor, and the obtained trajectory is divided into a plurality of pieces.
In S540, a process of superimposing the trajectory obtained in S530, that is, a coordinate conversion process is performed. This process differs from S340 of FIG. 6A (FIG. 6C).

図14Bは、座標変換処理(S540)の詳細フローチャートである。ここでは、S530で得られた各センサの軌跡を、ずれが最少となるように重畳するための座標変換のパラメータを取得する。 FIG. 14B is a detailed flowchart of the coordinate conversion process (S540). Here, parameters for coordinate transformation for superimposing the trajectories of each sensor obtained in S530 so as to minimize the shift are acquired.

S541では、2個のセンサ11a,11bにて同時刻に取得された2つの軌跡に対し、軌跡が出現する時のベクトルと軌跡が消失する時のベクトルを対とするベクトル(以下、特徴ベクトルと呼ぶ)を生成する。つまり特徴ベクトルは、分断された軌跡の両端におけるベクトルの組である。
S542では、S541で得られた2個のセンサ11a,11bの特徴ベクトルが、位置と方向が一致するように、いずれか一方の軌跡を座標変換する。座標変換では、座標軸の平行移動と回転を行う。
In S541, for two trajectories acquired at the same time by the two sensors 11a and 11b, a vector paired with a vector when the trajectory appears and a vector when the trajectory disappears (hereinafter referred to as a feature vector) is generated. call). That is, the feature vector is the set of vectors at both ends of the segmented trajectory.
In S542, one of the trajectories is coordinate-transformed so that the feature vectors of the two sensors 11a and 11b obtained in S541 match in position and direction. Coordinate transformation involves translation and rotation of coordinate axes.

S543では、S542での座標変換により2つの特徴ベクトルが一致したかどうかを判定する。一致していれば(Yes)、S545へ進む。一致しなければ(No)、S544へ進み、座標合わせ処理が失敗した旨のエラー警告とセンサ設置支援情報の表示を行う。エラー警告とセンサ設置支援情報については、実施例1での説明と同様である。
S545では、重畳処理が未実施の軌跡が残っているかを判定する。残りの軌跡があれば、S541以降の処理を繰り返し、残っていなければ終了する。
In S543, it is determined whether or not the two feature vectors match due to the coordinate transformation in S542. If they match (Yes), the process proceeds to S545. If they do not match (No), the process advances to S544 to display an error warning indicating that the coordinate matching process has failed and sensor installation support information. The error warning and sensor installation support information are the same as those described in the first embodiment.
In S545, it is determined whether or not there remains a trajectory that has not been superimposed. If there is a remaining trajectory, the processing after S541 is repeated, and if there is no remaining trajectory, the process ends.

次に、複数のセンサの具体的な設置状態を例に挙げて、座標変換処理(S542)を具体的に説明する。
まず、センサの設置状態として、座標変換処理(S542)における座標回転変換が不要な場合から説明する。すなわち、回転変換処理を行わなくとも、2個のセンサの軌跡が重畳している場合である。
Next, the coordinate conversion process (S542) will be described in detail, taking a specific installation state of a plurality of sensors as an example.
First, a case where the sensor installation state does not require coordinate rotation conversion in the coordinate conversion process (S542) will be described. In other words, this is the case where the trajectories of the two sensors are superimposed even without performing the rotation conversion process.

図15Aは、回転変換が不要な設置状態の撮影空間を示す図である。(a)は側面図、(b)は平面図である。ここでの表示はワールド座標で表示している。X軸が車体幅方向、Y軸が車体前方、Z軸が車体上下方向で、XY面が路面となる。 FIG. 15A is a diagram showing an imaging space in an installation state that does not require rotation conversion. (a) is a side view, and (b) is a plan view. The display here is in world coordinates. The X axis is the width direction of the vehicle body, the Y axis is the front of the vehicle body, the Z axis is the vertical direction of the vehicle body, and the XY plane is the road surface.

2個のセンサ11a,11bは、車体に同じ高さで互いに向き合うように、X軸方向に所定距離Xoだけ平行移動して設置されている。言い換えれば、2個のセンサ11a,11bの設置位置をワールド座標で表記すれば、X座標は距離Xoだけずれた位置、Y座標とZ座標は双方同じ位置である。また、2個のセンサ11a,11bの設置方向(撮影方向)は、YZ面に関して対称に向き合う方向であり、ワールド座標とローカル座標とのY軸が一致している。これにより、センサ11aの撮影空間(画角41aと撮影平面42aで囲まれた空間)と、センサ11bの撮影空間(画角41bと撮影平面42bで囲まれた空間)は重なり、路面上での撮影平面42a,42bは一致している。そして、いずれのセンサ11a,11bの撮影空間も、検出対象物の存在する検出対象領域40(1点鎖線)をカバーしている状態である。 The two sensors 11a and 11b are installed on the vehicle body so as to face each other at the same height and are parallel-moved by a predetermined distance Xo in the X-axis direction. In other words, if the installation positions of the two sensors 11a and 11b are expressed in world coordinates, the X coordinate is the position shifted by the distance Xo, and the Y and Z coordinates are the same position. The installation directions (imaging directions) of the two sensors 11a and 11b are directions facing each other symmetrically with respect to the YZ plane, and the Y axes of the world coordinates and the local coordinates match. As a result, the imaging space of the sensor 11a (the space surrounded by the angle of view 41a and the imaging plane 42a) and the imaging space of the sensor 11b (the space surrounded by the angle of view 41b and the imaging plane 42b) overlap. The imaging planes 42a and 42b are coincident. The imaging space of both sensors 11a and 11b covers the detection target area 40 (one-dot chain line) in which the detection target exists.

次に、座標変換処理(設置情報の生成)について説明する。
図15Bは、図15Aの設置状態における作業者の軌跡を示す図である。(a)は撮影空間の平面図、(b)は作業者の軌跡を拡大した図である。ここでの表示はローカル座標系に従っている。作業者が検出対象領域40を移動するとき、撮影平面42a及び42bにおける軌跡を、符号50a,50bで示している。作業者は矢印で示すように、センサ11aによる撮影平面42aの左端境界から出現し、X軸右方向へ移動し、撮影平面42aの右端境界から消失する。これと同時刻に、センサ11bによる撮影平面42bの左端境界から出現し、X軸右方向へ移動し、撮影平面42bの右端境界から消失する。ここで、わずかにY軸方向に蛇行しながら移動したとする。
Next, coordinate conversion processing (generation of installation information) will be described.
FIG. 15B is a diagram showing the trajectory of the worker in the installation state of FIG. 15A. (a) is a plan view of an imaging space, and (b) is an enlarged view of a worker's trajectory. The display here follows the local coordinate system. When the operator moves in the detection target area 40, trajectories on the imaging planes 42a and 42b are indicated by reference numerals 50a and 50b. As indicated by the arrow, the operator emerges from the left end boundary of the imaging plane 42a by the sensor 11a, moves in the right direction of the X axis, and disappears from the right end boundary of the imaging plane 42a. At the same time, it appears from the left end boundary of the imaging plane 42b by the sensor 11b, moves in the X-axis right direction, and disappears from the right end boundary of the imaging plane 42b. Here, it is assumed that the object slightly meanders in the Y-axis direction.

図に示した通り、センサ11a及び11bのローカル座標軸(Y座標、Z座標およびX軸方向)が揃っているため、軌跡50a,50bは、撮影平面42aと42bにて完全に一致している、という様子が見て取れる。(なお、図面では2つの軌跡50a,50bを区別するため、わずかにずらして記述しているが、実際は一致している)。 As shown in the figure, since the local coordinate axes (Y coordinate, Z coordinate and X axis direction) of the sensors 11a and 11b are aligned, the trajectories 50a and 50b completely match on the imaging planes 42a and 42b. You can see the situation. (In the drawing, the two trajectories 50a and 50b are shown slightly shifted in order to distinguish them, but they actually match).

前述の座標変換の工程(図14BのS542)では、軌跡50aの特徴ベクトル(出現時の52aと消失時の53aの組)の方向と、軌跡50bの特徴ベクトル(出現時の52bと消失時の53bの組)の方向から、センサ11a及び11bの座標系の回転角度を定量的な情報として生成する。つまりセンサシステム1’は設置作業者へ、センサ11a及び11bの撮影平面両端における特徴ベクトル52a,53a及び特徴ベクトル52b,53bの情報(角度ずれ)を提示する。本例では、両者の特徴ベクトルが一致しており、角度ずれは0(座標回転不要)となる。これにより設置作業者は、センサ11a及び11bの設置状態が意図通り(位置・角度ずれなし)であることを定量的に確認し、設置作業を完了する。 In the step of coordinate transformation described above (S542 in FIG. 14B), the direction of the feature vector of the trajectory 50a (a pair of 52a at the time of appearance and 53a at the time of disappearance) and the feature vector of the trajectory 50b (52b at the time of appearance and 53a at the time of disappearance 53b), the rotation angle of the coordinate system of the sensors 11a and 11b is generated as quantitative information. That is, the sensor system 1' presents information (angular deviation) of the feature vectors 52a and 53a and the feature vectors 52b and 53b at both ends of the imaging planes of the sensors 11a and 11b to the installation operator. In this example, both feature vectors match, and the angle deviation is 0 (no coordinate rotation required). Accordingly, the installation worker quantitatively confirms that the installation state of the sensors 11a and 11b is as intended (no deviation in position and angle), and completes the installation work.

次に、座標回転変換が必要となる設置状態の場合について説明する。
図16Aは、回転変換が必要な設置状態の撮影空間を示す図である。(a)は側面図、(b)は平面図である。ここでの表示はワールド座標で表示している。前記図15Aの設置状態と異なり、2個のセンサ11a,11bの設置位置と設置方向(撮影方向)がずれている。すなわち、両者の設置位置はX軸方向に距離Xoだけずれるとともに、Y軸方向に距離Yoだけずれている。また、設置方向も異なっており、センサ11aはセンサ11bに対して、X軸がZ軸の周りに角度θだけ回転した状態となっている。その結果、撮影平面42aと42bの方向が揃わず、両者の外周線が非平行になっている。
Next, an installation state that requires coordinate rotation transformation will be described.
FIG. 16A is a diagram showing an imaging space in an installation state that requires rotation conversion. (a) is a side view, and (b) is a plan view. The display here is in world coordinates. Unlike the installation state shown in FIG. 15A, the installation positions and installation directions (shooting directions) of the two sensors 11a and 11b are shifted. That is, the installation positions of the two are shifted in the X-axis direction by a distance Xo and in the Y-axis direction by a distance Yo. Moreover, the installation directions are also different, and the sensor 11a is in a state where the X axis is rotated by an angle θ about the Z axis with respect to the sensor 11b. As a result, the directions of the photographing planes 42a and 42b are not aligned, and the peripheral lines of both are non-parallel.

図16Bは、図16Aの設置状態における作業者の軌跡を示す図である。(a)は撮影空間の平面図、(b)は軌跡を拡大した図である。ここでの表示はそれぞれのセンサのローカル座標の方向で表示しており、撮影平面42a,42bの領域が平行で一致するよう配置して示す。2つの軌跡50a,50bは撮影平面内で一致せず、軌跡50aの特徴ベクトル52a,53aと軌跡50bの特徴ベクトル52b,53bの方向は、角度θだけずれている。
このときセンサシステム1’は、センサの設置情報として、両端部の特徴ベクトルの角度ずれθが存在することを知らせ、この角度ずれを座標変換工程(S542)で自動的に補正する。
FIG. 16B is a diagram showing the trajectory of the worker in the installation state of FIG. 16A. (a) is a plan view of an imaging space, and (b) is an enlarged view of the trajectory. The display here is in the direction of the local coordinates of each sensor, and the areas of the imaging planes 42a and 42b are arranged so as to be parallel and coincide. The two trajectories 50a and 50b do not match in the imaging plane, and the directions of the feature vectors 52a and 53a of the trajectory 50a and the feature vectors 52b and 53b of the trajectory 50b are shifted by an angle θ.
At this time, the sensor system 1′ notifies as sensor installation information that there is an angular deviation θ between the feature vectors at both ends, and automatically corrects this angular deviation in the coordinate conversion step (S542).

図16Cは、図16Bの軌跡を座標変換により補正した後の状態を示す図である。(a)は撮影空間の平面図、(b)は軌跡を拡大した図である。ここでは、2個のセンサに共通なワールド座標で表示している。センサ11aのローカル座標を図16Bに示す角度θだけ回転させること、すなわち、撮影平面42aを撮影平面42a’に回転させることで、ワールド座標において、センサ11aにおける軌跡50a’(特徴ベクトル52a’,53a’)を、センサ11bの軌跡50b(特徴ベクトル52b,53b)に一致させることができる。 FIG. 16C is a diagram showing a state after the trajectory in FIG. 16B is corrected by coordinate transformation. (a) is a plan view of an imaging space, and (b) is an enlarged view of the trajectory. Here, the world coordinates common to the two sensors are displayed. By rotating the local coordinates of the sensor 11a by the angle θ shown in FIG. ') can be matched to the trajectory 50b (feature vectors 52b, 53b) of the sensor 11b.

ただし、座標変換で補正不可能な場合は、実施例1の図10Dや図11Dで示したようなエラー警告や、手動で調整するための支援情報を提供する。ユーザは提供された情報に基づいてセンサの設置方向や位置を修正することで、センサの設置調整作業を容易に実施できる。 However, if correction by coordinate conversion is not possible, an error warning as shown in FIGS. 10D and 11D of the first embodiment and support information for manual adjustment are provided. The user can easily perform sensor installation adjustment work by correcting the installation direction and position of the sensor based on the provided information.

実施例3において座標合わせ処理が失敗する理由として、2個のセンサの撮影範囲が大幅にずれていることが挙げられる。そのときには、設置されたセンサの視野(撮影範囲)のずれが大きすぎる旨を警告する。あるいは、移動体(作業者)の移動(歩行)の仕方に問題がある場合もある。例えば、長時間立ち止まったり、一直線に高速で駆け抜けたりした場合には、適切な速度で移動するよう警告を出す。また、道路のコーナーや交差点など、人の移動の向きが変わりやすい場所で実施することで、特徴的な軌跡を得ることができ、軌跡を一致させる処理が容易になる。よって、実施例1の場合とは異なり、移動の軌跡の変化量が多い条件で移動を行うように指示することで、軌跡重畳時の誤差を低減することができる。 One of the reasons why the coordinate matching process fails in the third embodiment is that the photographing ranges of the two sensors are largely out of alignment. At that time, a warning is issued to the effect that the deviation of the field of view (shooting range) of the installed sensor is too large. Alternatively, there may be a problem in how the moving body (worker) moves (walks). For example, if you stop for a long time or run in a straight line at high speed, you will be warned to move at an appropriate speed. In addition, by performing this process at places where the direction of movement of people is likely to change, such as road corners and intersections, characteristic trajectories can be obtained, facilitating the process of matching the trajectories. Therefore, unlike the case of the first embodiment, it is possible to reduce the error when superimposing the trajectory by instructing the movement to be performed under the condition that the amount of change in the trajectory of the movement is large.

なお、図15Aや図16Aの例では、2個のセンサ11a,11bの撮影方向はX軸方向に向き合う姿勢とし、検出対象領域40は2つのセンサに挟まれた領域とした。しかし、現実に車両の前方にいる歩行者等を検出する場合は、検出対象領域40はセンサの位置からY軸方向に離れた位置となる。この場合には、2個のセンサ11a,11bの撮影方向をY軸方向に所定角度だけ傾けて、斜め方向に向き合う姿勢で設置すればよい。そして、YZ面に関し対称にセンサを設置した状態を基準として、2個のセンサの座標合わせを行えばよい。 In the examples of FIGS. 15A and 16A, the imaging directions of the two sensors 11a and 11b are set to face each other in the X-axis direction, and the detection target area 40 is an area sandwiched between the two sensors. However, when actually detecting a pedestrian or the like in front of the vehicle, the detection target area 40 is located away from the position of the sensor in the Y-axis direction. In this case, the photographing directions of the two sensors 11a and 11b may be tilted in the Y-axis direction by a predetermined angle so that they face each other obliquely. Then, the coordinates of the two sensors may be adjusted based on the state in which the sensors are installed symmetrically with respect to the YZ plane.

実施例3おいても、実施例1と同様に、複数のセンサのキャリブレーション(座標合わせ)のために移動体(作業者)の移動軌跡を利用するので、センサの設置作業を容易に行うことができるという効果がある。 In the third embodiment, as in the first embodiment, the movement trajectory of the moving body (worker) is used for the calibration (coordinate matching) of a plurality of sensors, so that the sensor installation work can be easily performed. has the effect of being able to

さらに実施例3のセンサシステムは、同一の測定空間を複数のセンサで検出する構成であるので、測定空間に存在する物体を死角なしで検出することが可能である。また、センサとして異種の検出方式を組み合わせることが可能となる。すなわちTOFセンサだけでなく、例えば、スキャン型のレーザレーダ、ステレオカメラ、ミリ波レーダなど、測距が可能なセンサであればどの組み合わせでも使用でき、座標合わせを行うとともに距離画像を生成することができる。 Furthermore, since the sensor system of Example 3 is configured to detect the same measurement space with a plurality of sensors, it is possible to detect an object existing in the measurement space without blind spots. In addition, it becomes possible to combine different types of detection methods as sensors. In other words, not only the TOF sensor but also any combination of sensors capable of distance measurement, such as scanning laser radar, stereo camera, millimeter wave radar, etc., can be used to coordinate coordinates and generate a range image. can.

さらには、組み合わせる一方のセンサが測距センサ以外の場合でも、予めそのセンサから得られる非距離データに対応する空間座標情報を保持しておけば、距離データに換算できるので問題ない。あるいは、非測距センサから得られる非距離データに対して、機械学習や深層学習などの手法で距離情報を推定できることから、測距センサ同士の組み合わせと同様に、座標合わせを行うとともに距離画像を生成することができる。 Furthermore, even if one of the sensors to be combined is not a distance measuring sensor, if spatial coordinate information corresponding to non-distance data obtained from that sensor is held in advance, it can be converted into distance data, so there is no problem. Alternatively, since distance information can be estimated by methods such as machine learning and deep learning for non-distance data obtained from non-ranging sensors, coordinate matching is performed and range images are generated in the same way as when combining ranging sensors. can be generated.

このように、異種の検出方式のセンサを組み合わせることにより、対象物体の種類や測定環境(温度、明るさ、距離)に応じて最適なセンサに切り替えることができ、センサシステムの測定精度が向上するという効果がある。 In this way, by combining sensors with different types of detection methods, it is possible to switch to the optimum sensor according to the type of target object and the measurement environment (temperature, brightness, distance), improving the measurement accuracy of the sensor system. has the effect of

1,1’…センサシステム、
10…表示装置、
11…センサ(測距センサ)、
12…センサ連携処理装置、
21…発光部、
22…受光部、
23…距離画像生成部、
24…輝度画像生成部、
35…演算処理部、
40…検出対象領域、
42…撮影平面、
50…移動体の軌跡、
51~53…ベクトル、
90~92…エラー情報、
95…設置支援情報。
1, 1' ... sensor system,
10... display device,
11... sensor (ranging sensor),
12 ... sensor cooperation processing device,
21... Light-emitting part,
22... Light receiving part,
23 ... distance image generator,
24... Luminance image generator,
35... Arithmetic processing unit,
40 ... detection target area,
42... Imaging plane,
50... Trajectory of moving body,
51 to 53... vector,
90 to 92... error information,
95: Installation support information.

Claims (11)

複数のセンサを設置し検出対象領域内の検出対象物までの距離を測定して距離画像を生成するセンサシステムにおいて、
それぞれの前記検出対象領域が互いに隣接するように設置された前記複数のセンサからの距離画像を合成するために、前記センサ間の座標合わせ処理を行うセンサ連携処理装置と、
生成した距離画像を表示する表示装置と、を備え、
前記複数のセンサのそれぞれの前記検出対象領域に含まれる床面の領域である複数の撮影平面は、互いに隣接する前記撮影平面間の境界が接した状態で連続に配置され、
前記センサ連携処理装置は、前記センサ間の座標合わせ処理を行うため、前記複数のセンサにより人が前記検出対象領域内の前記床面上を移動するときに前記センサによって検出された前記人までの距離から得られる点群データに基づく前記人の所定位置を時系列に並べることによって、前記人の所定位置の動きを表す軌跡を示す軌跡データを取得し、隣接する前記検出対象領域の境界において、各センサで検出した前記撮影平面における前記軌跡の端の位置のずれ及び当該軌跡の方向のずれをなくすように各センサの検出座標を座標の回転及び平行移動により変換することを特徴とするセンサシステム。
In a sensor system that installs multiple sensors and measures the distance to a detection target within a detection target area to generate a range image,
a sensor cooperation processing device that performs coordinate matching processing between the sensors in order to synthesize distance images from the plurality of sensors installed so that the respective detection target areas are adjacent to each other;
a display device for displaying the generated distance image,
a plurality of imaging planes, which are areas of the floor surface included in the detection target area of each of the plurality of sensors, are arranged continuously with boundaries between the imaging planes adjacent to each other being in contact with each other;
In order to perform coordinate matching processing between the sensors, the sensor-coordinated processing device performs a coordinate matching process between the sensors, so that when the person moves on the floor surface within the detection target area by the plurality of sensors, the sensor-coordinated processing device detects the distance to the person detected by the sensors. By arranging the predetermined positions of the person based on the point cloud data obtained from the distance in time series, trajectory data indicating the trajectory representing the movement of the predetermined position of the person is acquired, and at the boundary of the adjacent detection target area, A sensor system characterized by transforming coordinates detected by each sensor by rotating and translating the coordinates so as to eliminate deviations in the positions of the ends of the trajectory and deviations in the direction of the trajectory on the imaging plane detected by each sensor. .
請求項1に記載のセンサシステムにおいて、
前記センサ連携処理装置は、
隣接する前記検出対象領域の境界において、撮影側面における前記人の高さを規定する前記所定位置の動きを表す前記軌跡の端の位置のずれをなくすように、各センサの検出座標を座標の平行移動により変換することを特徴とするセンサシステム。
The sensor system of claim 1, wherein
The sensor cooperation processing device is
At the boundaries of the adjacent detection target areas, the detection coordinates of each sensor are parallel to each other so as to eliminate positional deviation of the end of the locus representing the movement of the predetermined position defining the height of the person on the side surface of the image. A sensor system characterized by converting by movement.
請求項1に記載のセンサシステムにおいて、
前記センサ連携処理装置は、前記センサ間の座標合わせ処理を行うため、各センサにより前記検出対象領域内の床面を検出することを特徴とするセンサシステム。
The sensor system of claim 1, wherein
A sensor system, wherein the sensor cooperation processing device detects a floor surface within the detection target area by each sensor in order to perform coordinate matching processing between the sensors.
請求項3に記載のセンサシステムにおいて、
前記センサ連携処理装置は、前記床面を検出するために、各センサにより前記検出対象領域内の距離データと、前記検出対象領域内を移動する前記人の前記軌跡データを取得し、前記距離データの成す平面のうち、前記軌跡データの成す面と平行な面を前記床面と判定することを特徴とするセンサシステム。
In the sensor system of claim 3,
In order to detect the floor surface, the sensor-coordinated processing device acquires distance data within the detection target area and the trajectory data of the person moving within the detection target area using each sensor, and extracts the distance data. and determining a plane parallel to the plane formed by the locus data as the floor surface.
請求項3に記載のセンサシステムにおいて、
前記センサ連携処理装置は、前記床面を検出するために、各センサにより前記検出対象領域内を移動する前記人の前記軌跡データを取得し、前記軌跡データの成す面と平行な面を前記床面と判定することを特徴とするセンサシステム。
In the sensor system of claim 3,
In order to detect the floor surface, the sensor cooperation processing device obtains the trajectory data of the person moving within the detection target area using each sensor, and detects a plane parallel to a plane formed by the trajectory data. A sensor system characterized by determining a plane.
請求項1に記載のセンサシステムにおいて、
前記センサ連携処理装置は、前記センサ間の座標合わせ処理を行うときの補正情報として、補正するセンサ名とその回転角度または平行移動量を前記表示装置に表示することを特徴とするセンサシステム。
The sensor system of claim 1, wherein
The sensor cooperation processing device displays, on the display device, the name of the sensor to be corrected and its rotation angle or translation amount as correction information when performing coordinate matching processing between the sensors.
請求項1に記載のセンサシステムにおいて、
前記センサ連携処理装置は、前記センサ間の座標合わせ処理が不可能な場合、ユーザが手動で調整する際のセンサ設置支援情報として、調整すべきセンサ名とその回転角度または平行移動量を前記表示装置に表示することを特徴とするセンサシステム。
The sensor system of claim 1, wherein
When the coordinate matching process between the sensors cannot be performed, the sensor cooperation processing device displays the name of the sensor to be adjusted and its rotation angle or translation amount as sensor installation support information when the user performs manual adjustment. A sensor system characterized by displaying on a device.
それぞれの検出対象領域が互いに隣接するように設置され設置位置が異なる複数のセンサであって、それぞれの前記検出対象領域に含まれる床面の領域である複数の撮影平面が、互いに隣接する前記撮影平面間の境界が接した状態で連続に配置される前記複数のセンサにより測定された前記検出対象領域内の距離データを連携して処理するセンサ連携処理装置において、
前記複数のセンサ間の座標合わせ処理を行うとともに、各センサからの距離データを合成する演算処理部を有し、
前記演算処理部は、前記センサ間の座標合わせ処理を行うため、前記複数のセンサにより人が前記検出対象領域内の前記床面上を移動するときに前記センサによって検出された前記人までの距離から得られる点群データに基づく前記人の所定位置を時系列に並べることによって、前記人の所定位置の動きを表す軌跡を示す軌跡データを取得し、隣接する前記検出対象領域の境界において、各センサで検出した前記撮影平面における前記軌跡の端の位置のずれ及び当該軌跡の方向のずれをなくすように各センサの検出座標を座標の回転及び平行移動により変換するときの各センサの座標変換パラメータを定めることを特徴とするセンサ連携処理装置。
A plurality of sensors installed so that respective detection target areas are adjacent to each other and installation positions are different, wherein a plurality of imaging planes, which are areas of the floor surface included in the respective detection target areas, are adjacent to each other. A sensor cooperation processing device that cooperatively processes distance data within the detection target area measured by the plurality of sensors that are continuously arranged with the boundaries between the planes in contact with each other,
Having an arithmetic processing unit that performs coordinate matching processing between the plurality of sensors and synthesizes distance data from each sensor,
In order to perform coordinate matching processing between the sensors, the arithmetic processing unit calculates the distance to the person detected by the sensors when the person moves on the floor surface in the detection target area by the plurality of sensors. By arranging the predetermined positions of the person based on the point cloud data obtained from from the Coordinate transformation parameters of each sensor when transforming the coordinates detected by each sensor by rotating and translating the coordinates so as to eliminate the positional deviation of the end of the trajectory and the deviation of the direction of the trajectory on the imaging plane detected by the sensor. A sensor-coordinated processing device characterized by defining
請求項8に記載のセンサ連携処理装置において、
前記演算処理部は、前記センサ間の座標合わせ処理を行う際、各センサで検出した前記人の前記軌跡が前記検出対象領域に出現するときの前記軌跡の端の接線ベクトル、または前記検出対象領域から消失するときの前記軌跡の端の接線ベクトルを求め、求めたベクトルの方向が各センサ間で一致するように各センサの座標変換パラメータを定めることを特徴とするセンサ連携処理装置。
In the sensor cooperation processing device according to claim 8,
When performing coordinate matching processing between the sensors, the arithmetic processing unit is configured to generate a tangent vector of an end of the trajectory detected by each sensor when the trajectory of the person appears in the detection target region, or a tangent vector of the detection target region. a tangential vector at the end of the trajectory when the trajectory disappears from the sensor, and determining coordinate transformation parameters of each sensor so that the directions of the obtained vectors match between the sensors.
複数のセンサをそれぞれの検出対象領域が互いに隣接し、それぞれの前記検出対象領域に含まれる床面の領域である複数の撮影平面が、互いに隣接する前記撮影平面間の境界が接した状態で連続に配置されるように設置し前記検出対象領域内の検出対象物までの距離を測定して距離画像を生成するための距離測定方法において、
前記複数のセンサにより人が前記検出対象領域内の前記床面上を移動するときに前記センサによって検出された前記人までの距離に基づく点群データに基づく前記人の所定位置を時系列に並べることによって、前記人の所定位置の動きを表す軌跡を示す軌跡データを取得するステップと、
隣接する前記検出対象領域の境界において、各センサで検出した前記撮影平面における前記軌跡の端の位置のずれ及び当該軌跡の方向のずれをなくすように各センサの検出座標を座標の回転及び平行移動により変換して前記センサ間の座標合わせを行うステップと、
座標合わせを行った状態で前記複数のセンサからの距離画像を合成して表示するステップと、
を備えることを特徴とする距離測定方法。
The detection target areas of the plurality of sensors are adjacent to each other, and the plurality of imaging planes, which are the areas of the floor surface included in the detection target areas, are continuous with the borders between the adjacent imaging planes being in contact with each other. In the distance measurement method for generating a distance image by measuring the distance to the detection target in the detection target area so as to be arranged in the detection target area,
Predetermined positions of the person based on point cloud data based on the distance to the person detected by the sensors when the person moves on the floor within the detection target area are arranged in chronological order. obtaining trajectory data indicating a trajectory representing the movement of the person at a predetermined position;
Coordinate rotation and parallel translation of the detection coordinates of each sensor so as to eliminate deviation of the position of the end of the trajectory on the imaging plane detected by each sensor and deviation of the direction of the trajectory on the boundary of the adjacent detection target areas. a step of performing coordinate alignment between the sensors by transforming by
a step of synthesizing and displaying distance images from the plurality of sensors in a state in which coordinates are aligned;
A distance measurement method comprising:
請求項10に記載の距離測定方法において、
隣接する前記検出対象領域の境界において、撮影側面における前記人の高さを規定する前記所定位置の動きを表す前記軌跡の端の位置のずれをなくすように、各センサの検出座標を座標の平行移動により変換して前記センサ間の座標合わせを行うステップを備えることを特徴とする距離測定方法。
In the distance measurement method according to claim 10 ,
At the boundaries of the adjacent detection target areas, the detection coordinates of each sensor are parallel to each other so as to eliminate positional deviation of the end of the locus representing the movement of the predetermined position defining the height of the person on the side surface of the image. A distance measuring method, comprising a step of performing coordinate matching between the sensors by transforming by movement.
JP2018247332A 2018-12-28 2018-12-28 Sensor system and distance measurement method Active JP7194015B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018247332A JP7194015B2 (en) 2018-12-28 2018-12-28 Sensor system and distance measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018247332A JP7194015B2 (en) 2018-12-28 2018-12-28 Sensor system and distance measurement method

Publications (2)

Publication Number Publication Date
JP2020106475A JP2020106475A (en) 2020-07-09
JP7194015B2 true JP7194015B2 (en) 2022-12-21

Family

ID=71450734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018247332A Active JP7194015B2 (en) 2018-12-28 2018-12-28 Sensor system and distance measurement method

Country Status (1)

Country Link
JP (1) JP7194015B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7452333B2 (en) 2020-08-31 2024-03-19 株式会社デンソー LIDAR correction parameter generation method, LIDAR evaluation method, and LIDAR correction device
WO2023278868A1 (en) * 2021-07-01 2023-01-05 Summer Robotics, Inc. Calibration of sensor position offsets based on rotation and translation vectors for matched trajectories
WO2023009755A1 (en) 2021-07-29 2023-02-02 Summer Robotics, Inc. Dynamic calibration of 3d acquisition systems
WO2023028226A1 (en) 2021-08-27 2023-03-02 Summer Robotics, Inc. Multi-sensor superresolution scanning and capture system
US11785200B1 (en) 2022-03-14 2023-10-10 Summer Robotics, Inc. Stage studio for immersive 3-D video capture

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346617A (en) 2004-06-07 2005-12-15 East Japan Railway Co Passer-by behavior analysis system
JP2007256091A (en) 2006-03-23 2007-10-04 Space Vision:Kk Method and apparatus for calibrating range finder
US20100253492A1 (en) 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Daytime pedestrian detection on full-windscreen head-up display
JP2014109464A (en) 2012-11-30 2014-06-12 Toshiba Corp Object measuring device and object measuring method
JP2016008875A (en) 2014-06-24 2016-01-18 株式会社リコー Distance measurement device
JP2018077196A (en) 2016-11-11 2018-05-17 スタンレー電気株式会社 Monitoring system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346617A (en) 2004-06-07 2005-12-15 East Japan Railway Co Passer-by behavior analysis system
JP2007256091A (en) 2006-03-23 2007-10-04 Space Vision:Kk Method and apparatus for calibrating range finder
US20100253492A1 (en) 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Daytime pedestrian detection on full-windscreen head-up display
JP2014109464A (en) 2012-11-30 2014-06-12 Toshiba Corp Object measuring device and object measuring method
JP2016008875A (en) 2014-06-24 2016-01-18 株式会社リコー Distance measurement device
JP2018077196A (en) 2016-11-11 2018-05-17 スタンレー電気株式会社 Monitoring system

Also Published As

Publication number Publication date
JP2020106475A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
JP7194015B2 (en) Sensor system and distance measurement method
US7684894B2 (en) Autonomously moving robot
US11022692B2 (en) Triangulation scanner having flat geometry and projecting uncoded spots
JP5043133B2 (en) Land recognition landmark for mobile robot, and position recognition apparatus and method using the same
TWI419081B (en) Method and system for providing augmented reality based on marker tracing, and computer program product thereof
EP2870428B1 (en) System and method for 3d measurement of the surface geometry of an object
JP3624353B2 (en) Three-dimensional shape measuring method and apparatus
CN110178156A (en) Range sensor including adjustable focal length imaging sensor
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
JP3690581B2 (en) POSITION DETECTION DEVICE AND METHOD THEREFOR, PLAIN POSITION DETECTION DEVICE AND METHOD THEREOF
KR101203816B1 (en) Robot fish localization system using artificial markers and method of the same
JP2019100985A (en) Three-dimensional information acquisition system
JP2022089269A (en) Calibration device and calibration method
JP5198078B2 (en) Measuring device and measuring method
US20220092345A1 (en) Detecting displacements and/or defects in a point cloud using cluster-based cloud-to-cloud comparison
US20220179083A1 (en) Cloud-to-cloud comparison using artificial intelligence-based analysis
Yun et al. Omnidirectional 3D point clouds using dual kinect sensors
JP6288770B2 (en) Face detection method, face detection system, and face detection program
US20230044371A1 (en) Defect detection in a point cloud
US20230186437A1 (en) Denoising point clouds
KR100698535B1 (en) Position recognition device and method of mobile robot with tilt correction function
WO2022078437A1 (en) Three-dimensional processing apparatus and method between moving objects
CN112304250B (en) Three-dimensional matching equipment and method between moving objects
JP2006227739A (en) Image processing device and image processing method
CN112257535B (en) Three-dimensional matching equipment and method for avoiding object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221209

R150 Certificate of patent or registration of utility model

Ref document number: 7194015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150