JP7411539B2 - Ranging system and its coordinate calibration method - Google Patents

Ranging system and its coordinate calibration method Download PDF

Info

Publication number
JP7411539B2
JP7411539B2 JP2020215824A JP2020215824A JP7411539B2 JP 7411539 B2 JP7411539 B2 JP 7411539B2 JP 2020215824 A JP2020215824 A JP 2020215824A JP 2020215824 A JP2020215824 A JP 2020215824A JP 7411539 B2 JP7411539 B2 JP 7411539B2
Authority
JP
Japan
Prior art keywords
detection frame
person
human detection
image
tof
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020215824A
Other languages
Japanese (ja)
Other versions
JP2022101310A (en
Inventor
誠二 稲葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi LG Data Storage Inc
Original Assignee
Hitachi LG Data Storage Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi LG Data Storage Inc filed Critical Hitachi LG Data Storage Inc
Priority to JP2020215824A priority Critical patent/JP7411539B2/en
Publication of JP2022101310A publication Critical patent/JP2022101310A/en
Application granted granted Critical
Publication of JP7411539B2 publication Critical patent/JP7411539B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、測距センサと撮像カメラを用いて対象物の距離画像を生成する測距システム及び測距センサと撮像カメラとの座標キャリブレーション方法に関する。 The present invention relates to a distance measurement system that generates a distance image of an object using a distance measurement sensor and an imaging camera, and a method for calibrating coordinates between the distance measurement sensor and the imaging camera.

光の伝達時間に基づいて対象物までの距離を測定する測距センサとして、TOFセンサ(TOF=タイム・オブ・フライト)が知られる。TOFセンサで取得した距離データを、距離画像として表示し、その時間変化を追跡することで、例えば人物等の移動経路(動線データ)を取得することができる。 A TOF sensor (TOF = time of flight) is known as a distance measuring sensor that measures the distance to an object based on the transmission time of light. By displaying distance data acquired by a TOF sensor as a distance image and tracking changes over time, it is possible to obtain, for example, a moving route (flow line data) of a person or the like.

TOFセンサは距離を正確に測定できるが、撮像カメラと比較すると解像度が低く白黒データ(IR輝度)であるため、人物の顔認証や属性情報などの画像解析には向いていない。そこで、TOFセンサと撮像カメラを組み合せ、TOFセンサで取得した距離画像に撮像カメラで取得した属性情報を重畳して表示する方式が提案されている。 TOF sensors can accurately measure distances, but compared to imaging cameras, they have lower resolution and black-and-white data (IR brightness), so they are not suitable for image analysis such as facial recognition and attribute information of people. Therefore, a method has been proposed in which a TOF sensor and an imaging camera are combined, and attribute information obtained by the imaging camera is superimposed and displayed on a distance image obtained by the TOF sensor.

TOFセンサと撮像カメラを連携して動作させるためには、両者が取得した対象物の位置データを一致させなければならない。すなわち、TOFセンサと撮像カメラとの間で座標や測定方向のずれを合わせるキャリブレーションが必要になる。 In order to operate the TOF sensor and the imaging camera in cooperation, the position data of the object acquired by both must match. That is, it is necessary to perform calibration to match deviations in coordinates and measurement directions between the TOF sensor and the imaging camera.

これに関し例えば特許文献1には、TOFカメラ(TOFセンサ)で取得された距離情報と、CCDカメラで取得した輝度情報とを統合して、オクルージョン領域の探索を行う撮像装置について記載されている。そして両者のキャリブレーションのため、TOFカメラで得られた距離画像及びCCDカメラで得られた輝度画像を用いて外部パラメータの推定を行う外部パラメータ推定部と、TOFカメラ及びCCDカメラのパラメータを用いて距離画像における画素位置と輝度画像における画素位置との対応関係を決定する対応画素決定部を備えることが述べられている。 Regarding this, for example, Patent Document 1 describes an imaging device that searches for an occlusion area by integrating distance information acquired by a TOF camera (TOF sensor) and brightness information acquired by a CCD camera. In order to calibrate both, there is an extrinsic parameter estimator that estimates extrinsic parameters using the distance image obtained by the TOF camera and the brightness image obtained by the CCD camera, and an extrinsic parameter estimation section that estimates the extrinsic parameters using the distance image obtained by the TOF camera and the brightness image obtained by the CCD camera, and the It is stated that the apparatus includes a corresponding pixel determination unit that determines the correspondence between pixel positions in a distance image and pixel positions in a brightness image.

特開2011-123071号公報Japanese Patent Application Publication No. 2011-123071

従来のキャリブレーション方法では、TOFセンサで検知した対象物の領域、例えば人物を囲う領域である人検知枠を撮像カメラで取得した対象物のカメラ画像へ重ねて表示する。作業者は、TOFセンサで検知した人検知枠がカメラ画像内の対象人物の位置に一致するよう、手動でキャリブレーション(カメラの座標や方向などのパラメータの変更)を行っていた。実際には、一旦人検知枠を一致させても人物の位置が移動するとずれることが多いので、人物が移動しながらキャリブレーションを繰り返して、最適なパラメータを探索しなければならない。そのためキャリブレーション作業を行うために、多くの時間を必要とした。 In a conventional calibration method, an area of the object detected by a TOF sensor, for example, a human detection frame that is an area surrounding a person, is displayed superimposed on a camera image of the object obtained by an imaging camera. The operator manually performed calibration (changing parameters such as camera coordinates and direction) so that the human detection frame detected by the TOF sensor matched the position of the target person in the camera image. In reality, even if the human detection frames are matched once, they often deviate if the person moves, so calibration must be repeated while the person moves to search for optimal parameters. Therefore, a lot of time was required to perform the calibration work.

一方特許文献1に記載のキャリブレーション方法では、TOFセンサの距離画像とCCDカメラの撮影画像を重ね合わせるため、外部パラメータ(回転、平行移動)と内部パラメータ(焦点距離、レンズ歪み係数、光学中心、画素サイズ)の値を推定して与えている。この場合、距離画像と撮影画像を画素単位で一致させるためには、これらのパラメータを極めて高精度に設定する必要があり、処理負荷が大きくさらに多くの時間を必要とすることが予想される。 On the other hand, in the calibration method described in Patent Document 1, in order to superimpose the distance image of the TOF sensor and the captured image of the CCD camera, external parameters (rotation, translation) and internal parameters (focal length, lens distortion coefficient, optical center, The value of pixel size) is estimated and given. In this case, in order to match the distance image and the photographed image pixel by pixel, it is necessary to set these parameters with extremely high precision, and it is expected that the processing load will be large and more time will be required.

また特許文献1の技術は、距離画像と撮影画像とが一致することが前提であるから、TOFセンサとCCDカメラは、対象物に対しほぼ同じ位置および方向に設置しなければならない。よって、例えばTOFセンサとCCDカメラとを対象物を挟んで対向して設置することはできない。 Further, since the technique of Patent Document 1 is based on the premise that the distance image and the photographed image match, the TOF sensor and the CCD camera must be installed at approximately the same position and direction with respect to the object. Therefore, for example, a TOF sensor and a CCD camera cannot be installed facing each other with the object in between.

本発明の目的は、測距システムにおけるTOFセンサと撮像カメラの座標キャリブレーション処理をより簡便に自動的に行う測距システム及びキャリブレーション方法を提供することである。 An object of the present invention is to provide a distance measurement system and a calibration method that more easily and automatically perform coordinate calibration processing of a TOF sensor and an imaging camera in the distance measurement system.

本発明は、測距センサと撮像カメラを設置して対象物の距離画像を生成する測距システムにおいて、前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定するTOFセンサであって、前記TOFセンサで取得したTOF画像と前記撮像カメラで取得したカメラ画像との位置合わせを行い、前記TOF画像から得た対象物の移動軌跡に前記カメラ画像から得た対象物の属性情報を重畳して表示する連携処理装置を備える。前記連携処理装置は、前記TOF画像と前記カメラ画像との位置合わせを行うため、前記TOF画像から検知した人物を囲む人検知枠Fbと、前記カメラ画像から検知した人物を囲む人検知枠Faとが共通の画面上で一致するよう、前記TOFセンサと前記撮像カメラの設置パラメータのキャリブレーションを行う。 The present invention provides a distance measurement system that generates a distance image of an object by installing a distance measurement sensor and an imaging camera, wherein the distance measurement sensor is a TOF sensor that measures the distance to the object based on the transmission time of light. The TOF image obtained by the TOF sensor and the camera image obtained by the imaging camera are aligned, and the object attribute obtained from the camera image is added to the movement trajectory of the object obtained from the TOF image. It is equipped with a cooperative processing device that displays information in a superimposed manner. In order to align the TOF image and the camera image, the cooperation processing device creates a person detection frame Fb surrounding the person detected from the TOF image, and a person detection frame Fa surrounding the person detected from the camera image. The installation parameters of the TOF sensor and the imaging camera are calibrated so that they match on a common screen.

また本発明は、測距センサと撮像カメラを設置して対象物の距離画像を生成する際の前記測距センサと前記撮像カメラの座標キャリブレーション方法において、前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定するTOFセンサであって、前記TOFセンサでTOF画像を取得し、前記撮像カメラでカメラ画像を取得するステップと、前記TOF画像から人物を検知し該人物を囲む人検知枠Fbを作成し、前記カメラ画像から人物を検知し該人物を囲む人検知枠Faを作成するステップと、前記人検知枠Fbと前記人検知枠Faとが共通の画面上で一致するよう、前記TOFセンサと前記撮像カメラの設置パラメータのキャリブレーションを行うステップと、を備える。 The present invention also provides a method for calibrating the coordinates of the distance measurement sensor and the imaging camera when the distance measurement sensor and the imaging camera are installed to generate a distance image of an object, in which the distance measurement sensor has a light transmission time. A TOF sensor that measures a distance to an object based on the following steps: acquiring a TOF image with the TOF sensor, acquiring a camera image with the imaging camera, and detecting a person from the TOF image and identifying the person. creating a surrounding person detection frame Fb, detecting a person from the camera image and creating a person detection frame Fa surrounding the person, and matching the person detection frame Fb and the person detection frame Fa on a common screen. The method further includes the step of calibrating installation parameters of the TOF sensor and the imaging camera.

本発明によれば、カメラ画像とTOF画像の人検知枠の位置を一致させることでキャリブレーションを行うようにしている。その結果、従来のようにカメラ画像とTOF画像を画素単位で一致させる場合や、カメラ画像と人検知枠(TOF画像)を一致させる場合に比較して、処理負荷が小さく処理時間が短縮し、より簡便に自動的にキャリブレーションを実施することができるという効果がある。 According to the present invention, calibration is performed by matching the positions of the human detection frames in the camera image and the TOF image. As a result, compared to the conventional case of matching camera images and TOF images pixel by pixel or matching camera images and human detection frames (TOF images), the processing load is smaller and the processing time is shorter. This has the effect that calibration can be automatically performed more easily.

本実施例に係る測距システム100の模式図。FIG. 1 is a schematic diagram of a ranging system 100 according to the present embodiment. 連携処理装置3のブロック構成図。FIG. 3 is a block configuration diagram of the cooperation processing device 3. TOFセンサ2の距離測定の原理を説明する図。FIG. 2 is a diagram illustrating the principle of distance measurement by the TOF sensor 2. 撮像カメラ1とTOFセンサ2の設置例を示す図。FIG. 2 is a diagram showing an example of how an imaging camera 1 and a TOF sensor 2 are installed. カメラ画像とTOF画像から人検知枠の作成を示す図。The figure which shows creation of a person detection frame from a camera image and a TOF image. 人検知枠の座標変換とキャリブレーション処理を説明する図。FIG. 3 is a diagram illustrating coordinate transformation and calibration processing of a human detection frame. キャリブレーション時のパラメータ変更の具体例を示す図。FIG. 6 is a diagram showing a specific example of parameter changes during calibration. キャリブレーション処理の手順(前半)を示すフローチャート。A flowchart showing the procedure (first half) of calibration processing. キャリブレーション処理の手順(後半)を示すフローチャート。Flowchart showing the procedure (second half) of calibration processing. 本実施例の測距システムによる測定例を示す図。FIG. 3 is a diagram showing an example of measurement by the distance measuring system of the present embodiment.

以下、本発明の実施形態について説明する。本実施例の測距システムにおけるキャリブレーション方法では、測定空間を移動する人物の領域を示す人検知枠を測距センサ(TOFセンサ)と撮像カメラとの両方で取得し、取得したそれらの人検知枠の位置が共通の座標系で一致するように撮像カメラの設置パラメータの調整を自動で行うものである。 Embodiments of the present invention will be described below. In the calibration method for the ranging system of this embodiment, a human detection frame indicating the area of a person moving in the measurement space is acquired by both a ranging sensor (TOF sensor) and an imaging camera, and the acquired human detection The installation parameters of the imaging camera are automatically adjusted so that the positions of the frames match in a common coordinate system.

図1は、本実施例に係る測距システム100の模式図である。測距システム100は、撮像カメラ1とTOFセンサ2とをスイッチングハブ4を介して連携処理装置3に接続した構成である。撮像カメラ1とTOFセンサ2は、必要に応じて複数台設置する。撮像カメラ1は監視カメラなどのRGBカメラであり、対象物9(例えば人物)の画像データを取得する。TOFセンサ2は対象物9までの距離データを2次元状に取得する。 FIG. 1 is a schematic diagram of a ranging system 100 according to this embodiment. The distance measuring system 100 has a configuration in which an imaging camera 1 and a TOF sensor 2 are connected to a cooperative processing device 3 via a switching hub 4. A plurality of imaging cameras 1 and TOF sensors 2 are installed as necessary. The imaging camera 1 is an RGB camera such as a surveillance camera, and acquires image data of an object 9 (for example, a person). The TOF sensor 2 acquires distance data to the object 9 in a two-dimensional manner.

取得したデータはスイッチングハブ4を介して連携表示装置3、例えばPC(パーソナルコンピュータ)に伝送される。連携表示装置3では、距離データの時間変化から対象物9の移動軌跡(動線)を取得するとともに、画像データを解析して対象物(人物)の性別や年齢といった属性情報を取得する、そして、対象物の動線に対し対象物の属性情報を重畳して表示する。スイッチングハブ4は例えばPoE(Power over Ethernet)対応スイッチングハブであり、撮像カメラ1やTOFセンサ2との間でデータ伝送を行うとともに、これらに電源を供給する。 The acquired data is transmitted via the switching hub 4 to the cooperative display device 3, for example, a PC (personal computer). The cooperative display device 3 acquires the movement trajectory (flow line) of the object 9 from changes in distance data over time, and also analyzes image data to acquire attribute information such as the gender and age of the object (person). , the attribute information of the object is superimposed and displayed on the flow line of the object. The switching hub 4 is, for example, a switching hub compatible with PoE (Power over Ethernet), and performs data transmission with the imaging camera 1 and the TOF sensor 2, as well as supplies power thereto.

図2は、連携処理装置3のブロック構成図である。連携処理装置3(PC)の基本構成は、撮像カメラ1からカメラ画像を、TOFセンサ2から距離画像(以下、TOF画像とも呼ぶ)を入力し、画像合成部36は両方の画像データを使用して対象物の動線データと属性情報を合成し、画像表示部37に表示する。その際キャリブレーション部34は、装置にインストールされた自動調整ソフトウェアにより、撮像カメラ1とTOFセンサ2との位置情報、すなわち設置パラメータを自動的に調整する。これにより、画像表示部37において動線データと属性情報を正しく対応付けて表示することができる。 FIG. 2 is a block diagram of the cooperative processing device 3. As shown in FIG. The basic configuration of the cooperative processing device 3 (PC) is that a camera image is input from the imaging camera 1 and a distance image (hereinafter also referred to as a TOF image) is input from the TOF sensor 2, and the image synthesis unit 36 uses the image data of both. The flow line data and attribute information of the object are combined and displayed on the image display section 37. At this time, the calibration unit 34 automatically adjusts the position information of the imaging camera 1 and the TOF sensor 2, that is, the installation parameters, using automatic adjustment software installed in the device. Thereby, the flow line data and the attribute information can be displayed in the image display section 37 in a correctly correlated manner.

連携処理装置3では、画像合成やキャリブレーションといった演算処理を行うが、これに用いるプログラムを図示しないROMに格納し、これをRAMに展開してCPUにより実行することで上記機能を実現する。 The cooperative processing device 3 performs arithmetic processing such as image composition and calibration, and achieves the above functions by storing a program used for this in a ROM (not shown), developing it in a RAM, and executing it by the CPU.

連携処理装置3の構成を詳細に説明する。連携処理装置3は、入力するカメラ画像とTOF画像に対し、2つの人物検知部31、32を備える。人物検知部31は、撮像カメラ1で取得したカメラ画像について画像解析を行って、人検知枠Faを作成する。一方人物検知部32は、TOFセンサ2で取得した距離画像(TOF画像)について人物検知を行って、人検知枠Fbを作成する。 The configuration of the cooperative processing device 3 will be explained in detail. The cooperation processing device 3 includes two person detection units 31 and 32 for input camera images and TOF images. The person detection unit 31 performs image analysis on the camera image acquired by the imaging camera 1 and creates a person detection frame Fa. On the other hand, the person detection unit 32 performs person detection on the distance image (TOF image) acquired by the TOF sensor 2 and creates a person detection frame Fb.

座標変換部33は、人物検知部32で作成した人検知枠Fbを、撮像カメラ1を視点とする座標系での人検知枠Fb’に座標変換して出力する。座標変換では、パラメータ保存部35に保存されている撮像カメラ1とTOFセンサ2の設置パラメータを読み出し、これを変換係数に用いて演算する。キャリブレーション部34は、入力する2つの人検知枠Fa、Fb’のずれ量を検出し、2つの人検知枠Fa、Fb’が共通の画面上で一致するよう撮像カメラ1の設置パラメータを変更する。変更したパラメータはパラメータ保存部35に保存し、次に人検知枠Fbをカメラ視点に座標変換するときの変換係数として用いる。 The coordinate transformation section 33 coordinates transforms the human detection frame Fb created by the human detection section 32 into a human detection frame Fb' in a coordinate system with the imaging camera 1 as a viewpoint, and outputs the result. In the coordinate transformation, the installation parameters of the imaging camera 1 and the TOF sensor 2 stored in the parameter storage section 35 are read out, and calculations are performed using these as transformation coefficients. The calibration unit 34 detects the amount of deviation between the two input human detection frames Fa and Fb', and changes the installation parameters of the imaging camera 1 so that the two human detection frames Fa and Fb' match on the common screen. do. The changed parameters are stored in the parameter storage unit 35 and used as transformation coefficients when the human detection frame Fb is then coordinate transformed to the camera viewpoint.

キャリブレーションが終了すると、実際に対象物の測定(動線表示など)を行う。人物検知部31で画像解析した人物の顔の属性情報と、人物検知部32で取得し座標変換部33で座標変換した動線データは画像合成部36に送られる。画像合成部36では両者の画像合成を行い、画像表示部37(ディスプレイ)に表示される。その結果、画像表示部37では、例えば人物の移動軌跡(動線)に人物の属性情報(性別や年齢情報など)を重畳して表示する。その際、動線データと属性情報の対応付けを行い、タイムスタンプで紐付けして表示する。なお、画像表示部37は、連携処理装置3に対して外部接続した装置でもよい。また、連携処理装置3には、撮像カメラ1とTOFセンサ2に対し、画像取得の指示信号を送信する図示しない送信部を有している。 Once the calibration is complete, actual measurement of the object (flow line display, etc.) is performed. Attribute information of the person's face image-analyzed by the person detection unit 31 and flow line data acquired by the person detection unit 32 and coordinate transformed by the coordinate conversion unit 33 are sent to the image synthesis unit 36. The image synthesis section 36 synthesizes both images and displays them on the image display section 37 (display). As a result, the image display unit 37 displays the person's attribute information (gender, age information, etc.) superimposed on the movement trajectory (flow line) of the person, for example. At that time, the flow line data and attribute information are associated and displayed in a linked manner using time stamps. Note that the image display section 37 may be a device externally connected to the cooperative processing device 3. Further, the cooperative processing device 3 includes a transmitter (not shown) that transmits an instruction signal for image acquisition to the imaging camera 1 and the TOF sensor 2.

ここでキャリブレーション部34の行う設置パラメータの調整について説明する。例えば、2つの人検知枠Fa,Fb’が左右方向(X方向)にずれている場合は、撮像カメラ1のX座標や左右角度φを変更し、人検知枠が上下方向にずれている場合は、カメラの高さZや上下角度θを変更する。キャリブレーション部34で変更したパラメータは、逐一、パラメータ保存部35のファイルに書き込んで更新する。ファイルが更新されたら、座標変換部33は新しいパラメータを読み出して、人検知枠Fbのカメラ視点変換を行う。この操作により、新しいパラメータでの人検知枠Fb’が出力されるようになる。 Here, the adjustment of installation parameters performed by the calibration section 34 will be explained. For example, if the two human detection frames Fa and Fb' are shifted in the left-right direction (X direction), change the X coordinate and left-right angle φ of the imaging camera 1, and if the human detection frames are shifted in the vertical direction, changes the height Z and vertical angle θ of the camera. The parameters changed by the calibration section 34 are updated by writing them into a file in the parameter storage section 35 one by one. When the file is updated, the coordinate conversion unit 33 reads out new parameters and performs camera viewpoint conversion of the human detection frame Fb. With this operation, the human detection frame Fb' with new parameters is output.

このパラメータ更新を繰り返してフィードバックし、人検知枠Fb’を修正していく。その間、測定空間内を人物が歩き回ることにより、場所の違いによる人検知枠のずれが徐々に吸収されていく。人検知枠のずれが検出できなくなった場合(又は閾値未満になった場合)、自動調整を終了する。 This parameter update is repeated and fed back to correct the human detection frame Fb'. During this time, as the person walks around within the measurement space, the deviation of the person detection frame due to the difference in location is gradually absorbed. When the shift of the human detection frame can no longer be detected (or when it becomes less than the threshold), the automatic adjustment is ended.

さらに本実施例のキャリブレーション処理においては、人物検知部31と人物検知部32の間で、以下のように互いの検知情報を交換する。これにより撮像カメラ1とTOFセンサ2との互いの短所を補完しながら、キャリブレーションの精度を向上させている。 Furthermore, in the calibration process of this embodiment, detection information is exchanged between the person detection section 31 and the person detection section 32 as follows. This improves the accuracy of calibration while complementing the shortcomings of the imaging camera 1 and the TOF sensor 2.

(1)撮像カメラ1(カメラ画像)から得た人検知枠Faと、TOFセンサ2(TOF画像)から得た人検知枠Fbとの間で、人物のアスペクト比(縦横比)が異なる場合がある。この場合は、カメラ画像から得た人検知枠Faのアスペクト比を、測定精度が高いTOF画像から得た人検知枠Fbのアスペクト比に合わせるように、撮像カメラ1の画角(FOV=Field of View)を変更する。自動調整の最初に変更しておけば、以後、人検知枠の縦か横のいずれか一方を用いて位置合わせの調整ができるようになる。 (1) The aspect ratio of the person may differ between the person detection frame Fa obtained from the imaging camera 1 (camera image) and the person detection frame Fb obtained from the TOF sensor 2 (TOF image). be. In this case, the angle of view (FOV=field of View). If you change this at the beginning of automatic adjustment, you will be able to adjust the positioning using either the vertical or horizontal direction of the human detection frame.

(2)TOFセンサ2(TOF画像)側の人物検知では、人物に類似する物体(例えば縦長のカートや棚など)を誤って人物と検知する場合がある。そこで、撮像カメラ1側の人物検知部31の顔検知機能(人検知と同時に可能)を使用して、カメラ画像内で顔を検知していない場合には、TOFセンサ2側の人検知情報を削除(キャンセル)する。これにより、人物の誤検知に基づく誤ったキャリブレーション処理を回避することができる。 (2) When detecting a person on the TOF sensor 2 (TOF image) side, objects resembling a person (for example, a vertically long cart or shelf) may be mistakenly detected as a person. Therefore, by using the face detection function of the person detection unit 31 on the imaging camera 1 side (which can be performed simultaneously with human detection), if a face is not detected in the camera image, the person detection information on the TOF sensor 2 side is used. Delete (cancel). This makes it possible to avoid erroneous calibration processing based on erroneous detection of a person.

図3は、TOFセンサ2の距離測定の原理を説明する図である。TOFセンサ2は、レーザダイオード(LD)や発光ダイオード(LED)などの光源から赤外光のパルス光を照射する発光部21、対象物9から反射したパルス光をCCDセンサやCMOSセンサなどで受光する受光部22、発光部21の点灯/消灯と発光量の制御を行う発光制御部23、受光部22の検出信号(受光データ)から対象物9までの距離を計算する距離計算部24、距離値を色別に表示した2次元の距離画像(TOF画像)を生成する距離画像生成部25を備える。生成した距離画像は連携処理装置3へ送信される。 FIG. 3 is a diagram illustrating the principle of distance measurement by the TOF sensor 2. The TOF sensor 2 includes a light emitting unit 21 that emits pulsed infrared light from a light source such as a laser diode (LD) or a light emitting diode (LED), and a CCD sensor or CMOS sensor that receives the pulsed light reflected from an object 9. a light receiving section 22 for controlling the light emitting section 21, a light emission control section 23 for controlling the lighting/extinguishing of the light emitting section 21 and the amount of light emitted, a distance calculation section 24 for calculating the distance to the object 9 from the detection signal (light reception data) of the light receiving section 22, and a distance It includes a distance image generation unit 25 that generates a two-dimensional distance image (TOF image) in which values are displayed in different colors. The generated distance image is transmitted to the cooperative processing device 3.

距離測定では、発光部21から対象物9(例えば人物)に向けて照射光26を出射し、受光部22は、対象物9で反射された反射光27を2次元センサ22aで受光する。発光部21が照射光26を出射してから受光部22が反射光27を受光するまでの時間差をtとすると、対象物9までの距離Dは、D=c×t/2(cは光速)で求められる。2次元センサ22aはCCDセンサなどの複数の画素を2次元配列したもので、各画素における受光データから距離計算部24は2次元状の距離データを算出する。なお、実用的な距離測定では、時間差tの代わりに所定幅の照射パルスを出射し、これを2次元センサ22aで露光ゲートのタイミングをずらしながら受光する。そして、異なるタイミングにおける受光量の値から距離Dを算出するようにしている。 In distance measurement, the light emitting section 21 emits irradiation light 26 toward the object 9 (for example, a person), and the light receiving section 22 receives the reflected light 27 reflected by the object 9 with the two-dimensional sensor 22a. If t is the time difference between when the light emitting unit 21 emits the irradiated light 26 and when the light receiving unit 22 receives the reflected light 27, then the distance D to the object 9 is D=c×t/2 (c is the speed of light ). The two-dimensional sensor 22a is a two-dimensional array of a plurality of pixels such as a CCD sensor, and the distance calculation unit 24 calculates two-dimensional distance data from the received light data at each pixel. Note that in practical distance measurement, an irradiation pulse of a predetermined width is emitted instead of the time difference t, and this is received by the two-dimensional sensor 22a while shifting the timing of the exposure gate. Then, the distance D is calculated from the values of the amount of light received at different timings.

図4は、撮像カメラ1とTOFセンサ2の設置例を示す図である。測定対象である人物9が移動する空間をカバーするように、撮像カメラ1とTOFセンサ2とを設置する。測定空間の床面をXY方向とし、高さ方向をZ方向とする。設置パラメータとして、撮像カメラ1とTOFセンサ2の設置座標をそれぞれ(X1,Y1),(X2,Y2)、設置高さをそれぞれZ1,Z2とする。また、設置方向(測定方向)について、左右方向の角度をそれぞれφ1,φ2、上下方向の角度をそれぞれθ1,θ2とする。さらに撮像カメラ1については、画角(FOV)を設定する。これらのパラメータは、パラメータ保存部35に初期値として保存される。そしてキャリブレーション処理において、撮像カメラ1とTOFセンサ2から得た人検知枠Fa,Fbが一致するよう最適値に修正される。 FIG. 4 is a diagram showing an example of how the imaging camera 1 and the TOF sensor 2 are installed. An imaging camera 1 and a TOF sensor 2 are installed so as to cover a space in which a person 9 to be measured moves. The floor surface of the measurement space is defined as the XY direction, and the height direction is defined as the Z direction. As installation parameters, the installation coordinates of the imaging camera 1 and the TOF sensor 2 are (X1, Y1) and (X2, Y2), respectively, and the installation heights are Z1 and Z2, respectively. Further, regarding the installation direction (measurement direction), the left and right angles are φ1 and φ2, respectively, and the vertical angles are θ1 and θ2, respectively. Furthermore, the angle of view (FOV) of the imaging camera 1 is set. These parameters are stored as initial values in the parameter storage section 35. In the calibration process, the human detection frames Fa and Fb obtained from the imaging camera 1 and the TOF sensor 2 are corrected to optimal values so that they match.

またこの例では、測定空間の天井に、撮像カメラとTOFセンサ2を人物9を挟んで対向するように設置している。本実施例の測距システムでは、撮像カメラ1とTOFセンサ2の位置関係について制約を受けにくいことに特徴がある。 Further, in this example, the imaging camera and the TOF sensor 2 are installed on the ceiling of the measurement space so as to face each other with the person 9 in between. The distance measuring system of this embodiment is characterized in that the positional relationship between the imaging camera 1 and the TOF sensor 2 is not subject to any restrictions.

図5は、カメラ画像とTOF画像から人検知枠の作成を示す図である。
(a)は測定空間の見取り図であり、撮像カメラ1とTOFセンサ2、及び人物9の位置関係を示す。人物9は机8の前を矢印のように移動したとする。
FIG. 5 is a diagram showing creation of a human detection frame from a camera image and a TOF image.
(a) is a sketch of the measurement space, showing the positional relationship between the imaging camera 1, the TOF sensor 2, and the person 9. It is assumed that the person 9 moves in front of the desk 8 in the direction of the arrow.

(b)はTOFセンサ2で取得した距離画像(TOF画像)である。距離画像では被写体までの距離が色別に表示され、人物検知部32により、同一色で人物9の形状をした領域を抽出することができる。そして、人物を囲む矩形領域を作成し、これを「人検知枠」Fbと呼ぶことにする。人物9の移動とともに人検知枠Fbも移動し、その軌跡を求めることで動線データを生成することができる。ただしTOF画像では人物の顔の識別はできないので、どのような人物かを知ることはできない。 (b) is a distance image (TOF image) acquired by the TOF sensor 2. In the distance image, the distance to the subject is displayed in different colors, and the person detection unit 32 can extract an area shaped like the person 9 in the same color. Then, a rectangular area surrounding the person is created, and this will be called a "person detection frame" Fb. The human detection frame Fb also moves as the person 9 moves, and flow line data can be generated by finding the trajectory. However, since it is not possible to identify a person's face in a TOF image, it is not possible to know what kind of person the person is.

(c)は撮像カメラで取得したカメラ画像である。人物検知部31はカメラ画像を解析することで、人物9の顔を識別し、人物の属性情報を取得することができる。さらに本実施例では、人物検知部31により、カメラ画像においても人物を囲む矩形領域、すなわち「人検知枠」Faを作成するようにした。図では人検知枠Faを破線で示す。この技術は、Open CV(登録商標)プログラムの物体検出機能(detect Multi Scale)などとして知られており、カメラ画像のみで人物の全身を抽出できる。人物の向きが横を向いても、また人が動き回ってもリアルタイムで全身を囲った検知枠Faを作成できる。 (c) is a camera image acquired by an imaging camera. The person detection unit 31 can identify the face of the person 9 and obtain attribute information of the person by analyzing the camera image. Furthermore, in this embodiment, the person detection unit 31 creates a rectangular area surrounding the person in the camera image, that is, a "person detection frame" Fa. In the figure, the human detection frame Fa is indicated by a broken line. This technique is known as the object detection function (detect Multi Scale) of the Open CV (registered trademark) program, and can extract the whole body of a person using only a camera image. Even if the person is facing sideways or moving around, a detection frame Fa that surrounds the whole person can be created in real time.

本実施例では、TOF画像からの人検知枠Fbと、カメラ画像からの人検知枠Faを用いて、両者の位置が一致するように自動調整するものである。自動調整処理は、座標変換部33とキャリブレーション部34が行う。 In this embodiment, the human detection frame Fb from the TOF image and the human detection frame Fa from the camera image are used to automatically adjust their positions so that they match. The automatic adjustment process is performed by the coordinate conversion section 33 and the calibration section 34.

図6は、人検知枠の座標変換とキャリブレーション処理を説明する図である。
(a)は、図5(b)と同様のTOF画像で、人検知枠Fbが示されている。(b)は、図5(c)と同様にカメラ画像で、人検知枠Faが示されている。
FIG. 6 is a diagram illustrating coordinate transformation and calibration processing of the human detection frame.
(a) is a TOF image similar to FIG. 5(b), in which a human detection frame Fb is shown. 5(b) is a camera image similar to FIG. 5(c), and the human detection frame Fa is shown.

この状態での2つの人検知枠Fa,Fbの位置合わせを行うため、まず座標変換部33は、TOFセンサ2と撮像カメラ1との間の設置位置のずれを補正する。言い換えれば、TOF画像から得られた人検知枠Fbを、カメラ画像の座標系に座標変換する。そのために座標変換部33は、パラメータ保存部35に保存されているTOFセンサ2と撮像カメラ1の設置パラメータを用いて、演算により座標変換する。(b)には、座標変換後の人検知枠Fb’を重ねて示している。この状態では人検知枠Faと人検知枠Fb’はずれているので、キャリブレーション処理を行う。 In order to align the two human detection frames Fa and Fb in this state, the coordinate conversion unit 33 first corrects the deviation in the installation position between the TOF sensor 2 and the imaging camera 1. In other words, the human detection frame Fb obtained from the TOF image is coordinate-transformed into the coordinate system of the camera image. For this purpose, the coordinate transformation section 33 performs coordinate transformation by calculation using the installation parameters of the TOF sensor 2 and the imaging camera 1 stored in the parameter storage section 35. In (b), the human detection frame Fb' after the coordinate transformation is shown superimposed. In this state, the human detection frame Fa and the human detection frame Fb' are out of alignment, so a calibration process is performed.

(c)は、キャリブレーション処理を示す。キャリブレーションでは、撮像カメラ1の設置パラメータを変更し、変更後のパラメータを用いてTOF画像の人検知枠Fbを再度座標変換し、変換後の人検知枠Fb’がカメラ画像の人検知枠Faに一致するように調整する。この図の状態では人検知枠Faと人検知枠Fb’は一致し、キャリブレーションを完了した状態である。 (c) shows the calibration process. In the calibration, the installation parameters of the imaging camera 1 are changed, and the human detection frame Fb of the TOF image is coordinate-transformed again using the changed parameters, so that the human detection frame Fb' after the conversion is the human detection frame Fa of the camera image. Adjust to match. In the state shown in this figure, the human detection frame Fa and the human detection frame Fb' match, and the calibration has been completed.

このように本実施例では、カメラ画像とTOF画像の人検知枠Fa,Fbの位置を一致させることでキャリブレーションを行うようにしている。その結果、従来のようにカメラ画像とTOF画像を画素単位で一致させる場合や、カメラ画像と人検知枠(TOF画像)を一致させる場合に比較して、処理負荷が小さく処理時間が短縮し、自動的により簡便にキャリブレーションを実施することができる。 In this manner, in this embodiment, calibration is performed by matching the positions of the human detection frames Fa and Fb in the camera image and the TOF image. As a result, compared to the conventional case of matching camera images and TOF images pixel by pixel or matching camera images and human detection frames (TOF images), the processing load is smaller and the processing time is shorter. Calibration can be automatically and easily performed.

また本実施例のキャリブレーション方法では、カメラ画像とTOF画像から人検知枠を抽出できればよく、人物に対する測定方向(撮影方向)を一致させる必要はない。よって、撮像カメラ1とTOFセンサ2の位置関係は、例えば図4に示したように、人物9を挟んで対向するように設置することも可能であり、設置場所の制約を受けにくいというメリットがある。 Furthermore, in the calibration method of this embodiment, it is sufficient to extract a human detection frame from the camera image and the TOF image, and there is no need to match the measurement direction (photographing direction) for the person. Therefore, the positional relationship between the imaging camera 1 and the TOF sensor 2 can be set such that they face each other with the person 9 in between, as shown in FIG. be.

図7は、キャリブレーション時のパラメータ変更の具体例を示す図である。すなわち人検知枠Fa,Fb’のずれは、カメラ画像内で左右方向、上下方向に生じ、また人検知枠のサイズ(大きさ)やアスペクト比(縦横比)が一致しない場合もある。人検知枠Fa,Fb’がずれるのは、パラメータの初期設定値が実際の真の値からずれているためであり、パラメータの設定値を変更することでずれを解消する。具体的に変更するパラメータの種類として次のものがある。 FIG. 7 is a diagram showing a specific example of parameter changes during calibration. That is, deviations between the human detection frames Fa and Fb' occur in the horizontal and vertical directions within the camera image, and the sizes and aspect ratios of the human detection frames may not match. The reason why the human detection frames Fa and Fb' deviate is because the initial setting values of the parameters deviate from the actual true values, and the deviation can be resolved by changing the setting values of the parameters. The following are specific types of parameters to be changed:

(a)は人検知枠Fa,Fb’が左右方向にずれている場合であり、この場合は撮像カメラ1の座標X1を変更する。(b)は人検知枠のサイズが異なる場合(奥行き方向のずれ)であり、カメラの座標Y1を変更する。(c)は人検知枠が左右方向にずれている場合であり、カメラの左右角度φ1を変更する。(d)は人検知枠が上下方向にずれている場合であり、カメラの高さZ1を変更する。(e)は人検知枠が上下方向にずれている場合であり、カメラの上下角度θ1を変更する。(f)は人検知枠のアスペクト比が異なる場合であり、カメラの画角FOVを変更する。 (a) shows a case where the human detection frames Fa and Fb' are shifted in the left-right direction, and in this case, the coordinates X1 of the imaging camera 1 are changed. (b) is a case where the size of the human detection frame is different (deviation in the depth direction), and the coordinate Y1 of the camera is changed. (c) is a case where the human detection frame is shifted in the left-right direction, and the left-right angle φ1 of the camera is changed. (d) is a case where the human detection frame is shifted in the vertical direction, and the height Z1 of the camera is changed. (e) is a case where the human detection frame is shifted in the vertical direction, and the vertical angle θ1 of the camera is changed. (f) is a case where the aspect ratios of the human detection frames are different, and the viewing angle FOV of the camera is changed.

なお、ずれの要因は単一とは限らず、例えば左右方向のずれは、(a)の座標Xと、(c)の左右角度φ1の要因が複合している。よって、関連する他のパラメータについても併せて変更する。 Note that the cause of the shift is not necessarily single; for example, the shift in the left-right direction is caused by a combination of factors such as the coordinate X in (a) and the left-right angle φ1 in (c). Therefore, other related parameters are also changed.

また、TOFセンサ2は、地面からの高さや、壁などからの距離が正確に測定できるので、TOFセンサ2単体で先にキャリブレーションを済ませておく。その後、人検知枠Fa,Fb’のずれに対しては、撮像カメラ1側のパラメータを変更することにより、位置合わせのキャリブレーションを効率的に行うことができる。 Furthermore, since the TOF sensor 2 can accurately measure the height from the ground and the distance from a wall, etc., the TOF sensor 2 alone should be calibrated first. After that, by changing the parameters on the imaging camera 1 side, the position alignment can be efficiently calibrated for the deviation of the human detection frames Fa and Fb'.

図8Aと図8Bは、キャリブレーション処理の手順(前半と後半)を示すフローチャートである。撮像カメラ1とTOFセンサ2の設置パラメータ(初期値)はパラメータ保存部35に保存され、TOFセンサ2単体の調整は完了しているものとする。 FIGS. 8A and 8B are flowcharts showing the procedure (first half and second half) of the calibration process. It is assumed that the installation parameters (initial values) of the imaging camera 1 and the TOF sensor 2 are stored in the parameter storage section 35, and that the adjustment of the TOF sensor 2 alone has been completed.

図8Aは、前半工程で行う撮像カメラ1の画角(FOV)の調整を示す。キャリブレーションは、撮像カメラ1、TOFセンサ2の画面中央に人物が立っていて、また顔の向きは撮像カメラ1の方を向いている状態から開始する。そして、撮像カメラ1とTOFセンサ2の両方で人物を検知した時点で、パラメータの自動調整を開始する。最初に撮像カメラ1の画角FOVを調整して人検知枠のアスペクト比(縦横比)を合わせる。その際、カメラ画像で人物の顔が検知されないときは、TOFセンサ2で人物を検知しても誤検知なのでキャンセルする。以下、ステップ順に説明する。 FIG. 8A shows adjustment of the angle of view (FOV) of the imaging camera 1 performed in the first half process. Calibration starts with a person standing in the center of the screen of the imaging camera 1 and the TOF sensor 2, and with the person's face facing toward the imaging camera 1. Then, when a person is detected by both the imaging camera 1 and the TOF sensor 2, automatic parameter adjustment is started. First, the angle of view FOV of the imaging camera 1 is adjusted to match the aspect ratio of the human detection frame. At this time, if a person's face is not detected in the camera image, even if the TOF sensor 2 detects a person, it is a false positive and is canceled. The steps will be explained below.

S101:撮像カメラ1とTOFセンサ2を起動し、人物検知動作を開始する。
S102:撮像カメラ1のカメラ画像より、人物検知部31が人物(ここでは人物類似の物体を含む)を検知したかどうかを判定する。検知したときはS103へ進み、検知しないときは人物を検知するまで待機する。
S103:TOFセンサ2のTOF画像より、人物検知部32が人物(ここでは人物類似の物体を含む)を検知したかどうかを判定する。検知したときはS104へ進み、検知しないときは人物を検知するまで待機する。
S101: Start up the imaging camera 1 and the TOF sensor 2, and start a person detection operation.
S102: Based on the camera image of the imaging camera 1, it is determined whether the person detection unit 31 has detected a person (here, an object resembling a person). If detected, the process advances to S103; if not detected, the process waits until a person is detected.
S103: Based on the TOF image of the TOF sensor 2, it is determined whether the person detection unit 32 has detected a person (here, an object resembling a person). If detected, the process advances to S104; if not detected, the process waits until a person is detected.

S104:撮像カメラ1のカメラ画像より、人物検知部31が人物の顔も検知しているかどうかを判定する。顔を検知していないときはS105へ進み、顔も検知していればS106へ進み。
S105:TOFセンサ2で検知した物体は人物ではないので、検知結果をキャンセルしてS103へ戻る。なぜなら、TOFセンサ2では人物に似ている物体(例えばカートや棚など)も人物と誤って検知する場合があり、これを排除するためである。そして、TOFセンサ2で検知した人物が真の人物となるまで繰り返す。
S104: Based on the camera image of the imaging camera 1, it is determined whether the person detection unit 31 has also detected a person's face. If no face has been detected, the process advances to S105, and if a face has also been detected, the process advances to S106.
S105: Since the object detected by the TOF sensor 2 is not a person, the detection result is canceled and the process returns to S103. This is because the TOF sensor 2 may sometimes mistakenly detect objects that resemble a person (for example, a cart or a shelf) as a person, and this is to eliminate this. Then, the process is repeated until the person detected by the TOF sensor 2 becomes a real person.

S106:人物検知部31、32は、カメラ画像とTOF画像からそれぞれ人検知枠Fa,Fbを作成する。人検知枠は人物の身体全体を含む矩形とする。
S107:座標変換部33は、TOF画像の人検知枠Fbをカメラ視点に座標変換する。この変換では、パラメータ保存部35に保存されている撮像カメラ1とTOFセンサ2の設置パラメータを使用して演算する。変換後の人検知枠をFb’とする。
S106: The person detection units 31 and 32 create person detection frames Fa and Fb from the camera image and the TOF image, respectively. The person detection frame is a rectangle that includes the entire body of the person.
S107: The coordinate conversion unit 33 performs coordinate conversion of the human detection frame Fb of the TOF image to the camera viewpoint. In this conversion, calculations are performed using the installation parameters of the imaging camera 1 and the TOF sensor 2 stored in the parameter storage section 35. Let Fb' be the human detection frame after conversion.

S108:キャリブレーション部34は、人検知枠Fa,Fb’のアスペクト比(縦横比)が等しいかどうか判定する。ここでのアスペクト比は、人物の身長と幅の比である。アスペクト比が等しくなければS109へ進み、アスペクト比が等しければS110へ進む。
S109:キャリブレーション部34は撮像カメラ1の画角(FOV)を変更し、人検知枠Faのアスペクト比を修正してS108に戻る。そして、人検知枠Fa,Fb’のアスペクト比が等しくなるよう撮像カメラ1の画角(FOV)を調整する。
S110:調整後の撮像カメラ1の画角(FOV)をパラメータ保存部35に保存する。この後、図8Bのフローチャートへ続く。
S108: The calibration unit 34 determines whether the aspect ratios of the human detection frames Fa and Fb' are equal. The aspect ratio here is the ratio of a person's height to width. If the aspect ratios are not equal, the process advances to S109, and if the aspect ratios are equal, the process advances to S110.
S109: The calibration unit 34 changes the angle of view (FOV) of the imaging camera 1, corrects the aspect ratio of the human detection frame Fa, and returns to S108. Then, the angle of view (FOV) of the imaging camera 1 is adjusted so that the aspect ratios of the human detection frames Fa and Fb' are equal.
S110: The adjusted angle of view (FOV) of the imaging camera 1 is stored in the parameter storage unit 35. After this, the process continues to the flowchart of FIG. 8B.

図8Bは、後半工程で行う撮像カメラ1の画角以外のパラメータの調整を示す。ここでは、人物が測定空間を前後左右に自由に移動しながら、カメラ画像の人検知枠Faと、TOF画像の人検知枠Fa,Fb’とを更新し、それらのずれがなくなるように調整する。 FIG. 8B shows adjustment of parameters other than the angle of view of the imaging camera 1 performed in the latter half of the process. Here, while the person freely moves back and forth and left and right in the measurement space, the person detection frame Fa in the camera image and the person detection frames Fa and Fb' in the TOF image are updated and adjusted so that there is no deviation between them. .

具体的には、人検知枠のずれのモードに応じて、撮像カメラ1の関連するパラメータ(X1,Y1,Z1,φ1,θ1)を、予め定めた単位量だけ+方向と-方向に変化させる。そして、人検知枠のずれが小さくなる方のパラメータ値を選択する。この操作を繰り返して、ずれが閾値未満になった場合に自動調整を終了する。以下、ステップ順に説明する。 Specifically, the related parameters (X1, Y1, Z1, φ1, θ1) of the imaging camera 1 are changed in the + direction and - direction by a predetermined unit amount according to the mode of displacement of the human detection frame. . Then, the parameter value that reduces the deviation of the human detection frame is selected. This operation is repeated, and when the deviation becomes less than the threshold value, the automatic adjustment is ended. The steps will be explained below.

S111:人物が所定距離(例えば50cm)だけ移動すると、これをトリガーにして以下の処理に進む。
S112:カメラ画像とTOF画像から、人物検知部31,32はそれぞれ人検知枠Fa,Fbを作成して更新する。
S113:座標変換部33は、TOF画像の人検知枠Fbをカメラ視点に座標変換する。この変換では、パラメータ保存部35に保存されている撮像カメラ1とTOFセンサ2の最新の設置パラメータを使用する。変換後の人検知枠をFb’とする。
S111: When the person moves a predetermined distance (for example, 50 cm), this is used as a trigger to proceed to the following process.
S112: From the camera image and the TOF image, the person detection units 31 and 32 create and update person detection frames Fa and Fb, respectively.
S113: The coordinate conversion unit 33 performs coordinate conversion of the human detection frame Fb of the TOF image to the camera viewpoint. In this conversion, the latest installation parameters of the imaging camera 1 and the TOF sensor 2 stored in the parameter storage section 35 are used. Let Fb' be the human detection frame after conversion.

S114:キャリブレーション部34は、人検知枠Fa,Fb’のずれが閾値未満かどうか判定する。閾値は例えば検知枠サイズの5%とする。閾値未満であれば(判定がYes)S121へ進み、閾値以上であれば(判定がNo)S115へ進む。
S115:人検知枠が左右方向にずれているかを判定する。判定がYesの場合はS116へ、判定がNoの場合はS117へ進む。
S116:キャリブレーション部34は、撮像カメラ1の左右角度(φ1)のパラメータを±単位量(例えば+1deg、-1deg)だけ変更し、そのときの人検知枠のずれが小さい方を選択する。また、カメラの座標(X1)のパラメータを±単位量(例えば+100mm、-100mm)だけ変更し、そのときの人検知枠のずれが小さい方を選択する。その後S111へ戻る。
S114: The calibration unit 34 determines whether the deviation between the human detection frames Fa and Fb' is less than a threshold value. The threshold value is, for example, 5% of the detection frame size. If it is less than the threshold (determination is Yes), the process proceeds to S121, and if it is greater than or equal to the threshold (determination is No), the process proceeds to S115.
S115: Determine whether the human detection frame is shifted in the left-right direction. If the determination is Yes, the process advances to S116, and if the determination is No, the process advances to S117.
S116: The calibration unit 34 changes the left/right angle (φ1) parameter of the imaging camera 1 by a ± unit amount (for example, +1 deg, −1 deg), and selects the one with the smaller deviation of the human detection frame at that time. Further, the parameters of the camera coordinates (X1) are changed by a ± unit amount (for example, +100 mm, -100 mm), and the one with the smaller deviation of the human detection frame at that time is selected. After that, the process returns to S111.

S117:人検知枠が上下方向にずれているかを判定する。判定がYesの場合はS118へ、判定がNoの場合はS119へ進む。
S118:キャリブレーション部34は、カメラの上下角度(θ1)のパラメータを±単位量(例えば+1deg、-1deg)だけ変更し、そのときの人検知枠のずれが小さい方を選択する。また、カメラの高さ(Z1)のパラメータを±単位量(例えば+50mm、-50mm)だけ変更し、そのときの人検知枠のずれが小さい方を選択する。その後S111へ戻る。
S117: Determine whether the human detection frame is shifted in the vertical direction. If the determination is Yes, the process advances to S118, and if the determination is No, the process advances to S119.
S118: The calibration unit 34 changes the parameter of the vertical angle (θ1) of the camera by a ± unit amount (for example, +1 deg, −1 deg), and selects the one with the smaller deviation of the human detection frame at that time. Further, the camera height (Z1) parameter is changed by a ± unit amount (for example, +50 mm, -50 mm), and the one with the smaller deviation of the human detection frame at that time is selected. After that, the process returns to S111.

S119:人検知枠のサイズが異なるかを判定する。判定がYesの場合はS120へ、判定がNoの場合はS111へ戻る。
S120:キャリブレーション部34は、カメラの座標(Y1)のパラメータを±単位量(例えば+100mm、-100mm)だけ変更し、そのときの人検知枠のサイズの差が小さい方を選択する。また、カメラの高さ(Z1)のパラメータを±単位量(例えば+50mm、-50mm)だけ変更し、そのときの人検知枠のサイズの差が小さい方を選択する。その後S111へ戻る。
S119: Determine whether the sizes of the human detection frames are different. If the determination is Yes, the process returns to S120, and if the determination is No, the process returns to S111.
S120: The calibration unit 34 changes the parameter of the camera coordinate (Y1) by a ± unit amount (for example, +100 mm, -100 mm), and selects the one with the smaller difference in the size of the human detection frame at that time. Further, the camera height (Z1) parameter is changed by a ± unit amount (for example, +50 mm, -50 mm), and the one with the smaller difference in the size of the human detection frame at that time is selected. After that, the process returns to S111.

S121:S114の判定で人検知枠Fa,Fb’のずれが閾値未満の場合、上記で選択した全てのパラメータ(X1、Y1、Z1、φ1、θ1)をパラメータ保存部35に保存する。これでキャリブレーションを終了する。この後、測距システムによる実測定を行う。 S121: If it is determined in S114 that the deviation between the human detection frames Fa and Fb' is less than the threshold value, all the parameters selected above (X1, Y1, Z1, φ1, θ1) are stored in the parameter storage unit 35. This completes the calibration. After this, actual measurements are performed using the distance measuring system.

以上のフローチャートによれば、カメラ画像とTOF画像から抽出した人検知枠を用いることで、キャリブレーション処理を自動的に簡便に行うことができる。その際、カメラ画像からの顔検知結果を利用することでTOF画像における人物誤検知を排除し、キャリブレーションの信頼性を向上することができる。また、人検知枠のアスペクト比を一致させることでカメラの画角(FOV)調整を効率良く実行できる。 According to the above flowchart, the calibration process can be performed automatically and easily by using the human detection frame extracted from the camera image and the TOF image. At this time, by using the face detection results from the camera image, it is possible to eliminate false human detection in the TOF image and improve the reliability of calibration. Furthermore, by matching the aspect ratios of the human detection frames, the angle of view (FOV) of the camera can be adjusted efficiently.

図9は、本実施例の測距システムによる測定例を示す図である。ここでは、店舗内の顧客を検知し、その動線と属性情報を取得して表示する場合を示す。店舗内には2台の撮像カメラ1a,1bと、2台のTOFセンサ2a,2bを設置し、予め撮像カメラとTOFセンサの間でキャリブレーションを完了している。なお、2台の撮像カメラ1a,1b間、2台のTOFセンサ2a,2b間においても、人検知枠を用いて同様にキャリブレーションを完了している
この例では、現在時刻10:11において、店舗内には2人の顧客P1,P2が滞在しており、2人の店内の移動軌跡が動線L1,L2で表示されている。この動線は、TOFセンサ2a,2bで取得した距離画像から作成している。一方、撮像カメラ1a,1bで取得した顧客P1,P2の顔画像から、顧客の属性情報(年齢や性別、リピーターなど)を判別する。そして、両者の情報をタイムスタンプで紐付けして、顧客の現在位置に合わせて属性情報を表示している。例えば顧客P1は女性(年齢25才)でリピーターであること、時刻10:10に入店し、陳列棚(No.4)に立ち寄っていることなどの情報が表示される。
FIG. 9 is a diagram showing an example of measurement by the distance measuring system of this embodiment. Here, we will show a case where customers in a store are detected and their flow lines and attribute information are acquired and displayed. Two imaging cameras 1a and 1b and two TOF sensors 2a and 2b are installed in the store, and calibration between the imaging cameras and the TOF sensors has been completed in advance. Note that calibration is similarly completed between the two imaging cameras 1a and 1b and between the two TOF sensors 2a and 2b using the human detection frame.In this example, at the current time 10:11, Two customers P1 and P2 are staying in the store, and their movement trajectories within the store are displayed as flow lines L1 and L2. This flow line is created from distance images acquired by the TOF sensors 2a and 2b. On the other hand, customer attribute information (age, gender, repeat customers, etc.) is determined from the facial images of customers P1 and P2 acquired by imaging cameras 1a and 1b. The information from both is linked using time stamps, and attribute information is displayed according to the customer's current location. For example, information such as that customer P1 is a female (25 years old) and a repeat customer, entered the store at 10:10, and stopped by the display shelf (No. 4) is displayed.

本実施例では撮像カメラ1a,1bとTOFセンサ2a,2bで顧客を検知しているが、キャリブレーション処理の結果その検知位置のずれが少ないので、入店時に取得した属性情報は顧客が移動しても顧客の現在位置に合わせて精度良く表示される。よって、店内に多数の顧客が滞在する状況であっても、他の顧客の情報と混同することがなく、表示される情報の信頼性が向上する。 In this embodiment, the customer is detected by the imaging cameras 1a, 1b and the TOF sensors 2a, 2b, but as a result of the calibration process, there is little deviation in the detection position, so the attribute information acquired at the time of entering the store will be used when the customer moves. The display will be displayed accurately according to the customer's current location. Therefore, even in a situation where a large number of customers are staying in the store, the displayed information is not confused with information of other customers, and the reliability of the displayed information is improved.

1,1a,1b:撮像カメラ、
2,2a,2b:測距センサ(TOFセンサ)、
3:連携処理装置、
4:スイッチングハブ、
9:対象物(人物)、
21:発光部、
22:受光部、
23:発光制御部、
24:距離計算部、
25:距離画像生成部、
31,32:人物検知部、
33:座標変換部、
34:キャリブレーション部、
35:パラメータ保存部、
36:画像合成部、
37:画像表示部、
100:測距システム、
Fa,Fb,Fb’:人検知枠、
L1,L2:動線。
1, 1a, 1b: imaging camera,
2, 2a, 2b: Distance sensor (TOF sensor),
3: Cooperation processing device,
4: Switching hub,
9: Object (person),
21: Light emitting part,
22: Light receiving section,
23: Light emission control unit,
24: distance calculation section,
25: Distance image generation unit,
31, 32: person detection unit,
33: Coordinate transformation section,
34: Calibration section,
35: Parameter storage section,
36: Image synthesis section,
37: Image display section,
100: Ranging system,
Fa, Fb, Fb': human detection frame,
L1, L2: Flow line.

Claims (10)

測距センサと撮像カメラを設置して対象物の距離画像を生成する測距システムにおいて、
前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定するTOF(タイム・オブ・フライト)センサであって、
前記TOFセンサで取得したTOF画像と前記撮像カメラで取得したカメラ画像との位置合わせを行い、前記TOF画像から得た対象物の移動軌跡に前記カメラ画像から得た対象物の属性情報を重畳して表示する連携処理装置を備え、
前記連携処理装置は、
前記カメラ画像から人物を検知しこれを囲む矩形状人検知枠Faを作成する第1の人物検知部と、
前記TOF画像から人物を検知しこれを囲む矩形状人検知枠Fbを作成する第2の人物検知部と、
前記TOFセンサと前記撮像カメラの設置パラメータを用いて、前記TOF画像および前記人検知枠Fbを前記カメラ画像の座標系に変換する座標変換部と、
前記TOF画像と前記カメラ画像との位置合わせを行うため、前記座標変換部により変換された前記人検知枠(Fb’とするが、前記人検知枠F共通の画面上で一致するように、前記撮像カメラの設置パラメータを変更することにより、前記TOFセンサと前記撮像カメラの設置パラメータのキャリブレーションを行うキャリブレーション部と、
を備え、
前記キャリブレーション部は、前記人検知枠Fb’を前記人検知枠Faに前記共通の画面上で一致させるために、前記人検知枠Fb’の位置が、前記人検知枠Faの位置に前記共通の画面上で一致するように、前記撮像カメラの設置パラメータを変更することを特徴とする測距システム。
In a distance measurement system that installs a distance measurement sensor and an imaging camera to generate a distance image of an object,
The distance sensor is a TOF (time of flight) sensor that measures the distance to the object based on the transmission time of light,
A TOF image obtained by the TOF sensor and a camera image obtained by the imaging camera are aligned, and attribute information of the object obtained from the camera image is superimposed on a movement trajectory of the object obtained from the TOF image. Equipped with a cooperative processing device that displays
The cooperative processing device includes:
a first person detection unit that detects a person from the camera image and creates a rectangular person detection frame Fa surrounding the person;
a second person detection unit that detects a person from the TOF image and creates a rectangular person detection frame Fb surrounding the person;
a coordinate conversion unit that converts the TOF image and the human detection frame Fb into a coordinate system of the camera image using installation parameters of the TOF sensor and the imaging camera;
In order to align the TOF image and the camera image, the human detection frame (referred to as Fb' ) converted by the coordinate conversion unit is aligned with the human detection frame F a on a common screen. a calibration unit that calibrates the installation parameters of the TOF sensor and the imaging camera by changing the installation parameters of the imaging camera ;
Equipped with
In order to match the human detection frame Fb' with the human detection frame Fa on the common screen, the calibration unit is configured to adjust the position of the human detection frame Fb' to be common to the position of the human detection frame Fa. A ranging system characterized in that the installation parameters of the imaging camera are changed so that they match on the screen .
請求項に記載の測距システムにおいて、
前記第1の人物検知部と前記第2の人物検知部は、検知する人物の位置が所定距離だけ移動する毎に前記人検知枠Faと前記人検知枠Fbを更新し、
前記座標変換部は、変更された前記撮像カメラの設置パラメータを用いて前記人検知枠Fbを前記人検知枠Fb’に変換し、
前記キャリブレーション部は、更新された前記人検知枠Faと前記人検知枠Fb’をもとに、前記撮像カメラの設置パラメータを繰り返して変更することを特徴とする測距システム。
The ranging system according to claim 1 ,
The first person detection unit and the second person detection unit update the person detection frame Fa and the person detection frame Fb every time the position of the person to be detected moves by a predetermined distance,
The coordinate conversion unit converts the human detection frame Fb into the human detection frame Fb' using the changed installation parameters of the imaging camera,
The distance measuring system is characterized in that the calibration unit repeatedly changes installation parameters of the imaging camera based on the updated human detection frame Fa and the updated human detection frame Fb'.
請求項に記載の測距システムにおいて、
前記人検知枠Faと前記人検知枠Fb’のアスペクト比(縦横比)が異なる場合、前記キャリブレーション部は、前記人検知枠Fb’を前記人検知枠Faに前記共通の画面上で一致させるために、前記人検知枠Faのアスペクト比を、前記人検知枠Fb’のアスペクト比に合わせるよう、前記撮像カメラの画角のパラメータを変更することを特徴とする測距システム。
The ranging system according to claim 1 ,
When the aspect ratios of the human detection frame Fa and the human detection frame Fb' are different, the calibration unit matches the human detection frame Fb' with the human detection frame Fa on the common screen. In order to achieve this, the distance measuring system is characterized in that parameters of the angle of view of the imaging camera are changed so that the aspect ratio of the human detection frame Fa is matched with the aspect ratio of the human detection frame Fb'.
請求項に記載の測距システムにおいて、
前記第1の人物検知部は前記カメラ画像から人物の顔を検知する機能を有しており、
前記第1の人物検知部が作成した前記人検知枠Faに人物の顔が検知できない場合には、前記第2の人物検知部が作成した前記人検知枠Fbをキャンセルすることを特徴とする測距システム。
The ranging system according to claim 1 ,
The first person detection unit has a function of detecting a person's face from the camera image,
If a person's face cannot be detected in the person detection frame Fa created by the first person detection unit, the person detection frame Fb created by the second person detection unit is canceled. distance system.
測距センサと撮像カメラを設置して対象物の距離画像を生成する際の前記測距センサと前記撮像カメラの座標キャリブレーション方法において、
前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定するTOF(タイム・オブ・フライト)センサであって、
前記TOFセンサでTOF画像を取得し、前記撮像カメラでカメラ画像を取得するステップと、
前記TOF画像から人物を検知し該人物を囲む人検知枠Fbを作成し、前記カメラ画像から人物を検知し該人物を囲む人検知枠Faを作成するステップと、
前記TOFセンサと前記撮像カメラの設置パラメータを用いて、前記人検知枠Fbを前記カメラ画像の座標系に変換するステップと、
前記カメラ画像の座標系に変換された前記人検知枠(Fb’とする)と前記人検知枠Faとが共通の画面上で一致するように、前記撮像カメラの設置パラメータを変更することにより、前記TOFセンサと前記撮像カメラの設置パラメータのキャリブレーションを行うステップと、
備え
前記キャリブレーションのステップでは、前記人検知枠Fb’を前記人検知枠Faに前記共通の画面上で一致させるために、前記人検知Fbの位置が、前記人検知枠Faの位置に前記共通の画面上で一致するように、前記撮像カメラの設置パラメータを変更することを特徴とする座標キャリブレーション方法。
In a method for calibrating the coordinates of the ranging sensor and the imaging camera when the ranging sensor and the imaging camera are installed to generate a distance image of a target,
The distance sensor is a TOF (time of flight) sensor that measures the distance to the object based on the transmission time of light,
acquiring a TOF image with the TOF sensor and acquiring a camera image with the imaging camera;
detecting a person from the TOF image and creating a person detection frame Fb surrounding the person; detecting the person from the camera image and creating a person detection frame Fa surrounding the person;
converting the human detection frame Fb into a coordinate system of the camera image using installation parameters of the TOF sensor and the imaging camera ;
By changing the installation parameters of the imaging camera so that the human detection frame (referred to as Fb') converted to the coordinate system of the camera image and the human detection frame Fa match on a common screen, calibrating installation parameters of the TOF sensor and the imaging camera;
Equipped with
In the calibration step , in order to match the human detection frame Fb' with the human detection frame Fa on the common screen, the position of the human detection frame Fb ' is changed to the position of the human detection frame Fa. A coordinate calibration method characterized by changing installation parameters of the imaging camera so that they match on a common screen .
請求項に記載の座標キャリブレーション方法において、
前記人検知枠Fbと前記人検知枠Faを作成するステップは、検知する人物の位置が所定距離だけ移動する毎に実行して更新し、
前記人検知枠Fbを前記カメラ画像の座標系に変換するステップでは、変更された前記撮像カメラの設置パラメータを用いて前記人検知枠Fbを前記人検知枠Fb’に変換し、
前記キャリブレーションのステップでは、更新された前記人検知枠Faと前記人検知枠Fb’をもとに、前記撮像カメラの設置パラメータを繰り返して変更することを特徴とする座標キャリブレーション方法。
The coordinate calibration method according to claim 5 ,
The step of creating the human detection frame Fb and the human detection frame Fa is executed and updated every time the position of the person to be detected moves by a predetermined distance,
In the step of converting the human detection frame Fb to the coordinate system of the camera image, converting the human detection frame Fb into the human detection frame Fb' using the changed installation parameters of the imaging camera,
A coordinate calibration method characterized in that, in the calibration step, installation parameters of the imaging camera are repeatedly changed based on the updated human detection frame Fa and the updated human detection frame Fb'.
請求項に記載の座標キャリブレーション方法において、
前記人検知枠Faと前記人検知枠Fb’のアスペクト比(縦横比)が異なる場合、前記キャリブレーションのステップでは、前記人検知枠Fb’を前記人検知枠Faに前記共通の画面上で一致させるために、前記人検知枠Faのアスペクト比を、前記人検知枠Fb’のアスペクト比に合わせるよう、前記撮像カメラの画角のパラメータを変更することを特徴とする座標キャリブレーション方法。
The coordinate calibration method according to claim 5 ,
If the aspect ratios of the human detection frame Fa and the human detection frame Fb' are different, in the calibration step, the human detection frame Fb' is matched with the human detection frame Fa on the common screen. A coordinate calibration method comprising : changing a field angle parameter of the imaging camera so that the aspect ratio of the human detection frame Fa matches the aspect ratio of the human detection frame Fb'.
請求項に記載の座標キャリブレーション方法において、
前記カメラ画像から前記人検知枠Faを作成するステップでは、前記カメラ画像から人物を検知するとともに該人物の顔を検知する動作を行い、
前記カメラ画像から作成した前記人検知枠Faに人物の顔を検知できない場合には、前記キャリブレーションのステップでは、前記TOF画像から作成した前記人検知枠Fbをキャンセルすることを特徴とする座標キャリブレーション方法。
The coordinate calibration method according to claim 5 ,
In the step of creating the person detection frame Fa from the camera image, detecting a person from the camera image and detecting the face of the person,
If a person's face cannot be detected in the human detection frame Fa created from the camera image, in the calibration step, the human detection frame Fb created from the TOF image is canceled. tion method.
測距センサと撮像カメラを設置して対象物の距離画像を生成する測距システムにおいて、In a distance measurement system that installs a distance measurement sensor and an imaging camera to generate a distance image of an object,
前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定するTOF(タイム・オブ・フライト)センサであって、The distance sensor is a TOF (time of flight) sensor that measures the distance to the object based on the transmission time of light,
前記TOFセンサで取得したTOF画像と前記撮像カメラで取得したカメラ画像との位置合わせを行い、前記TOF画像から得た対象物の移動軌跡に前記カメラ画像から得た対象物の属性情報を重畳して表示する連携処理装置を備え、The TOF image obtained by the TOF sensor and the camera image obtained by the imaging camera are aligned, and attribute information of the object obtained from the camera image is superimposed on the movement trajectory of the object obtained from the TOF image. Equipped with a cooperative processing device that displays
前記連携処理装置は、The cooperative processing device includes:
前記カメラ画像から人物を検知しこれを囲む人検知枠Faを作成する第1の人物検知部と、a first person detection unit that detects a person from the camera image and creates a person detection frame Fa surrounding the person;
前記TOF画像から人物を検知しこれを囲む人検知枠Fbを作成する第2の人物検知部と、a second person detection unit that detects a person from the TOF image and creates a person detection frame Fb surrounding the person;
前記TOFセンサと前記撮像カメラの設置パラメータを用いて、前記TOF画像および前記人検知枠Fbを前記カメラ画像の座標系に変換する座標変換部と、a coordinate conversion unit that converts the TOF image and the human detection frame Fb into a coordinate system of the camera image using installation parameters of the TOF sensor and the imaging camera;
前記TOF画像と前記カメラ画像との位置合わせを行うため、前記座標変換部により変換された前記人検知枠(Fb’とする)が、前記人検知枠Faに共通の画面上で一致するように、前記撮像カメラの設置パラメータを変更することにより、前記TOFセンサと前記撮像カメラの設置パラメータのキャリブレーションを行うキャリブレーション部と、In order to align the TOF image and the camera image, the human detection frame (referred to as Fb') converted by the coordinate conversion unit is aligned with the human detection frame Fa on a common screen. , a calibration unit that calibrates installation parameters of the TOF sensor and the imaging camera by changing installation parameters of the imaging camera;
を備えることを特徴とする測距システム。A ranging system characterized by comprising:
測距センサと撮像カメラを設置して対象物の距離画像を生成する際の前記測距センサと前記撮像カメラの座標キャリブレーション方法において、In a method for calibrating the coordinates of the ranging sensor and the imaging camera when the ranging sensor and the imaging camera are installed to generate a distance image of a target,
前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定するTOF(タイム・オブ・フライト)センサであって、The distance sensor is a TOF (time of flight) sensor that measures the distance to the object based on the transmission time of light,
前記TOFセンサでTOF画像を取得し、前記撮像カメラでカメラ画像を取得するステップと、acquiring a TOF image with the TOF sensor and acquiring a camera image with the imaging camera;
前記TOF画像から人物を検知し該人物を囲む人検知枠Fbを作成し、前記カメラ画像から人物を検知し該人物を囲む人検知枠Faを作成するステップと、detecting a person from the TOF image and creating a person detection frame Fb surrounding the person; detecting the person from the camera image and creating a person detection frame Fa surrounding the person;
前記TOFセンサと前記撮像カメラの設置パラメータを用いて、前記人検知枠Fbを前記カメラ画像の座標系に変換するステップと、converting the human detection frame Fb into a coordinate system of the camera image using installation parameters of the TOF sensor and the imaging camera;
前記カメラ画像の座標系に変換された前記人検知枠(Fb’とする)と前記人検知枠Faとが共通の画面上で一致するように、前記撮像カメラの設置パラメータを変更することにより、前記TOFセンサと前記撮像カメラの設置パラメータのキャリブレーションを行うステップと、By changing the installation parameters of the imaging camera so that the human detection frame (referred to as Fb') converted to the coordinate system of the camera image and the human detection frame Fa match on a common screen, calibrating installation parameters of the TOF sensor and the imaging camera;
を備えることを特徴とする座標キャリブレーション方法。A coordinate calibration method comprising:
JP2020215824A 2020-12-24 2020-12-24 Ranging system and its coordinate calibration method Active JP7411539B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020215824A JP7411539B2 (en) 2020-12-24 2020-12-24 Ranging system and its coordinate calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020215824A JP7411539B2 (en) 2020-12-24 2020-12-24 Ranging system and its coordinate calibration method

Publications (2)

Publication Number Publication Date
JP2022101310A JP2022101310A (en) 2022-07-06
JP7411539B2 true JP7411539B2 (en) 2024-01-11

Family

ID=82271071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020215824A Active JP7411539B2 (en) 2020-12-24 2020-12-24 Ranging system and its coordinate calibration method

Country Status (1)

Country Link
JP (1) JP7411539B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073312A (en) 2011-09-27 2013-04-22 Panasonic Corp Driving support device
JP2013156718A (en) 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology Person tracking attribute estimation device, person tracking attribute estimation method and program
WO2017208422A1 (en) 2016-06-02 2017-12-07 日本郵船株式会社 Ship navigation support device
JP2019185115A (en) 2018-04-02 2019-10-24 パナソニック株式会社 Intrusion detection system and method for detecting intrusion
WO2020105527A1 (en) 2018-11-20 2020-05-28 コニカミノルタ株式会社 Image analysis device, image analysis system, and control program
WO2020230766A1 (en) 2019-05-14 2020-11-19 太陽誘電株式会社 Security system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073312A (en) 2011-09-27 2013-04-22 Panasonic Corp Driving support device
JP2013156718A (en) 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology Person tracking attribute estimation device, person tracking attribute estimation method and program
WO2017208422A1 (en) 2016-06-02 2017-12-07 日本郵船株式会社 Ship navigation support device
JP2019185115A (en) 2018-04-02 2019-10-24 パナソニック株式会社 Intrusion detection system and method for detecting intrusion
WO2020105527A1 (en) 2018-11-20 2020-05-28 コニカミノルタ株式会社 Image analysis device, image analysis system, and control program
WO2020230766A1 (en) 2019-05-14 2020-11-19 太陽誘電株式会社 Security system

Also Published As

Publication number Publication date
JP2022101310A (en) 2022-07-06

Similar Documents

Publication Publication Date Title
US10165202B2 (en) Method and system for performing alignment of a projection image to detected infrared (IR) radiation information
US10234873B2 (en) Flight device, flight control system and method
US9835445B2 (en) Method and system for projecting a visible representation of infrared radiation
US10237532B2 (en) Scan colorization with an uncalibrated camera
EP3258212A1 (en) Surveying system
US20160314593A1 (en) Providing a point cloud using a surveying instrument and a camera device
US20210096250A1 (en) Imaging device and monitoring device
CN112766328B (en) Intelligent robot depth image construction method fusing laser radar, binocular camera and ToF depth camera data
EP2870428A1 (en) 3-d scanning and positioning system
JP2003130621A (en) Method and system for measuring three-dimensional shape
US20180364033A1 (en) Three-dimensional measurement device with color camera
EP3955020A1 (en) Laser scanner with ultrawide-angle lens camera for registration
EP3989168A1 (en) Dynamic self-calibrating of auxiliary camera of laser scanner
KR102347226B1 (en) Fusion sensor data visualization device and method
JP7411539B2 (en) Ranging system and its coordinate calibration method
US20230324167A1 (en) Laser scanner for verifying positioning of components of assemblies
CN109618085B (en) Electronic equipment and mobile platform
EP4089637A1 (en) Hybrid feature matching between intensity image and color image
EP4086850A1 (en) Calibrating system for colorizing point-clouds
US20210356593A1 (en) Distance measurement system and method for calibrating distance measurement sensor
US20230186496A1 (en) Vision Sensing Device and Method
JP2003329418A (en) Three-dimensional measuring instrument
KR20130041440A (en) Image processing apparatus and method thereof
KR20200076056A (en) Data visualization apparatus and method
US11727655B1 (en) Systems and methods for synchronizing the scanning of a scene with the viewing of the scan results relative to a live view of the scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R150 Certificate of patent or registration of utility model

Ref document number: 7411539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150