JP7286586B2 - 測距システム及び測距センサのキャリブレーション方法 - Google Patents

測距システム及び測距センサのキャリブレーション方法 Download PDF

Info

Publication number
JP7286586B2
JP7286586B2 JP2020085253A JP2020085253A JP7286586B2 JP 7286586 B2 JP7286586 B2 JP 7286586B2 JP 2020085253 A JP2020085253 A JP 2020085253A JP 2020085253 A JP2020085253 A JP 2020085253A JP 7286586 B2 JP7286586 B2 JP 7286586B2
Authority
JP
Japan
Prior art keywords
distance
person
sensors
sensor
distance measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020085253A
Other languages
English (en)
Other versions
JP2021179376A (ja
Inventor
久紘 林
紀元 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi LG Data Storage Inc
Original Assignee
Hitachi LG Data Storage Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi LG Data Storage Inc filed Critical Hitachi LG Data Storage Inc
Priority to JP2020085253A priority Critical patent/JP7286586B2/ja
Priority to US17/215,221 priority patent/US20210356593A1/en
Priority to CN202110382150.3A priority patent/CN113671513B/zh
Publication of JP2021179376A publication Critical patent/JP2021179376A/ja
Application granted granted Critical
Publication of JP7286586B2 publication Critical patent/JP7286586B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、複数台の測距センサを用いて対象物までの距離を測定する測距システム及び測距センサのキャリブレーション方法に関する。
光の伝達時間に基づいて対象物までの距離を測定する方式(以下、TOF法:タイム・オブ・フライト法)による測距センサ(以下、TOFセンサとも呼ぶ)が知られる。TOFセンサで取得した距離データの特徴量から、例えば人物等を検知し、その検知した人物等の時間変化を追跡することで、移動経路を求めることができる。TOFセンサの原理は、光源から出射した照射光が対象物にて反射し、受光部に戻ってくるまでの時間を計測することで、対象物までの距離を算出するものである。TOFセンサには、1台で測定可能な距離と視野角(画角)には限界があるので、広い空間を測定する場合には、複数台のセンサを配置して測定する。
これに関し、例えば特許文献1に記載の距離画像カメラは、複数のカメラユニット(TOFセンサ)を備え、単一の撮像部の画角よりも広い画角を有するとともに距離精度の高い距離画像を得ることを目的としている。その構成として、「距離情報置換部で求められた前記平均距離情報と前記各距離画像の各画素の2次元画素位置とに基づいて各画素の2次元位置情報を補正する2次元位置補正部と、この2次元位置補正部で補正された各画素の前記2次元位置情報と前記距離情報とを共通の3次元座標系に変換することによって前記各距離画像を合成した合成距離画像を求める距離画像合成部とを有する」ことが開示されている。
特開2012-247226号公報
特許文献1には、各カメラユニット(TOFセンサ)の距離画像を座標変換して合成する場合、「各カメラユニット10の設置時のキャリブレーションによって得られたカメラパラメータ(内部および外部)にしたがって、各距離画像の各画素のX値、Y値、Z値をカメラ座標系または世界座標系にそれぞれ座標変換することで各距離画像を合成する」と記載されている。このキャリブレーションの一般的手法として、測定空間に特定の対象物(マーカ)を配置して各カメラユニット(TOFセンサ)でマーカの位置を測定し、共通の座標値となるように座標変換を行うことが知られている。しかし、現実にはマーカを適切に配置するのが困難な場合がある。
例えばキャリブレーション用の前記マーカとして、再帰性反射材からなる反射テープを用いることが知られているが、この反射テープを測定現場の床面に貼り付ける作業が必要になる。この作業はTOFセンサの台数が多くなるにつれ作業者の負荷が増大する。さらに、測定環境によっては床面に凹凸や障害物が存在し、反射テープを所望の位置に貼り付けることが困難な場合もありえる。
また特許文献1に記載の技術は、複数のカメラユニットの距離画像を合成するものであるが、各カメラユニットは対象物(箱)から見て同一方向に設置され、その対象物(箱)は、各カメラユニットの照射方向に対して垂直な面を有している。このため、位置関係が限定された画像合成であり、これに必要なキャリブレーションも限定されたものとなる。
本発明の目的は、測距センサのキャリブレーション作業のための作業者の負荷を軽減し、測定環境によらず、容易にキャリブレーションを実施できる測距システム及びキャリブレーション方法を提供することである。
本発明は、複数の測距センサを設置して測定領域内の対象物の距離画像を生成する測距システムにおいて、測距センサ間の位置合わせを行い、複数の測距センサからの距離データを合成して対象物の距離画像を表示する連携処理装置を備える。連携処理装置は、測距センサ間の位置合わせを行うため、複数の測距センサにより測定領域内を移動する人物の軌跡(以下、動線と呼ぶ)を取得し、各測距センサで取得した動線が共通の座標系で一致するように各測距センサの設置位置のキャリブレーションを行う。
また本発明は、複数の測距センサを設置して測定領域内の対象物の距離画像を生成する際の測距センサのキャリブレーション方法において、測距センサ間の位置合わせを行うため、複数の測距センサにより測定領域内を移動する人物を検知しその軌跡(動線)を取得するステップと、各測距センサで取得した動線が共通の座標系で一致するように各測距センサのセンサ設置情報のキャリブレーションを行うステップと、を備える。
本発明によれば、測距センサのキャリブレーション作業のための作業者の負荷が軽減し、測定環境によらず、容易にキャリブレーションを実施できる効果がある。
本実施例に係る測距システムの構成を示す図。 測距センサ(TOFセンサ)の構成を示す図。 TOF法による距離測定の原理を説明する図。 連携処理装置の構成を示す図。 反射テープを用いたキャリブレーション方法を説明する図。 反射テープを用いたキャリブレーション方法を説明する図。 動線データを用いたキャリブレーション方法を説明する図。 動線データを用いたキャリブレーション方法を説明する図。 動線データの信頼度の評価とその表示例を示す図。 キャリブレーション処理の手順を示すフローチャート。
以下、本発明の実施形態について説明する。本実施例の測距センサのキャリブレーションでは、測定空間を移動する人物の軌跡データ(動線データ)を各測距センサにて取得し、各測距センサで取得した軌跡データが共通の座標系で一致するように各センサ間の位置合わせ(設置位置情報の修正)を行うものである。
図1は、本実施例に係る測距システムの構成を示す図である。測距システムは、複数台の測距センサ(以下、「TOFセンサ」、あるいは単に「センサ」とも呼ぶ)1a,1bとこれらを制御する連携処理装置2とがネットワーク3で接続されている。連携処理装置2は、各センサ1で取得した距離データを合成して1つの距離画像を生成するが、そのために、各センサ1の位置情報を修正するキャリブレーション処理を行う。連携処理装置2には、例えばパソコン(PC)やサーバを用いる。
図1に示す例では、2台のセンサ1a,1bを天井5に取り付け、床面4に存在する対象物9(ここでは人物)までの距離を測定して、人物9の移動軌跡(動線)である距離画像を作成する。1台のセンサでは測定可能距離や視野角が限られているので、センサを複数台配置することで、測定領域を拡大できるだけでなく、対象物9の位置を精度良く測定することができる。そのためには、各センサにおける測定値の座標変換が精度良くなされなければならず、よってセンサ間のキャリブレーションが必要になる。
図2は、測距センサ(TOFセンサ)1の構成を示す図である。測距センサ1は、レーザダイオード(LD)や発光ダイオード(LED)などの光源から赤外光のパルス光を照射する発光部11、対象物から反射したパルス光をCCDセンサやCMOSセンサなどで受光する受光部12、発光部11の点灯/消灯と発光量の制御を行う発光制御部13、受光部12の検出信号(受光データ)から対象物までの距離を計算する距離計算部14を備える。距離計算部14で計算された距離データは、連携処理装置2へ送信される。また測距センサ1の発光制御部13は、連携処理装置2からの測定指令信号に従い発光を開始させる。
図3は、TOF法による距離測定の原理を説明する図である。測距センサ(TOFセンサ)1は、発光部11から対象物9(例えば人物)に向けて距離測定用の照射光31を出射する。受光部12は、対象物9で反射された反射光32を2次元センサ12aで受光する。2次元センサ12aはCCDセンサなどの複数の画素を2次元配列したもので、各画素における受光データから距離計算部14は2次元状の距離データを算出する。
対象物9は、発光部11および受光部12から距離Dだけ離れた位置に存在する。ここで、光速をcとして、発光部11が照射光31を出射してから受光部12が反射光32を受光するまでの時間差をtとすると、対象物9までの距離Dは、D=c×t/2で求められる。なお、距離計算部14の行う実用的な距離測定では、時間差tの代わりに、所定幅の照射パルスを出射し、これを2次元センサ12aで露光ゲートのタイミングをずらしながら受光する。そして、異なるタイミングにおける受光量(蓄積量)の値から距離Dを算出するようにしている(露光ゲート方式)。
図4は、連携処理装置2の構成を示す図である。連携処理装置2の構成は、各測距センサ1a,1bからの距離データを入力するデータ入力部21、入力した各距離データを共通の座標系の位置データに変換する座標変換部22、各位置データを合成して1つの距離画像を生成する画像合成部23、合成した距離画像を表示する表示部24、を備える。さらにセンサ1a,1b間のキャリブレーションを行うため、入力した各センサの距離データからキャリブレーションに有効な人物(動線)を検知する人物検知部25、及び合成画像の結果を基に座標変換部22で用いる変換パラメータ(センサ設置情報)を修正するキャリブレーション部26を備える。また、各センサ1a,1bに対し測定指示信号を送信する図示しない送信部を有する。
連携処理装置2では、座標変換や画像合成やキャリブレーションといった演算処理を行うが、これに用いるプログラムをROMに格納し、これをRAMに展開してCPUにより実行することで上記機能を実現する(図示せず)。なお、人物検知処理とキャリブレーション処理に関しては、ユーザ調整部(図示せず)を介し、作業者(ユーザ)が表示部24に表示される動線の画像を見ながら適宜調整を行うことも可能である。
次に、キャリブレーション方法について説明する。本実施例ではキャリブレーション処理のための測定対象物(マーカ)として人物の動線を用いるが、比較のために、反射テープを用いる方式から説明する。
図5Aと図5Bは、反射テープを用いたキャリブレーション方法を説明する図である。
図5A(1)は、反射テープ8を測定空間の床面4に配置(貼り付け)した状態を示す。センサ1a,1bは、測定空間(xyz座標で示す)の水平位置(x1,y1)、(x2,y2)に設置している。両者の設置高さzは簡単のために同一としているが、異なっていても演算で補正が可能である。また、センサ1a,1bの測定方向(視野角の中心方向)の方位角をθ1,θ2で表す。なお、両者の仰俯角は同一としているが、異なっていても演算で補正が可能である。反射テープ8は、入射した光を入射方向に向けて反射する特性を持つ再帰性反射材からなり、例えば床面4に十字状に貼り付ける。
図5A(2)は、センサ1a,1bにより反射テープ8の距離測定を行った状態を示す。センサ1aで測定した反射テープ8の位置を8aで、センサ1bで測定した反射テープ8の位置を8b(区別のため二重線で示す)で示す。測定位置8a,8bは、それぞれのセンサから得た距離データを、センサの設置位置(x1,y1)、(x2,y2)と方位角θ1,θ2を用いて座標変換し、共通の座標系上に表示したもので、言わば反射テープ8の仮想の測定像である。同一の反射テープ8でありながら、その測定位置(測定像)が8a,8bのように一致しない場合がある。これは、センサの設置位置(x1,y1)、(x2,y2)と方位角θ1,θ2の情報に誤差があるからである。また、センサの設置高さや仰俯角の情報に誤差があると、測定位置8a,8bは床面4に一致しないことになる。
キャリブレーション処理では、反射テープ8の測定位置8a,8bが一致するよう、センサの設置位置と方位角の情報を修正する。そして、修正した設置情報に基づいて座標変換して仮想の測定像を再度表示して、これらが一致するまで繰り返す。以下、キャリブレーションの手順について説明する。
図5B(1)は、視点変換を行った状態を示す。つまり、測定空間をz方向(真上)から見下ろしたときのxy面での測定位置(測定像)8a,8bを示し、両者は位置と方向がずれている。
図5B(2)は、測定位置8a,8bの位置合わせのため、センサの方位角情報を回転修正させた状態を示す。ここでは、センサ1aの方位角θ1はそのまま固定し、センサ1bの方位角情報をθ2からθ2’に修正することで、測定位置8a,8bの方向(十字の方向)を一致させている。
図5B(3)は、測定位置8a,8bの位置合わせのため、センサの位置情報を移動修正させた状態を示す。センサ1aの位置(x1,y1)はそのまま固定し、センサ1bの位置情報を(x2,y2)から(x2’,y2’)に修正することで、測定位置8a,8bを一致させている。
以上の反射テープ8を用いるキャリブレーション方法では、マーカとなる反射テープを測定現場に貼り付ける作業が必要になる。その際、センサの台数が増加すると貼り付け作業の負荷が増大し、また測定環境によっては床面が平坦でなくあるいは障害物が存在して反射テープを貼るのが困難となる場合がある。そこで本実施例では、反射テープではなく、移動する人物の動線データを利用するところに特徴がある。以下、動線データを用いたキャリブレーション方法について説明する。
図6Aと図6Bは、動線データを用いたキャリブレーション方法を説明する図である。
図6A(1)は、人物9が測定空間の床面4を移動している状態を示す。なお、センサ1a,1bの設定位置(x1,y1)、(x2,y2)と測定方向(方位角)θ1,θ2は前記図5Aと同様である。人物9は時刻t0からt2にかけて、床面4上を破線のように移動したものとする。
図6A(2)は、センサ1a,1bにより人物9までの距離測定を行った状態を示す。なお、人物9までの距離として、例えば人物像から頭部を抽出し、頭部までの距離データで代表させる。そして、床面4を移動した人物9の移動軌跡(動線)のデータを取得する。センサ1aで測定した人物9の動線を9aで、センサ1bで測定した人物9の動線を9b(区別のため二重線で示す)で示す。この場合も、動線9a,9bは、それぞれのセンサから得た距離データを、センサの設置位置(x1,y1)、(x2,y2)と方位角θ1,θ2を用いて座標変換し、共通の座標系上に表示したもので、人物9の動線の仮想の測定像である。同一の人物9が移動したのにもかかわらず、その動線(測定像)が9a,9bのように一致しない場合がある。これは、センサの設置位置(x1,y1)、(x2,y2)と方位角θ1,θ2の情報に誤差があるからである。また、センサの設置高さや仰俯角の情報に誤差があると、動線9a,9bは床面に一致しないことになる。
キャリブレーション処理では、人物9の動線9a,9bが一致するよう、センサの設置位置と方位角の情報を修正する。そして、修正した設置情報に基づいて座標変換して動線を再度表示して、これらが一致するまで繰り返す。以下、キャリブレーションの手順について説明する。
図6B(1)は、視点変換を行った状態を示す。つまり、測定空間をz方向(真上)から見下ろしたときのxy面での動線9a,9bを示し、両者は位置と方向がずれている。なお、この例では、動線9aの開始時刻t0と、動線9bの開始時刻t1とが異なるため、動線の長さも異なっている。
図6B(2)は、動線9a、9bの位置合わせのため、センサの方位角情報を回転修正させた状態を示す。ここでは、センサ1aの方位角θ1はそのまま固定し、センサ1bの方位角情報をθ2からθ2’に修正することで、動線9a,9bの方向を一致させている。その際、時刻情報を参照することで両者の動線の共通部分(すなわち時刻t1~t2の区間)が平行になるように修正する。
図6B(3)は、動線9a,9bの位置合わせのため、センサの位置情報を移動修正させた状態を示す。センサ1aの位置(x1,y1)はそのまま固定し、センサ1bの位置情報を(x2,y2)から(x2’,y2’)に修正することで、動線9a,9bを一致させている。本例では、動線9a,9bの時刻t1~t2の区間が一致している。
このように本実施例では、人物の移動軌跡である動線データを利用してキャリブレーションを行うものであり、比較例のように、作業者が反射テープを床面に貼り付ける必要がない。よって、キャリブレーション作業のための作業者の負荷が軽減し、測定環境によらず、容易にキャリブレーションを実施できるようになる。また、様々な形状のキャリブレーション用の軌跡データを容易に得ることができるようになり、キャリブレーションの精度向上が期待できる。
また本実施例では、人物の頭部の動線データを用いるようにしたので、人物の頭部の高さ位置でのキャリブレーションが可能となる。よって、比較例のように反射テープを貼り付ける床面上でのキャリブレーションに比較して、測定対象が人物である場合のキャリブレーションとしてより適切であり、また精度向上が期待できる。
本実施例では、人物の動線データを取得するために、特定の人物を移動させてもよいが、任意の人物が測定空間を移動することを利用することもできる。よって、測距センサにより様々な動線データが得られることになり、その中からキャリブレーションに用いる有効な動線データを抽出する必要がある。また有効な動線データを作業者(ユーザ)が抽出する場合もあることを想定し、動線データの表示方法を工夫する必要がある。これらを考慮して、本実施例では以下のように処理を行う。
(1)距離データから検知した人物の付随情報として身長情報を取得して、身長が一致する人物同士の動線データを抽出して動線の位置合わせを行う。これにより測定空間を不特定多数の人物が移動するような場合でも、同一人物に絞り込んで位置合わせを行うことができる。
(2)動線データの付随情報として距離データを取得した時刻情報を参照し、時刻が一致する動線上の点の位置が一致するよう動線の位置合わせを行う。よって、動線データを表示するときは、時刻の同期をとってアニメーション表示を行う。
(3)動線データの信頼度を評価して、信頼度の高い動線データを抽出する。ここでいう信頼度とは、検出した人物データの測定確度の高さであり、センサからの距離が近い人物、点群量が多い人物、また人物の検出方向が視野角内の中央寄りであれば、信頼度が高い。逆に、センサから遠くなるほど、また視野角内の端部位置ではTOF方式の受光強度が低下して測定値の信頼性が低下する。さらに、検知される人物の領域が小さくなると、点群量(受光部の検知画素数)が減少し、あるいは人物の手前に障害物が存在すると動線データの一部が欠落(隠蔽)される恐れがあるので(オクルージョン発生)、これも信頼性を低下させる。動線データの信頼度を評価したら、表示部24には動線を評価結果に応じて区別して表示する。例えば、信頼度が高い動線は濃く表示し、信頼度の低い動線は薄く表示する(あるいは、表示色を変えてもよい)。
(4)複数のセンサの動線データを表示部24に表示するとき、センサごとに動線データの表示のOn/Off切替を可能にする。また、過去に測定した複数回分の動線データを保存しておき、これから所望のデータを読み出して表示する。キャリブレーション調整を複数回のデータを用いて行うことで、キャリブレーションの精度が向上する。
上記(3)で述べた動線データの信頼度に関し、図面を用いて説明する。
図7は、動線データの信頼度の評価とその表示例を示す図である。センサ1aで測定した動線データとして4つの例91~94を示す。動線91はセンサ1aから近い位置にあり、動線92は検出位置が視野角の端部にある場合である。また、動線93はセンサ1aから遠い位置にあり、動線94は移動経路の手前に障害物95が存在する場合である。動線91を基準に比較すると、動線92は視野角の端部にあるため受光量が少なく、動線93は遠い位置にあるため点群量が少なく、動線94は動線の一部が欠落している。よってこれらの動線91~94を表示するとき、信頼度の高い動線91は濃く表示し、信頼度の低い他の動線92~94は薄く表示する。あるいは、信頼度に応じて動線の色を変えて表示してもよい。これにより作業者は、複数の動線から信頼度の高い動線を選択し、キャリブレーションに使用することができる。
また、動線データを利用する場合、動線の形状も考慮した方がよい。つまり、動線の長さが短いと方向(回転)の位置合わせが困難になるので、所定以上の長さが必要である。また、動線の形状が直線状である場合、それに垂直な方向の位置合わせは明確に行えるが、それに平行な方向の位置合わせは不明確になる。よって、動線の形状は曲線状のものが好ましく、信頼度が高いといえる。
図8は、本実施例のキャリブレーション処理の手順を示すフローチャートである。キャリブレーション処理は、連携処理装置2が各測距センサに指示を出して実施する。以下、処理の内容をステップ順に説明する。
S101:連携処理装置2は、各測距センサ1の設置パラメータを設定する。設置パラメータには、センサの設置位置(x,y,z)と測定方向(方位角)(θx,θy,θz)などがある。
S102:連携処理装置2からの指示で、各センサ1は測定空間の距離データを所定時間にわたって取得し、連携処理装置2に送信する。
S103:連携処理装置2の人物検知部25では、受信した距離データから人物を検知する。人物検知では、画像認識技術により人物の頭部の位置を検出する。また、付随情報として、検出した人物の時刻、身長、点群量(人物領域に含まれる画素数)などを取得し保持する。複数の人物が検出されれば、それぞれの人物について位置情報や付随情報を取得する。
S104:さらに人物検知部25では、検出した人物(動線データ)についてその信頼度を評価する。これは、キャリブレーション処理に用いる上で最も確度の高いデータを抽出するための評価であって、センサからの距離が近い人物、点群量が多い人物、また検出方向が視野角の中央寄りであること、などを条件に評価する。
S105:座標変換部22は、各センサで検出された人物の位置データを共通の座標空間に変換する。座標変換では、S101で設定した設置パラメータを用いる。
S106:座標変換した人物データは十分であるか否かを判定する。すなわち、各センサで検出した人物の付随情報(時刻、身長)がセンサ間で互いに一致しているかどうかを判定する。データが十分であればS107へ進み、十分でなければS102に戻り、再度距離データを取得する。
S107:画像合成部23は、S105で座標変換された各センサからの人物の位置データを、時刻の同期をとって共通の座標空間に合成して表示部24に描画する。すなわち、各センサにより取得された動線が表示される。検知した人物が複数あれば、複数組の動線が表示される。
S108:キャリブレーション部26は、各センサで取得された動線の類似度を算出する。すなわち、動線の形状(パターン)が互いに類似している箇所を抽出する。そのため、時刻が対応する各センサからの動線部分を比較し、パターンマッチング法により動線の類似度を求める。
S109:キャリブレーション部26は、動線の類似度(対応関係)が高い部分について、動線が一致するように各センサの位置合わせ(移動、回転)を行う。すなわち、各センサの設置パラメータを、設置位置(x’,y’,z’)と測定方向(方位角)(θx’,θy’,θz’)に修正する。ここでセンサが複数(3台以上)存在するときは、基準となるセンサを決め、これに対し他のセンサを1台ずつ位置合わせを行う、あるいは、修正済みのセンサに対し、他の未修正センサの位置合わせを順に行う。
S110:キャリブレーション結果は、座標変換部22により再度動線位置を座標変換し、表示部24に描画される。作業者は修正後の動線位置を見て十分かどうかを判定する。十分であればこれでキャリブレーション処理を終了し、不十分であればS107に戻り、位置合わせを繰り返し行う。
上記のフローにおいて、S104の信頼度の評価と、S109のキャリブレーションの工程では、ユーザ調整部により、作業者が表示部24に表示された動線を見ながら補助的に行うことも可能である。すなわち、S104では動線の信頼度を作業者が判定して信頼度の高い動線を選択することで、以後のキャリブレーション処理の効率を向上させることができる。また、S109のキャリブレーション工程では、作業者が設置パラメータを手動で微調整し、キャリブレーション処理の精度をより向上させることができる。
以上のように本実施例における測距センサのキャリブレーションでは、測定空間を移動する人物の軌跡データ(動線データ)を各測距センサにて取得し、各測距センサで取得した軌跡データが共通の座標系で一致するように各センサ間の位置合わせ(設置位置情報の修正)を行う。これによりキャリブレーション作業のために作業者がマーカ(反射テープ)を設置する負荷が軽減し、測定環境によらず、容易にキャリブレーションを実施できる。
1,1a,1b:測距センサ(TOFセンサ)、
2:連携処理装置、
3:ネットワーク、
4:床面、
8:反射テープ、
9:対象物(人物)、
9a,9b、91~94:動線、
11:発光部、
12:受光部、
13:発光制御部、
14:距離計算部、
21:データ入力部、
22:座標変換部、
23:画像合成部、
24:表示部、
25:人物検知部、
26:キャリブレーション部。

Claims (12)

  1. 複数の測距センサを設置して測定領域内の対象物の距離画像を生成する測距システムにおいて、
    前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定する方式のものであって、
    前記測距センサ間の位置合わせを行い、前記複数の測距センサからの距離データを合成して対象物の距離画像を表示する連携処理装置を備え、
    前記連携処理装置は、前記測距センサ間の位置合わせを行うため、前記複数の測距センサにより測定領域内を移動する人物の軌跡(以下、動線と呼ぶ)を取得し、各測距センサで取得した動線が共通の座標系で一致するように各測距センサの設置位置のキャリブレーションを行い、
    前記連携処理装置は、
    前記複数の測距センサのセンサ設置情報を用いて、前記複数の測距センサからの距離データを共通の座標系の位置データに変換する座標変換部と、
    各測定データを合成して1つの距離画像を生成する画像合成部と、
    合成した距離画像を表示する表示部と、
    前記複数の測距センサから入力した距離データからキャリブレーションに有効な人物の動線を検知する人物検知部と、
    前記人物の動線を合成した距離画像の結果を基に、前記座標変換部で用いる前記センサ設置情報を修正するキャリブレーション部と、
    を備え、
    前記人物検知部は、検知した人物の付随情報として人物の身長情報を取得し、
    前記キャリブレーション部は、前記複数の測距センサで取得した人物の動線の位置合わせを行うとき、動線の類似度を算出するとともに、前記人物検知部で取得した人物の身長情報と距離データを取得した時刻情報とを参照し、該身長情報または該時刻情報が一致する動線の間で位置合わせを行うことを特徴とする測距システム。
  2. 複数の測距センサを設置して測定領域内の対象物の距離画像を生成する測距システムにおいて、
    前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定する方式のものであって、
    前記測距センサ間の位置合わせを行い、前記複数の測距センサからの距離データを合成して対象物の距離画像を表示する連携処理装置を備え、
    前記連携処理装置は、前記測距センサ間の位置合わせを行うため、前記複数の測距センサにより測定領域内を移動する人物の軌跡(以下、動線と呼ぶ)を取得し、各測距センサで取得した動線が共通の座標系で一致するように各測距センサの設置位置のキャリブレーションを行い、
    前記連携処理装置は、
    前記複数の測距センサのセンサ設置情報を用いて、前記複数の測距センサからの距離データを共通の座標系の位置データに変換する座標変換部と、
    各測定データを合成して1つの距離画像を生成する画像合成部と、
    合成した距離画像を表示する表示部と、
    前記複数の測距センサから入力した距離データからキャリブレーションに有効な人物の動線を検知する人物検知部と、
    前記人物の動線を合成した距離画像の結果を基に、前記座標変換部で用いる前記センサ設置情報を修正するキャリブレーション部と、
    を備え、
    前記人物検知部は、検知した人物の付随情報として前記測距センサから人物までの距離を取得するとともに、検知した人物について、前記測距センサから人物までの距離に応じて動線の信頼度を評価し、
    前記キャリブレーション部は、前記人物検知部により信頼度が高いと評価された動線の間で位置合わせを行うことを特徴とする測距システム。
  3. 複数の測距センサを設置して測定領域内の対象物の距離画像を生成する測距システムにおいて、
    前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定する方式のものであって、
    前記測距センサ間の位置合わせを行い、前記複数の測距センサからの距離データを合成して対象物の距離画像を表示する連携処理装置を備え、
    前記連携処理装置は、前記測距センサ間の位置合わせを行うため、前記複数の測距センサにより測定領域内を移動する人物の軌跡(以下、動線と呼ぶ)を取得し、各測距センサで取得した動線が共通の座標系で一致するように各測距センサの設置位置のキャリブレーションを行い、
    前記連携処理装置は、
    前記複数の測距センサのセンサ設置情報を用いて、前記複数の測距センサからの距離データを共通の座標系の位置データに変換する座標変換部と、
    各測定データを合成して1つの距離画像を生成する画像合成部と、
    合成した距離画像を表示する表示部と、
    前記複数の測距センサから入力した距離データからキャリブレーションに有効な人物の動線を検知する人物検知部と、
    前記人物の動線を合成した距離画像の結果を基に、前記座標変換部で用いる前記センサ設置情報を修正するキャリブレーション部と、
    を備え、
    前記人物検知部は、検知した人物の付随情報として人物領域に含まれる点群量を取得するとともに、検知した人物について、人物領域に含まれる点群量に応じて動線の信頼度を評価し、
    前記キャリブレーション部は、前記人物検知部により信頼度が高いと評価された動線の間で位置合わせを行うことを特徴とする測距システム。
  4. 複数の測距センサを設置して測定領域内の対象物の距離画像を生成する測距システムにおいて、
    前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定する方式のものであって、
    前記測距センサ間の位置合わせを行い、前記複数の測距センサからの距離データを合成して対象物の距離画像を表示する連携処理装置を備え、
    前記連携処理装置は、前記測距センサ間の位置合わせを行うため、前記複数の測距センサにより測定領域内を移動する人物の軌跡(以下、動線と呼ぶ)を取得し、各測距センサで取得した動線が共通の座標系で一致するように各測距センサの設置位置のキャリブレーションを行い、
    前記連携処理装置は、
    前記複数の測距センサのセンサ設置情報を用いて、前記複数の測距センサからの距離データを共通の座標系の位置データに変換する座標変換部と、
    各測定データを合成して1つの距離画像を生成する画像合成部と、
    合成した距離画像を表示する表示部と、
    前記複数の測距センサから入力した距離データからキャリブレーションに有効な人物の動線を検知する人物検知部と、
    前記人物の動線を合成した距離画像の結果を基に、前記座標変換部で用いる前記センサ設置情報を修正するキャリブレーション部と、
    を備え、
    前記人物検知部は、検知した人物の付随情報として視野角内の人物の検出方向を取得するとともに、検知した人物について、視野角内の人物の検出方向に応じて動線の信頼度を評価し、
    前記キャリブレーション部は、前記人物検知部により信頼度が高いと評価された動線の間で位置合わせを行うことを特徴とする測距システム。
  5. 複数の測距センサを設置して測定領域内の対象物の距離画像を生成する測距システムにおいて、
    前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定する方式のものであって、
    前記測距センサ間の位置合わせを行い、前記複数の測距センサからの距離データを合成して対象物の距離画像を表示する連携処理装置を備え、
    前記連携処理装置は、前記測距センサ間の位置合わせを行うため、前記複数の測距センサにより測定領域内を移動する人物の軌跡(以下、動線と呼ぶ)を取得し、各測距センサで取得した動線が共通の座標系で一致するように各測距センサの設置位置のキャリブレーションを行い、
    前記連携処理装置は、
    前記複数の測距センサのセンサ設置情報を用いて、前記複数の測距センサからの距離データを共通の座標系の位置データに変換する座標変換部と、
    各測定データを合成して1つの距離画像を生成する画像合成部と、
    合成した距離画像を表示する表示部と、
    前記複数の測距センサから入力した距離データからキャリブレーションに有効な人物の動線を検知する人物検知部と、
    前記人物の動線を合成した距離画像の結果を基に、前記座標変換部で用いる前記センサ設置情報を修正するキャリブレーション部と、
    を備え、
    前記人物検知部は、検知した人物の付随情報として人物の手前に障害物が存在するか否かを取得するとともに、検知した人物について、人物の手前に障害物が存在するか否かに応じて動線の信頼度を評価し、
    前記キャリブレーション部は、前記人物検知部により信頼度が高いと評価された動線の間で位置合わせを行うことを特徴とする測距システム。
  6. 請求項のいずれか1項に記載の測距システムにおいて、
    前記人物検知部にて評価した動線の信頼度に応じて、前記表示部には、動線の濃度または色を変えて表示することを特徴とする測距システム。
  7. 請求項に記載の測距システムにおいて、
    前記人物検知部により検知した人物の動線からキャリブレーションに有効な動線をユーザが選択し、前記キャリブレーション部により前記センサ設置情報を修正するときにユーザが微調整するためのユーザ調整部を備えることを特徴とする測距システム。
  8. 複数の測距センサを設置して測定領域内の対象物の距離画像を生成する際の前記測距センサのキャリブレーション方法において、
    前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定する方式のものであって、
    前記測距センサ間の位置合わせを行うため、前記複数の測距センサにより測定領域内を移動する人物を検知しその軌跡(以下、動線と呼ぶ)を取得するステップと、
    各測距センサで取得した動線が共通の座標系で一致するように各測距センサのセンサ設置情報のキャリブレーションを行うステップと、
    を備え、
    前記動線を取得するステップでは、検知した人物の付随情報として人物の身長情報を取得し、
    前記キャリブレーションを行うステップでは、前記複数の測距センサで取得した動線の類似度を算出するとともに、前記検知した人物の身長情報と距離を測定した時刻情報とを参照し、該身長情報または該時刻情報が一致する動線の間で位置合わせを行うことを特徴とする測距センサのキャリブレーション方法。
  9. 複数の測距センサを設置して測定領域内の対象物の距離画像を生成する際の前記測距センサのキャリブレーション方法において、
    前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定する方式のものであって、
    前記測距センサ間の位置合わせを行うため、前記複数の測距センサにより測定領域内を移動する人物を検知しその軌跡(以下、動線と呼ぶ)を取得するステップと、
    各測距センサで取得した動線が共通の座標系で一致するように各測距センサのセンサ設置情報のキャリブレーションを行うステップと、
    を備え、
    前記動線を取得するステップでは、検知した人物の付随情報として前記測距センサから人物までの距離を取得するとともに、検知した人物について、前記測距センサから人物までの距離に応じて動線の信頼度を評価し、
    前記キャリブレーションを行うステップでは、前記動線を取得するステップにて信頼度が高いと評価された動線の間で位置合わせを行うことを特徴とする測距センサのキャリブレーション方法。
  10. 複数の測距センサを設置して測定領域内の対象物の距離画像を生成する際の前記測距センサのキャリブレーション方法において、
    前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定する方式のものであって、
    前記測距センサ間の位置合わせを行うため、前記複数の測距センサにより測定領域内を移動する人物を検知しその軌跡(以下、動線と呼ぶ)を取得するステップと、
    各測距センサで取得した動線が共通の座標系で一致するように各測距センサのセンサ設置情報のキャリブレーションを行うステップと、
    を備え、
    前記動線を取得するステップでは、検知した人物の付随情報として人物領域に含まれる点群量を取得するとともに、検知した人物について、人物領域に含まれる点群量に応じて動線の信頼度を評価し、
    前記キャリブレーションを行うステップでは、前記動線を取得するステップにて信頼度
    が高いと評価された動線の間で位置合わせを行うことを特徴とする測距センサのキャリブレーション方法。
  11. 複数の測距センサを設置して測定領域内の対象物の距離画像を生成する際の前記測距センサのキャリブレーション方法において、
    前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定する方式のものであって、
    前記測距センサ間の位置合わせを行うため、前記複数の測距センサにより測定領域内を移動する人物を検知しその軌跡(以下、動線と呼ぶ)を取得するステップと、
    各測距センサで取得した動線が共通の座標系で一致するように各測距センサのセンサ設置情報のキャリブレーションを行うステップと、
    を備え、
    前記動線を取得するステップでは、検知した人物の付随情報として視野角内の人物の検出方向を取得するとともに、検知した人物について、視野角内の人物の検出方向に応じて動線の信頼度を評価し、
    前記キャリブレーションを行うステップでは、前記動線を取得するステップにて信頼度が高いと評価された動線の間で位置合わせを行うことを特徴とする測距センサのキャリブレーション方法。
  12. 複数の測距センサを設置して測定領域内の対象物の距離画像を生成する際の前記測距センサのキャリブレーション方法において、
    前記測距センサは、光の伝達時間に基づいて対象物までの距離を測定する方式のものであって、
    前記測距センサ間の位置合わせを行うため、前記複数の測距センサにより測定領域内を移動する人物を検知しその軌跡(以下、動線と呼ぶ)を取得するステップと、
    各測距センサで取得した動線が共通の座標系で一致するように各測距センサのセンサ設置情報のキャリブレーションを行うステップと、
    を備え、
    前記動線を取得するステップでは、検知した人物の付随情報として人物の手前に障害物が存在するか否かを取得するとともに、検知した人物について、人物の手前に障害物が存在するか否かに応じて動線の信頼度を評価し、
    前記キャリブレーションを行うステップでは、前記動線を取得するステップにて信頼度が高いと評価された動線の間で位置合わせを行うことを特徴とする測距センサのキャリブレーション方法。
JP2020085253A 2020-05-14 2020-05-14 測距システム及び測距センサのキャリブレーション方法 Active JP7286586B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020085253A JP7286586B2 (ja) 2020-05-14 2020-05-14 測距システム及び測距センサのキャリブレーション方法
US17/215,221 US20210356593A1 (en) 2020-05-14 2021-03-29 Distance measurement system and method for calibrating distance measurement sensor
CN202110382150.3A CN113671513B (zh) 2020-05-14 2021-04-09 测距系统以及测距传感器的校准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020085253A JP7286586B2 (ja) 2020-05-14 2020-05-14 測距システム及び測距センサのキャリブレーション方法

Publications (2)

Publication Number Publication Date
JP2021179376A JP2021179376A (ja) 2021-11-18
JP7286586B2 true JP7286586B2 (ja) 2023-06-05

Family

ID=78511259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020085253A Active JP7286586B2 (ja) 2020-05-14 2020-05-14 測距システム及び測距センサのキャリブレーション方法

Country Status (3)

Country Link
US (1) US20210356593A1 (ja)
JP (1) JP7286586B2 (ja)
CN (1) CN113671513B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7245767B2 (ja) * 2019-12-23 2023-03-24 株式会社日立エルジーデータストレージ 全方位測距装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020800A (ja) 2007-07-13 2009-01-29 Casio Comput Co Ltd 特徴点追跡装置及びプログラム
JP2009140060A (ja) 2007-12-04 2009-06-25 Sony Computer Entertainment Inc 画像処理装置、画像評価方法、プログラム及び情報記憶媒体
JP2012088135A (ja) 2010-10-19 2012-05-10 Advanced Telecommunication Research Institute International 距離センサのキャリブレーション装置、キャリブレーションプログラムおよびキャリブレーション方法
JP2017106749A (ja) 2015-12-07 2017-06-15 株式会社Hielero 点群データ取得システム及びその方法
JP2018159693A (ja) 2017-03-24 2018-10-11 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置
US20190253621A1 (en) 2018-02-10 2019-08-15 Goodrich Corporation Distributed aperture systems for obstacle avoidance

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056853A (ja) * 1999-08-19 2001-02-27 Matsushita Electric Ind Co Ltd 挙動検出装置および種類識別装置、並びに挙動検出方法および挙動検出用プログラムが記録された記録媒体
JP2009143722A (ja) * 2007-12-18 2009-07-02 Mitsubishi Electric Corp 人物追跡装置、人物追跡方法及び人物追跡プログラム
US20120020518A1 (en) * 2009-02-24 2012-01-26 Shinya Taguchi Person tracking device and person tracking program
JP5756709B2 (ja) * 2011-08-03 2015-07-29 綜合警備保障株式会社 身長推定装置、身長推定方法、及び身長推定プログラム
JP5950296B2 (ja) * 2012-01-27 2016-07-13 国立研究開発法人産業技術総合研究所 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
JP5950122B2 (ja) * 2013-12-27 2016-07-13 株式会社国際電気通信基礎技術研究所 キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP2016162409A (ja) * 2015-03-05 2016-09-05 沖電気工業株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
CN107590439B (zh) * 2017-08-18 2020-12-15 湖南文理学院 基于监控视频的目标人物识别追踪方法和装置
CA3028659C (en) * 2017-12-11 2021-10-12 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for identifying and positioning objects around a vehicle
JP7339485B2 (ja) * 2018-10-22 2023-09-06 国立大学法人大阪大学 計測システム
CN109671101A (zh) * 2018-11-30 2019-04-23 江苏文化投资管理集团有限公司 行为轨迹采集装置及智能终端
CN111046834B (zh) * 2019-12-24 2021-07-06 南京烽火星空通信发展有限公司 一种基于自动学习分析的监控视频人物比例矫正方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020800A (ja) 2007-07-13 2009-01-29 Casio Comput Co Ltd 特徴点追跡装置及びプログラム
JP2009140060A (ja) 2007-12-04 2009-06-25 Sony Computer Entertainment Inc 画像処理装置、画像評価方法、プログラム及び情報記憶媒体
JP2012088135A (ja) 2010-10-19 2012-05-10 Advanced Telecommunication Research Institute International 距離センサのキャリブレーション装置、キャリブレーションプログラムおよびキャリブレーション方法
JP2017106749A (ja) 2015-12-07 2017-06-15 株式会社Hielero 点群データ取得システム及びその方法
JP2018159693A (ja) 2017-03-24 2018-10-11 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置
US20190253621A1 (en) 2018-02-10 2019-08-15 Goodrich Corporation Distributed aperture systems for obstacle avoidance

Also Published As

Publication number Publication date
CN113671513B (zh) 2024-02-23
US20210356593A1 (en) 2021-11-18
CN113671513A (zh) 2021-11-19
JP2021179376A (ja) 2021-11-18

Similar Documents

Publication Publication Date Title
US9967545B2 (en) System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices
US9322654B2 (en) Laser tracker with a target sensing unit for target tracking and orientation detection
JP5073256B2 (ja) 位置測定装置及び位置測定方法及び位置測定プログラム
CN103415780B (zh) 用于确定测量仪的位置和定向的方法和系统
JP2011530209A (ja) 走査された光線のオーバーレイ投影
JP6753107B2 (ja) 距離測定装置、距離測定方法及びプログラム
JP6863185B2 (ja) 距離測定装置、距離測定方法及びプログラム
WO2020156299A1 (zh) 基于三维光学成像传感器的三维超声成像方法和系统
JP7064163B2 (ja) 3次元情報取得システム
JP2008165800A (ja) カーソル制御方法及び装置
US12025468B2 (en) Optical sensor with overview camera
CN113406655B (zh) 测距装置的测量值修正方法和测距装置
CN113884081B (zh) 测定定位点三维坐标的方法及设备
JP6955203B2 (ja) 物体検出システム及び物体検出プログラム
US11692812B2 (en) System and method for measuring three-dimensional coordinates
JP7286586B2 (ja) 測距システム及び測距センサのキャリブレーション方法
JP2009092535A (ja) 光学式変位計
CN102401901B (zh) 测距系统及测距方法
JP2023159835A (ja) 測距システム及び測距センサのキャリブレーション方法
KR102290218B1 (ko) 복수의 카메라를 이용한 위치추적 시스템 및 이를 이용한 위치추적 방법
JP4024124B2 (ja) 位置特定装置、その方法およびそのプログラム
JP7411539B2 (ja) 測距システム及びその座標キャリブレーション方法
KR20080101570A (ko) 물체의 외곽 단면과 입체 형상을 측정하는 장치 및 방법
EP1379833B1 (en) Method for indicating a point in a measurement space
WO2020179382A1 (ja) 監視装置、及び監視方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230524

R150 Certificate of patent or registration of utility model

Ref document number: 7286586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150