JP2023065012A - 記憶装置、および記憶方法 - Google Patents

記憶装置、および記憶方法 Download PDF

Info

Publication number
JP2023065012A
JP2023065012A JP2021175544A JP2021175544A JP2023065012A JP 2023065012 A JP2023065012 A JP 2023065012A JP 2021175544 A JP2021175544 A JP 2021175544A JP 2021175544 A JP2021175544 A JP 2021175544A JP 2023065012 A JP2023065012 A JP 2023065012A
Authority
JP
Japan
Prior art keywords
unit
information
storage device
self
dimensional radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021175544A
Other languages
English (en)
Inventor
空悟 守田
Kugo Morita
欣也 杉本
Kinya Sugimoto
剛洋 榮祝
Takahiro Saiwai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2021175544A priority Critical patent/JP2023065012A/ja
Publication of JP2023065012A publication Critical patent/JP2023065012A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

【課題】適切に自己位置推定を行うこと。【解決手段】記憶装置は、所定位置の周囲の画像を撮像するとともに、所定位置から周囲の物体までの距離を計測するセンサ部と、センサ部が撮像した画像における可視領域と不可視領域とからキーポイントを抽出するキーポイント抽出部と、可視領域のキーポイントと、不可視領域のキーポイントとに基づいて、位置推定を行う自己位置推定部と、自己位置推定部の位置推定結果に関する情報を記憶する記憶部と、を備える。【選択図】図2

Description

本開示は、記憶装置、および記憶方法に関する。
トンネルなどの工事現場において、施工中の壁面などのコンクリートのクラックの有無を検査する技術が知られている。例えば、特許文献1には、道路構造物の表面の欠陥を、車両を用いて検査する技術が開示されている。例えば、特許文献2には、構造物の変状箇所の状態と座標とを関連付ける技術が開示されている。
特許第6068099号公報 特許第6829846号公報
工事現場などの様々な物が様々な場所に配置されていたり、多数の作業者および工事車両が動き回っていたりする環境下で、構造物のクラックを検出し、適切にクラックと位置情報を関連付けることは困難である可能性がある。
本開示は、適切に自己位置推定を行うことのできる記憶装置、および記憶方法を提供することを目的とする。
本開示に係る記憶装置は、所定位置の周囲の画像を撮像するとともに、前記所定位置から周囲の物体までの距離を計測するセンサ部と、前記センサ部が撮像した画像における可視領域と不可視領域とからキーポイントを抽出するキーポイント抽出部と、前記可視領域のキーポイントと、前記不可視領域のキーポイントとに基づいて、位置推定を行う自己位置推定部と、前記自己位置推定部の位置推定結果に関する情報を記憶する記憶部と、を備える。
本開示に係る記憶方法は、所定位置の周囲の画像を撮像するとともに、前記所定位置から周囲の物体までの距離を計測するステップと、撮像した画像における可視領域と不可視領域とからキーポイントを抽出するステップと、前記可視領域のキーポイントと、前記不可視領域のキーポイントとに基づいて、位置推定を行うステップと、位置推定結果に関する情報を記憶部に記憶するステップと、を含む。
本開示によれば、適切に自己位置推定を行うことができる。
図1は、第1実施形態に係る記憶装置の概要を説明するための図である。 図2は、第1実施形態に係る記憶装置の構成例を示すブロック図である。 図3は、第1実施形態に係る記憶装置の構成例を示す図である。 図4は、第1実施形態に係る自己位置推定の処理内容の概要を示すフローチャートである。 図5は、第1実施形態に係る自己位置推定処理の一例を説明するための図である。 図6は、第1実施形態に係る撮像画像記憶部が記憶している撮像情報の一例を示す図である。 図7は、第2実施形態に係る自己位置推定処理の流れを示すフローチャートである。 図8Aは、第2実施形態に係るRGB-Dデータの一例を示す図である。 図8Bは、第2実施形態に係るRGB-Dデータの一例を示す図である。 図9は、レーダ画角を設定する方法の一例を説明するための図である。 図10は、第2実施形態に係る3次元レーダ情報を生成する方法を説明するための図である。 図11は、第2実施形態に係る物体領域の輝度を設定する処理の内容を示すフローチャートである。 図12は、第2実施形態に係る3次元レーダ情報の一例を示す図である。 図13は、第2実施形態に係る仮想スクリーン上に投影された3次元レーダ情報の一例を示す図である。 図14Aは、第2実施形態に係る透過情報の一例を示す図である。 図14Bは、第2実施形態に係る透過情報の一例を示す図である。 図15は、第3実施形態に係る自己位置推定処理の流れを示すフローチャートである。 図16は、第3実施形態に係る透過情報の深度データを示す図である。 図17は、第3実施形態に係る3次元レーダ情報を生成する方法を説明するための図である。 図18Aは、第3実施形態に係る透過情報の一例を示す図である。 図18Bは、第3実施形態に係る透過情報の一例を示す図である。 図19は、第4実施形態に係るクラック情報の出力処理の流れを示すフローチャートである。
以下、添付図面を参照して、本開示に係る実施形態を詳細に説明する。なお、この実施形態により本開示が限定されるものではなく、また、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
[比較例]
本開示の実施形態を説明する前に、比較例に係る技術について説明する。
トンネルなどの工事現場において、施工中の壁面などのコンクリートにクラック(ひび割れれ)が生じた場合、そのクラックを施工期間中に修復する必要がある。そのため、作業者などは、クラックの検査を行い、クラックを発見した場合には、そのクラックの状況と位置とを記録する。作業者は、例えば、スケッチ、および写真などでクラックの状況を記録する。通常、カメラ及びスマートフォンなどの撮像装置は、撮影データに撮影場所の位置情報を付加する機能を含む。カメラなどは、全世界測定システム(GNSS:Global Navigation Stellite System)などの衛星信号を受信機器で受信することで位置情報を取得し、撮影データに位置情報を関連付ける。しかしながら、カメラなどは、トンネルなどのように天空が遮断されている工事現場においては、衛星信号を受信することができず、位置情報を取得することができない。このような場合、作業者は、クラックの位置の特定を、メジャーを用いて手作業で行うことになる。
作業者は、例えば、車両を用いて、トンネルにおけるコンクリートのクラックなどを検査する(例えば、特許文献1参照)。車両の荷台には、例えば、照明手段および撮影手段が設置されている。車両は、走行しながら照明手段で壁面を照らしつつ、撮影手段で壁面の状況を撮影する。この場合、撮影手段が撮影した画像データに基づいて、壁面にクラックなどの劣化があるか否かを自動的に検出する。撮影手段は、ひとつのトンネルの壁面を1つの画像として撮影し、クラックなどの位置の特定を容易にする。撮影手段としては、例えば、ラインセンサが用いられる。このため、トンネルの壁面を均一に計測するためには、車両は、撮影手段と壁面との距離を一定にし、壁面に沿って一定速度で走行することが求められる。このため、車両を用いたクラックの検査は、様々な部材が様々な場所に置かれていたり、足場が組まれていたり、多数の作業者が作業を行っていたりする環境には適していない。
近年では、HMD(Head Mounted Display)の発達に伴い、MR(Mixed Reality:複合現実)技術を利用した、トンネルなどのような構造物の維持管理システムが提案されている(例えば、特許文献2参照)。このような維持管理システムは、カメラ及びデプスセンサを用いて周囲の状況をセンシングする。維持管理システムは、センシング結果に基づき、構造物の図面情報及び維持管理情報から、周囲の状況に即した情報を示す画像を生成する。維持管理システムは、生成した画像を実際の周囲の景色に重ねるように表示出力する。これにより、作業者は、構造物そのものを観察しながら、構造物を破壊することなく、その裏に配置された配管、及び施工前の調査で得られた土壌の情報を重ねて観察することが可能となる。さらに、以前に調査したクラックなどの情報を重ねて表示することにより、作業者は、クラックの劣化の進行具合を観察することが可能となる。
維持管理システムでは、例えば、位置の推定にVisual-SLAM(Simultaneous Localization and Mapping)を用いる。Visual-SLAMでは、カメラで撮像された周囲の画像から、特徴のある画像(キーポイント)を抽出する。Visual-SLAMでは、抽出したキーポイントのうち、自己位置推定の演算に使用するのに最適と思われるキーポイントをマップポイントして記憶する。Visual-SLAMは、フレーム間で複数のマップポイントの見え方の変化から、HMDの位置推定を行う。結果、HMDのカメラで周囲の画像を取り込むことで位置を推定し、構造物の設計図上の位置を特定し、設計図の情報と維持管理情報から視線上の情報を読み出し、画像化することを可能としている。
維持管理システムは、作業者がHMDを頭部に装着することで、クラックなどの確認作業を行うことが可能となる。このため、車両を走行させるための走行空間を確保する必要もないので、検査対象となる場所において、作業者は、歩いて検査することが可能である。
維持管理システムのHMDのVisual-SLAMにおいては、マップポイントは静止物であると仮定して自己位置推定を行う。このため、Visual-SLAMでは、動く物をマップポイントと認識した場合、自己位置として誤った位置を推定することがある。また、検知できるマップポイントが極端に少なくなると、自己位置の推定が困難になることもある。
施工後の構造物の維持管理のための検査作業時においては、車両規制などをすることにより、見通しがよく、動く物も少ない環境で検査作業を行うことが可能となる。しかしながら、構造物の施工中においては、多数の作業者、工事車両に阻まれて奥にあるマップポイントが検出できなかったり、作業者や工事車両のマップポイントを割り振ったりしてしまうことがあり得る。そのため、構造物の施工中においては、誤った自己位置推定を行ったり、自己位置推定ができなかったりすることがある。
Visual-SLAMによる自己位置推定が行えない場合には、慣性計測装置(IMU:Inertial Measurement Unit)を用いる方法が考えられる。IMUは、測定対象の角速度及び加速度を得る。これにより、IMUは、測定対象の運動状態及び姿勢を計測する。しかしながら、IMUの計測値には、内部誤差が含まれる。そのため、IMUの計測値を用いて、自己位置の推定処理を繰り返すと、誤差が累積され得る。その結果、慣性計測装置を用いた方法では、誤った自己位置を得ることとなる。
他のSLAMとして、Lidar(Light Detection and Ranging)というレーザセンサ(距離センサ)を使用したLidar-SLAMがある。Lidar-SLAMは、Lidarで周囲の物体までの距離を測定し、測定した方向と物体までの距離に基づく点群を得る。Lidar-SLAMは、移動した際に、過去の点群と現在の点群とを比較することにより、過去の位置に対する現在の位置を推定する。Lidarの代わりに、赤外線センサ、超音波センサ、電波によるレーダセンサなどを用いることもある。Lidar-SLAMでは、Lidarによる計測対象が静止物であること、形状に特徴があることが求められる。このため、Lidar-SLAMでは、計測方向が比較的近い距離で、動く物で囲まれていると自己位置推定の処理に失敗することがある。
Visual-SLAMと、Lidar-SLAMとを組み合わせることで、一方の自己位置推定を行うことが困難であっても、他方で補うことが考えられる。例えば、Visual-SLAMの場合、暗い場所では画像が暗くなり、自己位置推定を行うことが困難となる。他方、Lidar-SLAMでは、レーザセンサで距離を測定するので、暗い場所でも自己位置推定を行うことができる。しかしながら、工事現場のような環境では周囲は多数の作業者で囲まれることとなる。そのため、工事現場のような環境では、Visual-SLAM及びLidar-SLAMであっても自己位置推定を行うことが困難となる。
近年、災害現場での救命などを目的に、壁の向こう側の不可視領域を見通す技術の研究がされている。従来のレーダは、対象物に対して電波を出射して、対象物からの直接の反射波を受信して、遠方の対象物の検知を行っている。これに対して、不可視領域を見通す技術では、対象物に対して複数の電波を出射することで対象物との間にマルチパスを形成する。そして、不可視領域を見通す技術は、マルチパスを利用して、遮蔽物に隠れたような、直接的には認知できないところに存在する物体の位置を推定する。
Lidar-SLAMの代わりに、マルチパスを利用した遮蔽物などに隠れた部分をセンシングする手法を用いて、自己位置推定を行うことが考えられる。この場合、遮蔽物などにより隠れた部分にある物体の位置情報は、物体の反射特性のレーダ画像として表現される。そのため、レーダ画像に基づいて、Lidar-SLAMと同様に自己位置推定を行うことが考えられる。Lidar-SLAMと同様に全方位に対して反射物に関する演算を行う場合、考慮すべきマルチパスの本数と物体表面における反射時の拡散状態に応じて、計算量は直接の反射波によるレーダと比べ大きくなる。また、Lidar-SLAMと同様に、周囲に動く物が多数存在すると、自己位置推定を行うことが困難となる。
[第1実施形態]
本開示の第1実施形態について説明する。図1は、第1実施形態に係る記憶装置の概要を説明するための図である。図1は、作業者U1と、シャベルカーのような作業車両1が作業を行っているトンネルなどの工事現場の様子を示す概要図を示す。記憶装置10は、例えば、工事現場などにおいて記録者U2の頭部に装着される。記憶装置10を装着した記録者U2は、施工したコンクリート壁2の状態を確認する。記録者U2は、コンクリート壁2にクラック3などのような異常を発見した場合、記憶装置10を操作して発見したクラック3の画像を記録する。記憶装置10は、クラック3を撮像した位置において自己位置推定処理を行う。
(記憶装置)
図2は、第1実施形態に係る記憶装置の構成例を示すブロック図である。図2に示すように、記憶装置10は、センサ部12と、レーダ部14と、複数のアンテナ部16と、操作部18と、表示部20と、記憶部22と、制御部24と、を含む。
センサ部12は、記憶装置10の周囲のRGB画像データを撮像する。センサ部12が撮像したRGB画像データに含まれる領域は、可視領域とも呼ばれ得る。センサ部12は、RGB画像データに対応する方向の深度データを取得する。センサ部12は、制御部24の制御に従って動作する。センサ部12は、例えば、RGB-Dセンサなどを含み得る。RGB-Dセンサは、RGB-Dカメラとも呼ばれる。
レーダ部14は、複数のアンテナ部16と接続されている。レーダ部14は、アンテナ部16を介して、外部に送信信号を送出する。レーダ部14は、アンテナ部16を介して、外部に送出した送信信号が周囲の物体に反射した反射信号を受信する。レーダ部14は、制御部24の制御に従って動作する。
操作部18は、記憶装置10に対する各種の入力操作を受け付ける。操作部18は、受け付けた入力操作に応じた操作信号を制御部24に出力する。操作部18は、例えば、タッチパネル、ボタン、スイッチ、ダイヤルなどを含み得る。作業者などは、操作部18に対して、所望の操作を入力することができる。
表示部20は、文字及び画像を含む各種の映像を表示する。表示部20は、例えば、センサ部12が撮像したRGB画像データを表示する。表示部20は、例えば、後述のキーポイントと、マップポイントとを表示する。ユーザは、例えば、操作部18を操作することにより、RGB画像データ、キーポイント、およびマップポイントなどを表示部20に視認可能に表示させることができる。表示部20は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro-Luminescence)などを含むディスプレイであり得る。
記憶部22は、例えば、制御部24の演算内容、およびプログラム等の情報を記憶する。記憶部22は、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置、SSD(Solid State Drive)、HDD(Hard Disk Drive)等の記憶装置などで構成され得る。
記憶部22は、マップ情報記憶部22aと、撮像画像記憶部22bとを含み得る。
マップ情報記憶部22aは、後述のキーフレーム及びマップポイントを記憶し得る。撮像画像記憶部22bは、センサ部12が撮像した記憶装置10の周囲の画像データを記憶し得る。
制御部24は、記憶装置10の各部を制御する。制御部24は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの情報処理装置と、RAM又はROMなどの記憶装置とを有する。制御部24は、本開示に係る記憶装置10の動作を制御するプログラムを実行する。制御部24は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部24は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。
制御部24は、センサ制御部30と、レーダ制御部32と、キーポイント抽出部34と、自己位置推定部36、3次元レーダ情報生成部38と、遮蔽物判定部40と、透過情報生成部42と、出力制御部44と、を含む。
センサ制御部30は、センサ部12を制御する。センサ制御部30は、センサ部12を制御して、記憶装置10の周囲のRGB画像データを撮像させる。センサ制御部30は、センサ部12を制御して、RGB画像データに対応する方向の深度を検出させる。センサ制御部30は、センサ部12が撮像したRGB画像データを取得する。センサ制御部30は、センサ部12が検出したRGB画像データの深度に関する深度データを取得する。
レーダ制御部32は、レーダ部14を制御する。レーダ制御部32は、レーダ部14を制御して、アンテナ部16を介して、送信信号を送出させる。レーダ制御部32は、レーダ部14を制御して、アンテナ部16を介して、記憶装置10の周囲の物体が送信信号を反射した反射信号を受信させる。レーダ制御部32は、レーダ部14が受信した反射信号を受信信号として取得する。
キーポイント抽出部34は、センサ制御部30が取得したRGB画像データに含まれる撮像対象に対して、キーポイントの抽出処理を行う。キーポイントとは、撮像対象の特徴点となり得るポイントをいう。キーポイント抽出部34は、キーポイントの抽出処理を行い、RGB画像データに含まれる撮像対象のキーポイントを抽出する。キーポイント抽出部34の詳細は、後述する。
自己位置推定部36は、キーポイント抽出部34が抽出したキーポイントに基づいて、記憶装置10の自己位置推定処理を行う。自己位置推定部36は、例えば、Visual-SLAMによる方法を用いて、自己位置推定処理を行う。自己位置推定部36は、自己位置推定処理を行い、キーフレームとマップポイントとを生成する。キーフレームとは、記憶装置10の自己位置を推定する上で、キーとなり得るフレームをいう。例えば、キーフレームは、視界が大きく変化した際のフレームであり得る。マップポイントとは、キーポイントのうち、自己位置推定処理を行う際にランドマークするポイントをいう。自己位置推定部36は、生成したキーフレームと、マップポイントとを記憶部22のマップ情報記憶部22aに記憶させる。
3次元レーダ情報生成部38は、レーダ制御部32がレーダ部14から取得した受信信号に基づいて、記憶装置10の周囲に位置する反射物の位置を推定する。3次元レーダ情報生成部38は、記憶装置10の周囲に位置する反射物の位置を推定結果に基づいて、3次元レーダ情報を生成する。
遮蔽物判定部40は、記憶装置10の周囲に位置する物体が遮蔽物であるか否かを判定する。遮蔽物とは、記憶装置10の記録対象外の物体をいう。遮蔽物判定部40は、例えば、センサ部12が計測した物体までの距離に関する距離情報に基づいて、遮蔽物を判定する。遮蔽物判定部40は、センサ制御部30が取得したRGB画像データ及び深度データと、3次元レーダ情報生成部38が生成した3次元レーダ情報とに基づいて、遮蔽物を特定する。
透過情報生成部42は、3次元レーダ情報生成部38が生成した3次元レーダ情報と、遮蔽物判定部40が特定した遮蔽物とに基づいて、RGB画像データから遮蔽物を除いた透過情報を生成する。本実施形態において、RGB画像データにおいて、遮蔽物で遮られていた領域は、不可視領域とも呼ばれ得る。
キーポイント抽出部34は、透過情報生成部114が生成した透過情報に対してキーポイントの抽出処理を行う。言い換えれば、キーポイント抽出部34は、不可視領域に位置する物体のキーポイントの抽出処理を行う。
自己位置推定部36は、キーポイント抽出部34がRGB画像データから抽出したキーポイントと、透過情報生成部114が生成した透過情報から抽出したキーポイントとに基づいて、自己位置推定処理を行う。言い換えれば、自己位置推定部36は、可視領域のキーポイントと、不可視領域のキーポイントとに基づいて、自己位置推定処理を行う。
出力制御部44は、各種の情報を出力する。出力制御部44は、記憶部22に記憶されている各種の情報を出力する。
図3は、第1実施形態に係る記憶装置の構成例を示す図である。図3に示すように、記憶装置10は、ヘルメット50と、作業用ベスト60と、を含み得る。
ヘルメット50は、作業者の頭部に装着される。ヘルメット50は、あご紐52と、ヘッドバンド54で作業者の頭部に固定される。ヘルメット50は、前面に、センサ部12と、アンテナ部16と、表示部20とを有する。アンテナ部16は、ヘルメット50の左側面から右側面に沿って複数のパッチアンテナを並べて構成され得る。アンテナ部16は、複数のパッチアンテナが上下弧を描くように一定角度毎に方向を変えて構成され得る。これにより、アンテナ部16は、水平方向において反射してくる方向の異なる複数の反射信号をそれぞれ異なる位置のパッチアンテナで受信するとともに、上下方向において、異なる角度で反射してくる反射信号を受信することができる。本実施形態では、ヘルメット50にセンサ部12と、アンテナ部16とを配置することで、作業者自身の手などによる遮蔽を抑えることができる。表示部20は、センサ部12が撮像した画像を表示する。ヘルメット50を頭部に装着した作業者は、表示部20に表示された画像を視認する。ヘルメット50と、作業用ベスト60とは、配線56で接続されている。ヘルメット50と、作業用ベスト60とは、無線で接続されていてもよい。
作業用ベスト60は、下方に、記憶部22と、制御部24とを含む記憶装置10の本体部62を有する。操作部18は、本体部62上に配置され得る。作業者は、表示部20を介してコンクリート壁を調べる。作業者は、コンクリート壁にクラックを発見した場合、クラックの画像と、クラックの位置との保存を、操作部18を介して指示する。作業用ベスト60は、バッテリ及び記憶装置10に必要な電子回路などを収納可能に構成されている。作業用ベスト60にバッテリなどを収容することで、ヘルメット50の重量を抑えることができるので、ヘルメット50を装着した際の、作業者の首への負担を低減することができる。
(自己位置推定の処理内容)
図4を用いて、第1実施形態に係る自己位置推定の処理内容の概要について説明する。図4は、第1実施形態に係る自己位置推定の処理内容の概要を示すフローチャートである。
図4に示す処理は、ユーザが記憶装置10を装着して、トンネルなどの工事現場においてクラックの検査を開始した際に、実行される処理であり得る。
センサ制御部30は、センサ部12からセンシングデータを取得する(ステップS10)。具体的には、センサ制御部30は、センサ部12から記憶装置10の周囲のRGB画像データと、深度データとを取得する。そして、ステップS12に進む。
レーダ制御部32は、レーダ部14からセンシングデータを取得する(ステップS12)。具体的には、レーダ制御部32は、レーダ部14から記憶装置10の周囲の物体からの反射信号を取得する。そして、ステップS14に進む。
3次元レーダ情報生成部38は、3次元レーダ情報を生成する(ステップS14)。具体的には、3次元レーダ情報生成部38は、レーダ部14が取得した反射信号に基づいて、記憶装置10の周囲の3次元レーダ情報を生成する。そして、ステップS16に進む。
遮蔽物判定部40は、遮蔽物を特定する(ステップS16)。具体的には、遮蔽物判定部40は、センサ制御部30が取得したRGB画像データ及び深度データと、3次元レーダ情報生成部38が生成した3次元レーダ情報とに基づいて、遮蔽物を特定する。遮蔽物判定部40は、例えば、センサ部12が計測した物体までの距離に関する距離情報に基づいて、所定距離以下の地点に位置する物体を遮蔽物と判定する。所定距離は、任意に設定してよい。そして、ステップS18に進む。
透過情報生成部42は、透過情報を生成する(ステップS18)。具体的には、透過情報生成部42は、3次元レーダ情報生成部38が生成した3次元レーダ情報と、遮蔽物判定部40が特定した遮蔽物とに基づいて、RGB画像データから遮蔽物を除いた透過情報を生成する。そして、ステップS20に進む。
キーポイント抽出部34は、キーポイントを抽出する(ステップS20)。具体的には、キーポイント抽出部34は、RGB画像データ及び透過情報からキーポイントを抽出する。そして、ステップS22に進む。
センサ制御部30はクラックの撮影指示があった否かを判定する(ステップS22)。具体的には、センサ制御部30は、操作部18にクラックを撮影する旨の操作の入力があった場合に、クラックの撮影指示があったと判定する。クラックの撮影指示があると判定された場合(ステップS22;Yes)、ステップS24に進む。クラックの撮影指示があると判定されない場合(ステップS22;No)、ステップS42に進む。
ステップS22でYesと判定された場合、自己位置推定部36は、現フレームをキーフレームに設定する(ステップS24)。ステップS24でキーフレームに設定されたフレームは、キーフレームFkと呼ばれ得る。そして、ステップS26に進む。
自己位置推定部36は、撮影位置情報として、キーフレームFkを登録する(ステップS26)。そして、ステップS28に進む。
キーポイント抽出部34は、クラックを撮影するためのフォーカスエリア内でキーポイントが抽出できたか否かを判定する(ステップS28)。フォーカスエリア内のキーポイントは、キーポイントPfと呼ばれ得る。フォーカスエリア内でキーポイントが抽出されたと判定された場合(ステップS28;Yes)、ステップS30に進む。フォーカスエリアでキーポイントが抽出されないと判定された場合(ステップS28;No)、ステップS34に進む。
ステップS28でYesと判定された場合、自己位置推定部36は、キーポイントPfをマップポイントに設定する(ステップS30)。ステップS30でマップポイントに設定されたキーポイントPfは、マップポイントMfと呼ばれ得る。そして、ステップS32に進む。
自己位置推定部36は、クラック位置情報の主要値として、マップポイントMfを登録する(ステップS32)。そして、ステップS44に進む。
ステップS28でNoと判定された場合、キーポイント抽出部34は、フォーカスエリア付近のキーポイントを検出する(ステップS34)。フォーカスエリア付近のキーポイントは、キーポイントPnと呼ばれ得る。そして、ステップS36に進む。
自己位置推定部36は、キーポイントPnをマップポイントに設定する(ステップS36)。ステップS36でマップポイントに設定されたキーポイントPnは、マップポイントMnと呼ばれ得る。そして、ステップS38に進む。
自己位置推定部36は、クラック位置情報の補助値として、マップポイントMnを登録する(ステップS38)。そして、ステップS40に進む。
自己位置推定部36は、補助値と、フォーカスエリアの中央値との差分値を算出する(ステップS40)。自己位置推定部36は、補助値とクラック位置情報の差分値を、クラック位置情報の補助地としてマップポイントMnと一緒に保存する。そして、ステップS44に進む。
ステップS22でNoと判定された場合、自己位置推定部36は、現フレームがキーフレームであるか否かを判定する(ステップS42)。現フレームがキーフレームであると判定された場合(ステップS42;Yes)、ステップS44に進む。現フレームがキーフレームと判定されない場合(ステップS42;No)、図4の処理を終了する。
ステップS32の後、ステップS40の後、またはステップS42でYesと判定された場合、自己位置推定部36は、自己位置推定処理を実行する(ステップS44)。自己位置推定部36は、自己位置推定処理を実行した後、各種の情報を対応付けて、撮像情報として、撮像画像記憶部22bに記憶させる。撮像情報については、後述する。
図5は、第1実施形態に係る自己位置推定処理の一例を説明するための図である。図5は、表示部20に表示される画像データ70を示す。図5において、X軸方向は水平方向、Y軸方向は垂直方向、Z軸方向が深度方向であるものとする。
画像データ70は、コンクリート壁2を示す。画像データ70は、センサ部12のフォーカスエリア71を含む。画像データ70は、キーポイント抽出部34が抽出した、キーポイント72と、キーポイント73と、キーポイント74と、キーポイント75と、キーポイント76と、キーポイント77と、キーポイント78とを含む。フォーカスエリア71の中には、クラック3が表示されている。記憶装置10のユーザが操作部18を用いて、クラック3の画像保存を指示した場合、キーポイント抽出部34は、フォーカスエリア71内のキーポイントを探索する。フォーカスエリア71内のキーポイント73と、キーポイント78とが検知されると、自己位置推定部36は、キーポイント73と、キーポイント78とをマップポイントに設定する。自己位置推定部36は、マップポイントに設定されたキーポイント73と、キーポイント78とをクラック3の位置情報の主要値として撮像画像記憶部22bに保存する。
キーポイント73と、キーポイント78が存在しなかった場合、キーポイント抽出部34は、フォーカスエリア71を囲む、近傍のキーポイント74と、キーポイント75と、キーポイント77とを選択する。この場合、自己位置推定部36は、キーポイント74と、キーポイント75と、キーポイント77とをマップポイントに設定する。自己位置推定部36は、マップポイントに設定されたキーポイント74と、キーポイント75と、キーポイント77とをクラック3の位置情報の補助値として撮像画像記憶部22bに保存する。自己位置推定部36は、キーポイント74と、キーポイント75と、キーポイント77とフォーカスエリア71の中央に位置する被写体(クラック3)の焦点との位置関係を撮像画像記憶部22bに保存する。自己位置推定部36は、例えば、画像データ70上における、フォーカスエリア71の中心点、キーポイント74と、キーポイント75と、およびキーポイント77のX軸方向、Y軸方向、およびZ軸方向の座標を取得する。フォーカスエリア71の中心点の座標を(X0,Y0,Z0)とする。キーポイント74の位置座標を(X1,Y1,Z1)とする。キーポイント75の位置座標を(X2,Y2,Z2)とする。キーポイント77の位置座標を(X3,Y3,Z2)とする。自己位置推定部36は、フォーカスエリア71の中心点と、キーポイント74、キーポイント75、及びキーポイント77との座標の差分値を算出し、撮像画像記憶部22bに保存する。
図6は、第1実施形態に係る撮像画像記憶部22bが記憶している撮像情報の一例を示す図である。
図6に示すように、撮像情報は、「識別情報」、「日時情報」、「担当者情報」、「撮影位置情報」、「クラック位置情報」、および「画像情報」といった項目を含む。
「識別情報」は、画像を一意に識別するための情報である。「識別情報」は、例えば、画像を一意に識別するための識別番号であり得る。図6では、「識別情報」は「A1」などと概念的に示しているが、実際には、具体的な情報を示す。
「日時情報」は、画像を撮影した日時を示す情報である。「日時情報」は、例えば、年月日時分を含む情報であり得る。図6では、「日時情報」は「B1」などと概念的に示しているが、実際には、具体的な情報を示す。
「担当者情報」は、クラックの検査を行い、画像を撮影した担当者を一意に識別するための情報である。「担当者情報」は、例えば、氏名または識別番号であり得る。図6では、「担当者情報」は「C1」などと概念的に示しているが、実際には、具体的な情報を示す。
「撮影位置情報」は、撮影した時点における記憶装置10の位置を示す情報である。「撮影位置情報」は、例えば。自己位置推定におけるキーフレームであり得る。図6では、「撮影位置情報」は「D1」などと概念的に示しているが、実際には、具体的な情報を示す。
「クラック位置情報」は、撮影した時点における被写体の位置を示す情報である。「クラック位置情報」は、例えば、自己位置推定におけるマップポイントであり得る。図6では、「クラック位置情報」は「E1」などと概念的に示しているが、実際には、具体的な情報を示す。
「画像情報」は、センサ部12が撮影したRGB画像データを意味する。図6では、「画像情報」は「F1」などと概念的に示しているが、実際には、具体的な情報を示す。
第1実施形態は、コンクリート壁のクラックを検査して、可視領域と不可視領域との2つの領域のキーポイントに基づいて、クラックの位置を特定するための自己位置推定処理を行う。これにより、第1実施形態は、自己位置推定の精度を向上させることができる。
[第2実施形態]
次に、第2実施形態に係る自己位置推定処理について説明する。
図7は、第2実施形態に係る自己位置推定処理の流れを示すフローチャートである。
センサ制御部30は、センサ部12からRGB-Dデータlaを取得する(ステップS50)。センサ制御部30は、センサ部12から画角及びレンズ特性などを含むレンズ情報を取得する。図8Aと、図8Bは、第2実施形態に係るRGB-Dデータの一例を示す図である。図8Aに示すように、RGB画像データは、コンクリート壁84に囲まれた空間において、作業者81と、作業者82と、作業者83が背中を向けて作業している様子を示す。図8Bは、図8Aにおける深度データを示す。深度データは、輝度が明るいほど遠方であることを示す。図8Bにおいて、3人の作業者のうち、記憶装置10に最も近い位置にいる作業者は、作業者82である。作業者82の背中の点85は、記憶装置10と、作業者82との最短距離を示す点であり得る。
レーダ制御部32は、レーダ部14を制御して、アンテナ部16から送信信号を送出する(ステップS52)。レーダ制御部32は、可視領域と不可視領域との物体を検出できるように、アンテナ部16から送信信号を送出する。この場合、レーダ部14は、不可視領域の物体が検出できるように画角の角度が設定されている。
ここで、レーダ部14のレーダ画角を設定する方法について説明する。図9は、レーダ画角を設定する方法の一例を説明するための図である。
本実施形態において、レーダ部14の画角104は、センサ部12の画角103が遮蔽物120(例えば、作業員)に遮蔽された場合でも、RGB画像データでは視認することのできない不可視領域の物体をセンシング可能な角度に設定され得る。具体的には、画角104を、画角104から画角103を除いた角度だけで、遮蔽物120に遮られた不可視領域をセンシング可能な角度に設定され得る。
図9に示す環境は、例えば、1辺が10メートルの正方形の空間であり、記憶装置10を装着した調査者の前方に、作業者などの遮蔽物120があり、センサ部12の画角が87°である状況を考える。この場合、遮蔽物120の先の全領域を最小反射回数でセンシングできるように、レーダ部14の画角104を設定することが好ましい。この場合、レーダ部14の画角104は、112°になり得る。これにより、センサ部12が遮蔽物120に遮蔽されている場合であっても、遮蔽物120の先の領域の状態を把握することが可能となる。図9において、空間110は、壁における電波の反射がない空間である。空間111は、壁における電波の反射が1回である空間である。空間112は、壁における電波の反射回数が2回である空間である。空間113は、壁における電波の反射回数が3回である空間である。このように、画角104を112°以上に設定することで、遮蔽物120があっても遮蔽物120よりも先の領域をセンシングすることが可能となる。なお、画角104の角度を広く設定すると必要となる演算容量が増大する。このため、画角104の角度を必要最低限に設定することで、遮蔽物120より先の全域の物体を検出できる角度に設定することが好ましい。
図9に示す例では、ユーザUが装着した記憶装置10のレーダ部14は、複数の送信信号を送出する。記憶装置10のレーダ部14が送出した送信信号は、様々な所で、壁を含む様々な反射物により反射する。この場合、記憶装置10のレーダ部14は、様々な反射物に反射して帰ってきた反射信号を様々な方向から受信し得る。言い換えれば、記憶装置10のレーダ部14は、マルチパスの反射信号を受信する。本実施形態では、記憶装置10は、送信信号の各反射の条件を考慮することにより、受信した複数の反射信号に基づいて、不可視領域に位置するため直接的に計測できない対象物の位置を計測し得る。これにより、本実施形態では、記憶装置10は、不可視領域に位置している対象物から自己位置推定に利用するキーポイントを抽出することができるようになる。
図7に戻る。3次元レーダ情報生成部38は、送信信号が外部で反射した反射信号に基づいて、3次元レーダ情報を生成する(ステップS54)。本実施形態において、3次元レーダ情報は、ボクセル空間上の各ボクセルにおける反射強度を示す。そして、ステップS56に進む。
3次元レーダ情報生成部38は、反射強度値に対して閾値Tで空間を領域群Stに分割する(ステップS56)。3次元レーダ情報生成部38は、反射強度に応じて領域ごとに分割する。そして、ステップS58に進む。
遮蔽物判定部40は、RGB-Dデータlaの深度データに基づいて、最短距離Lの領域Aを算出する(ステップS58)。言い換えれば、遮蔽物判定部40は、記憶装置10から最短距離Lに位置する物体の領域を算出する。そして、ステップS60に進む。
遮蔽物判定部40は、センサ制御部30がセンサ部12から取得したセンサ情報に基づいて、領域Aの3次元仮想空間上の座標Paを算出する(ステップS60)。そして、ステップS62に進む。
遮蔽物判定部40は、領域群Stにおいて、座標Paの近傍の領域Saを算出する(ステップS62)。遮蔽物判定部40は、領域Saを透過対象として判定する。遮蔽物判定部40は、領域Saを透過対象と判定する。そして、ステップS64に進む。
透過情報生成部42は、領域群Stから領域Saを除く処理を実行する(ステップS64)。具体的には、透過情報生成部42は、最短距離Lに位置している部分は物体の存在しない領域とし、ボクセル空間上からその物体が存在している領域を削除する。
図10は、第2実施形態に係る3次元レーダ情報を生成する方法を説明するための図である。図10は、第2実施形態に係る3次元レーダ情報の一例を示す。図10は、ボクセル空間を上部からみた概略図であり得る。
図10において、作業者81と、作業者82と、作業者83と、作業者89と、作業者90とは、それぞれ、楕円形で示す。石材86と、石材87とは、四角形で示す。石材88は、円形で示す。画角104は、反射電波を受信することのできる画角を示す。画角103は、センサ部12の画角を示す。
本実施形態では、画角103に対して、画角104を広く設定することが好ましい。本実施形態では、例えば、画角104を広く設定することでアンテナ部16から送出された送信電波が、様々な所、様々な反射物により反射した反射電波を受信することができる。これにより、センサ部12が間近の作業者で遮蔽された場合でも、遮蔽物で遮られた不可視領域をセンシングすることが可能となる。
3次元レーダ情報生成部38は、受信信号に基づいて、3次元のボクセル空間に書くボクセルの反射強度を算出する。3次元レーダ情報生成部38は、各ボクセルの反射強度に対して、閾値Tを設定する。本実施形態では、閾値Tより小さい反射強度を有するボクセルは、物体がない空間とする。本実施形態において、閾値T以上の反射強度を有するボクセルは、物体がある空間とする。物体のあるボクセルにおいて、隣接するボクセルが物体のあるボクセルである場合、同一物体とし、物体の塊を形成する。
3次元レーダ情報生成部38は、センサ部12から取得したセンサ情報に基づいて、ボクセル空間上に仮想の仮想視点101と、仮想の仮想スクリーン102とを設定する。3次元レーダ情報生成部38は、仮想視点101が仮想スクリーン102を通して観える画像を仮想スクリーン102上に投影する。仮想視点101の画角は、センサ部12の画角と同じであり得る。透過情報生成部42は、点85の近傍に位置する作業者82を点85の一部と判定し、ボクセル空間上から、作業者82を削除する。透過情報生成部42は、透過情報生成部42は、作業者82を削除することで、透過情報を生成する。
図7に戻る。3次元レーダ情報生成部38は、領域群Stの要素siのそれぞれに異なる色または輝度を設定する(ステップS66)。図10に示す例において、3次元レーダ情報生成部38は、各物体領域に対して、異なる色または輝度を設定する。3次元レーダ情報生成部38は、各物体領域を仮想スクリーン102上に投影する。各物体領域に異なる色または輝度を設定することで、各物体領域の境界が判別し易くなる。
ここで、第2実施形態に係る物体領域の輝度を設定する処理について説明する。図11は、第2実施形態に係る物体領域の輝度を設定する処理の内容を示すフローチャートである。第2実施形態では、隣接する物体の重なり具体に応じて、それぞれの物体の輝度を決定する処理を実行する。
3次元レーダ情報生成部38は、各要素に識別番号を設定する(ステップS80)。図12は、第2実施形態に係る3次元レーダ情報の一例を示す図である。図12に示すように、3次元レーダ情報は、要素として、背景130と、物体131と、物体132と、物体133と、物体134と、を含むとする。3次元レーダ情報生成部38は、背景130と、物体131と、物体132と、物体133と、物体134とを、それぞれが分割された異なる物体領域として認識する。3次元レーダ情報生成部38は、例えば、背景130の識別番号をb0に設定する。3次元レーダ情報生成部38は、例えば、物体131の識別番号をb1に設定する。3次元レーダ情報生成部38は、例えば、物体132の識別番号をb2に設定する。3次元レーダ情報生成部38は、例えば、物体133の識別番号をb3に設定する。3次元レーダ情報生成部38は、例えば、物体134の識別番号をb4に設定する。そして、ステップS82に進む。
3次元レーダ情報生成部38は、3次元レーダ情報を仮想スクリーン上に投影する(ステップS82)。図13は、第2実施形態に係る仮想スクリーン上に投影された3次元レーダ情報の一例を示す図である。図13は、図12において、仮想視点101から見た映像を仮想スクリーン102上に投影した様子を示す。図13に示すように、仮想スクリーン102には、背景130と、物体131と、物体132と、物体133が投影されている。通常、仮想スクリーン102上では、各物体の色は反射強度に応じて白から赤などのグラデーションで表示され得る。そのため、背景130と、物体131と、物体132と、物体133の境界を判別することが困難となる。この場合、キーポイント抽出部34は、物体131と、物体132と、物体133とからキーポイントを抽出することが困難となる。そして、ステップS84に進む。
3次元レーダ情報生成部38は、仮想スクリーン上に投影されていない要素の識別番号を削除する(ステップS84)。図13に示す例では、仮想スクリーン102には、物体134が投影されていない。この場合、3次元レーダ情報生成部38は、物体134の識別番号b4を削除する。そして、ステップS86に進む。
3次元レーダ情報生成部38は、全識別番号を要素とする1つのグループを集合Gに登録する(ステップS86)。全識別番号を要素とする1つのグループは、例えば、{g0}={b0,b1,b2,b3}と表すことにする。この場合、3次元レーダ情報生成部38は、G={g0}と、1つのグループを集合Gに登録する。そして、ステップS88に進む。
3次元レーダ情報生成部38は、要素の輝度レベルを設定する(ステップS88)。具体的には、3次元レーダ情報生成部38は、{g0}に含まれる各識別番号に対応する要素の輝度レベルをそれぞれ基準値に設定する。すなわち、3次元レーダ情報生成部38は、仮想スクリーン102に投影された、背景130と、物体131と、物体132と、物体133とを同じ輝度レベルに設定する。そして、ステップS90に進む。
3次元レーダ情報生成部38は、集合Gにグループが登録されているか否かを判定する(ステップS90)。グループが登録されていると判定された場合(ステップS90;Yes)、ステップS92に進む。グループが登録されていると判定されない場合(ステップS90;No)、ステップS106に進む。
3次元レーダ情報生成部38は、集合Gからグループを取り出す(ステップS92)。具体的には、集合Gに登録されている、{g0}を取り出す。そして、ステップS94に進む。
3次元レーダ情報生成部38は、グループの要素の輝度レベルを更新する(ステップS94)。具体的には、3次元レーダ情報生成部38は、{g0}に含まれる各識別番号に対応する要素の輝度レベルを更新する。すなわち、3次元レーダ情報生成部38は、仮想スクリーン102に投影された、背景130と、物体131と、物体132と、物体133との輝度レベルを1段階明るくする。そして、ステップS96に進む。
3次元レーダ情報生成部38は、グループに含まれる要素を1つであるか否かを判定する(ステップS96)。具体的には、3次元レーダ情報生成部38は、{g0}に含まれる要素が1つであるか否かを判定する。グループに含まれる要素の数が1つであると判定された場合(ステップS96;Yes)、ステップS90に進む。グループに含まれる要素の数が1つであると判定されない場合(ステップS96;No)、ステップS98に進む。すなわち、グループに含まれる要素の数が1つである場合には、そのグループについての、輝度の設定処理が終了する。
ステップS96でNoと判定された場合、3次元レーダ情報生成部38は、要素ごとに隣接する要素の識別番号を特定する(ステップS98)。3次元レーダ情報生成部38は、識別番号b0の要素に隣接する要素の識別番号は、識別番号b1と、識別番号b2と、識別番号b3と特定する。3次元レーダ情報生成部38は、識別番号b1の要素に隣接する要素の識別番号は、識別番号b0と特定する。3次元レーダ情報生成部38は、識別番号b2の要素に隣接する要素の識別番号は、識別番号b0と、識別番号b3と特定する。3次元レーダ情報生成部38は、識別番号b3の要素に隣接する要素の識別番号は、識別番号b0と、識別番号b2と特定する。そして、ステップS100に進む。
3次元レーダ情報生成部38は、共通識別番号を決定する(ステップS100)。共通識別番号は、各識別番号のうち、他の要素と最も隣接する数の多い要素の識別番号であり得る。3次元レーダ情報生成部38は、識別番号b0から識別番号b3のうち、識別番号b0を共通識別番号として決定する。そして、ステップS102に進む。
3次元レーダ情報生成部38は、共通識別番号に基づいて、グループを生成する(ステップS102)。具体的には、3次元レーダ情報生成部38は、共通識別番号を除いて、隣接する要素の識別番号を含むグループを生成する。識別番号b1の要素の場合、隣接する識別番号b0は除かれるので、識別番号b1の要素に隣接する要素はない。この場合、3次元レーダ情報生成部38は、{g1}={b1}とグループを生成する。識別番号b2の要素の場合、隣接する識別番号0は除かれるので、識別番号b2の要素に隣接する要素は識別番号b3の要素である。この場合、3次元レーダ情報生成部38は、{g2}={b2,b3}とグループを生成する。識別番号b3の要素の場合、隣接する識別番号0は除かれるので、識別番号b3の要素に隣接する要素は識別番号b2の要素である。この場合、グループ化すると識別番号b2と同様になるので、3次元レーダ情報生成部38は、グループ化しない。そして、ステップS104に進む。
3次元レーダ情報生成部38は、グループを集合Gに登録する(ステップS104)。具体的には、3次元レーダ情報生成部38は、ステップS102で生成したグループを集合Gに登録する。この場合、3次元レーダ情報生成部38は、G={g1,g2}と、{g1}と{g2}とを集合Gに登録する。そして、ステップS90に進む。この場合、3次元レーダ情報生成部38は、{g1}と{g2}とについて、ステップS90からステップS104の処理を実行する。すなわち、3次元レーダ情報生成部38は、背景130と、物体131と、物体132と、物体133との重なり具体に応じて、各物体の色または輝度を決定する。
図11に戻る。3次元レーダ情報生成部38は、各要素の輝度値を設定する(ステップS106)。具体的には、3次元レーダ情報生成部38は、図13に示すような、仮想スクリーン102上に投影された、背景130と、物体131と、物体132と、物体133との輝度値を設定する。これにより、背景130と、物体131と、物体132と、物体133とには、それぞれ異なる輝度値が設定される。具体的には、3次元レーダ情報生成部38は、隣接する各物体の輝度を比較しつつ、背景130と、物体131と、物体132と、物体133とのそれぞれの輝度値を設定する。その結果、背景130と、物体131と、物体132と、物体133とは、それぞれの領域が判別しやすくなる。よって、キーポイント抽出部34は、物体131と、物体132と、物体133とからキーポイントが抽出しやすくなる。そして、図11の処理を終了する。
図11で示した処理は、各要素の輝度値を設定する処理として説明したが、本開示はこれに限定されない。本開示では、輝度値に代えて、各要素の色を変える処理を行ってもよい。
図7に戻る。透過情報生成部42は、領域群Stに対して、センサ部12のセンサ情報に基づいて、透過情報Itを生成する(ステップS68)。図14Aと、図14Bとは、第2実施形態に係る透過情報の一例を示す図である。図14Aは、第2実施形態に係る透過情報のRGB-Dデータの一例を示す。図14Bは、第2実施形態に係る透過情報の深度データの一例を示す。図14Aには、作業者81と、作業者83と、コンクリート壁84と、石材86と、石材87とが表示されている。図14Aにおいては、透過情報生成部42は、作業者82を削除している。そのため、図14Aにおいて、不可視領域に位置していた、石材86と、石材87とを把握することが可能である。図14Bは、図14Aにおける深度データを示す。深度データは、遠方になるほど輝度が高くなる。図14Bに示す例では、作業者83、作業者81、石材86、石材87の順に遠くなる。通常、ボクセル空間上の反射強度に基づいて、仮想スクリーン102に反射物体を投影する場合、反射強度に応じて白から赤へと変わるグラデーションなどで表現する。このため、仮想スクリーン102では反射物体は赤で表現されるため、反射物体が重なっていた場合、反射物体同士の境界が判別することが困難となる。その結果、仮想スクリーン102上に投影された画像からキーポイントの抽出を行った場合、作業者81と、作業者83と、コンクリート壁84と、石材86と、石材87とが重なる部分の判別が困難となり、キーポイントを抽出することが困難となる。そこで、本実施形態では、3次元レーダ情報生成部38は、作業者81と、作業者83と、コンクリート壁84と、石材86と、石材87とに対して各領域の境界が判別しやくなるように異なる色または輝度を設定する。その結果、本実施形態では、キーポイント抽出部34は、石材86と、石材87とが重なりあう部分のキーポイントを抽出し易くなる。
図7に戻る。キーポイント抽出部34は、センサ制御部30が取得したRGB-DデータlaからキーポイントKaを抽出する(ステップS70)。すなわち、キーポイントKaは、可視領域のキーポイントであり得る。そして、ステップS72に進む。
キーポイント抽出部34は、透過情報生成部42が生成した透過情報ItからキーポイントKtを抽出する(ステップS72)。すなわち、キーポイントKtは、不可視領域のキーポイントであり得る。そして、ステップS74に進む。
自己位置推定部36は、キーポイントKaと、キーポイントKtとに基づいて、自己位置推定処理を行う(ステップS74)。そして、図7の処理を終了する。
第2実施形態では、センサ部12が検出したRGB-Dデータに基づいて、可視領域のキーポイントを抽出する。第2実施形態では、記憶装置10から所定距離以内に位置する物体を遮蔽物と判定し、遮蔽物を削除して、不可視領域の映像を生成する。第2実施形態は、生成した不可視領域の映像に基づいて、不可視領域のキーポイントを抽出する。そして、第2実施形態は、可視領域のキーポイントと、不可視領域のキーポイントに基づいて、自己位置推定処理を実行する。これにより、第2実施形態は、自己位置推定処理の精度を向上させることができる。
[第3実施形態]
図15は、第3実施形態に係る自己位置推定処理の流れを示すフローチャートである。
ステップS110からステップS116の処理は、それぞれ、図7に示すステップS50からステップS66の処理と同一なので、説明を省略する。
制御部24は、センサ制御部30がセンサ部12から取得したRGB-Dデータlaをコピーして、RGB-Dデータla2を生成する(ステップS118)。そして、ステップS120に進む。
3次元レーダ情報生成部38は、RGB-Dデータla2の深度データに基づいて、最短距離Lの領域Aを算出する(ステップS120)。そして、ステップS122に進む。
ステップS122からステップS126の処理は、図7に示すステップS60からステップS64の処理と同一なので、説明を省略する。
制御部24は、最短距離Lが閾値である距離Lthを超えるか否かを判定する(ステップS128)。距離Lthは、設計に応じて任意に定めてよい。最短距離Lが距離Lthを超えると判定された場合(ステップS128;Yes)、ステップS130に進む。最短距離Lが距離Lthを超えないと判定された場合(ステップS128;No)、ステップS140に進む。
ステップS130からステップS138の処理は、図7に示すステップS66からステップS74の処理と同一なので、説明を省略する。
ステップS128でNoと判定された場合、領域Saに対応するRGB-Dデータla2の深度を最大値に設定する(ステップS140)。そして、ステップS120に進む。すなわち、最短距離Lが距離Lthを超えないと判定された場合には、再度、ステップS120からステップS126の処理を繰り返す。
第3実施形態に係るRGB-Dデータについて説明する。第3実施形態に係るRGB-Dデータは、図8Aに示すRGB-Dデータと同一なので説明を省略する。図16は、第3実施形態に係る透過情報の深度データを示す図である。深度データは、輝度が明るいほど遠方であることを示す。図16に示す例では、作業者82、作業者83、作業者81の順に奥になる。作業者81の領域のうち、記憶装置10から最も距離が短い領域は点91である。作業者82の領域のうち、記憶装置10から最も距離が短い領域は点85である。作業者83の領域のうち、記憶装置10から最も距離が短い領域は点92である。
図17は、第3実施形態に係る3次元レーダ情報を生成する方法を説明するための図である。図17は、ボクセル空間を上部からみた概略図であり得る。
図17において、点線93は、仮想スクリーン102からの閾値の距離Lthの位置を示す。透過情報生成部42は、点線93と、仮想スクリーン102との間にある物体を、透過対象とする。図16に示したように、RGB-Dデータの深度データにおいて、記憶装置10から最も短い距離は点85である。この場合、透過情報生成部42は、点85の近傍に位置する作業者82の領域を点85の一部と判定する。透過情報生成部42は、ボクセル空間上から、作業者82の領域を削除する。点85は、点線93と比較して、仮想スクリーン102に近い位置にあるので、ボクセル空間上の作業者82の領域に対応するRGB-Dデータla2の深度データ上の領域の深度を最大値に設定する。
次に、作業者82の領域を削除した状態で、RGB-Dデータの深度データで記憶装置10から最も短い距離は点92である。この場合、透過情報生成部42は、点92の近傍に位置する作業者83の領域を点92の一部と判定する。透過情報生成部42は、ボクセル空間上から、作業者83の領域を削除する。点92は、点線93と比較して、仮想スクリーン102に近い位置にあるので、ボクセル空間上の作業者83の領域に対応するRGB-Dデータla2の深度データ上の領域の深度を最大値に設定する。
次に、作業者82の領域と、作業者83の領域を削除した状態で、RGB-Dデータの深度データで記憶装置10から最も短い距離は点91である。この場合。透過情報生成部42は、点91の近傍に位置する作業者81の慮域を点91の一部と判定する。透過情報生成部42は、ボクセル空間上から、作業者81の領域を削除する。点91は、点線93と比較して仮想スクリーン102から遠い位置にあるので、物体領域の削除処理を終了する。
3次元レーダ情報生成部38は、ボクセル空間上に残っている各物体領域に対して、異なる色または輝度を設定した透過情報を生成する。3次元レーダ情報生成部38は、生成した透過情報を仮想スクリーン102に投影する。
第3実施形態において、閾値として設定した距離Lthは、例えば、センサ部12の画角と、透過対象として設定する作業者の肩幅と、画像データにおける作業者の占有率とに基づいて設定され得る。例えば、カメラの画角が87°、透過対処とする作業者の肩幅が46.5cm、作業者の画像データにおける占有率を25%とした場合、距離Lthは約1mであり得る。
図18Aと、図18Bは、第3実施形態に係る透過情報の一例を示す図である。図18Aは、第3実施形態に係る透過情報のRGB-Dデータの一例を示す。図18Bは、第3実施形態に係る透過情報の深度データの一例を示す。
図18Aには、コンクリート壁84と、石材86と、石材87とが表示されている。図18Bは、図18Aにおける深度データを示す。深度データは、遠方になるほど輝度が高くなる。図18Bに示す例では、石材86、石材87の順に遠くなる。図18Aにおいては、透過情報生成部42は、作業者81と、作業者82と、作業者83とを削除している。そのため、図18Aにおいては、不可視領域に位置していた、石材86と、石材87を視認することが可能である。図18A示す例では、作業者81と、作業者82と、作業者83とが削除されているため、コンクリート壁84と、石材86と、石材87との境界がより明確となる。ここで、3次元レーダ情報生成部38は、コンクリート壁84と、石材86と、石材87とに対して各領域の境界が判別しやくなるように異なる色または輝度を設定する。その結果、本実施形態では、キーポイント抽出部34は、コンクリート壁84と、石材86と、石材87とが重なりあう部分のキーポイントを抽出し易くなる。
第3実施形態は、記憶装置10からの距離に基づいて、遮蔽物を設定することができる。これにより、第3実施形態は、複数の遮蔽物を削除した透過情報に基づいて、不可視領域のキーポイントを抽出することができる。その結果、第3実施形態は、自己位置推定処理の精度をより向上させることができる。
[第4実施形態]
本開示に係る記憶装置10は、記憶したクラックに関するクラック情報を、作業者等の操作に応じて出力することができる。
(出力処理)
図19は、第4実施形態に係るクラック情報の出力処理の流れを示すフローチャートである。
図19に示す処理は、作業者などによってクラック情報を出力する旨の操作が操作部18に入力された場合に、実行される処理である。
出力制御部44は、撮像画像記憶部22bにクラックに関する撮影情報が記憶されているか否かを判定する(ステップS150)。撮影情報が記憶されていると判定された場合(ステップS150;Yes)、ステップS152に進む。撮影情報が記憶されていると判定されない場合(ステップS150;No)、ステップS166に進む。
ステップS150でYesと判定された場合、出力制御部44は、撮影位置情報のキーフレームに対応する空間座標を取得する(ステップS152)。そして、ステップS154に進む。
出力制御部44は、クラックの位置を示すマップポイントMfが記憶されているか否かを判定する(ステップS154)。マップポイントMfが記憶されていると判定された場合(ステップS154;Yes)、ステップS156に進む。マップポイントMfが記憶されていると判定されない場合(ステップS154;No)、ステップS160に進む。
ステップS154でYesと判定された場合、出力制御部44は、マップポイントMfに対応する空間位置座標Lfを取得する(ステップS156)。例えば、出力制御部44は、マップポイントMfが複数ある場合には、複数の空間位置座標を含む空間位置座標群Lfを取得する。そして、ステップS158に進む。
出力制御部44は、空間位置座標Lfをクラック位置と特定する(ステップS158)。そして、ステップS164に進む。
ステップS154でNoと判定された場合、出力制御部44は、クラック位置情報の補助値を示すマップポイントMnに対応する空間位置座標Lnを取得する(ステップS160)。そして、ステップS162に進む。
出力制御部44は、空間位置座標Lnと、相対位置情報Dnとに基づいて、クラック位置を算出する(ステップS162)。具体的には、出力制御部44は、式(1)に従って、クラックの中心位置の座標を算出する。式(1)において、L0はクラックの中心位置の座標、Lnは空間位置座標、Dnは相対位置情報、およびαは任意係数を示すとする。
L0=Ln+αDn・・・(1)
ステップS158またはステップS162の後、出力制御部44は、クラックの位置情報を示すクラック情報を出力する(ステップS164)。そして、ステップS168に進む。
ステップS150でNoと判定された場合、出力制御部44は、クラックがないことを示す情報を出力する(ステップS166)。そして、図19の処理を終了する。
ステップS164の後、出力制御部44は、処理を終了するか否かを判定する(ステップS168)。例えば、出力制御部44は、撮像画像記憶部22bに記憶されている全て撮像情報に対して出力処理が行われた場合に、処理を終了すると判定する。処理を終了すると判定された場合(ステップS168;Yes)、図19の処理を終了する。処理を終了しないと判定された場合(ステップS168;No)、ステップS152に進む。
第4実施形態では、クラックの位置を示す位置情報を容易に出力することができる。これにより、トンネルなどの施工中においてクラックの位置を容易に把握することができるので、修復等を適切に行うことができる。
以上、本開示の実施形態を説明したが、これら実施形態の内容により本開示が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
10 記憶装置
12 センサ部
14 レーダ部
16 アンテナ部
18 操作部
20 表示部
22a マップ情報記憶部
22b 撮像画像記憶部
24 制御部
30 センサ制御部
32 レーダ制御部
34 キーポイント抽出部
36 自己位置推定部
38 3次元レーダ情報生成部
40 遮蔽物判定部
42 透過情報生成部
44 出力制御部

Claims (6)

  1. 所定位置の周囲の画像を撮像するとともに、前記所定位置から周囲の物体までの距離を計測するセンサ部と、
    前記センサ部が撮像した画像における可視領域と不可視領域とからキーポイントを抽出するキーポイント抽出部と、
    前記可視領域のキーポイントと、前記不可視領域のキーポイントとに基づいて、位置推定を行う自己位置推定部と、
    前記自己位置推定部の位置推定結果に関する情報を記憶する記憶部と、
    を備える、記憶装置。
  2. 請求項1に記載の記憶装置において、
    電波を送受信可能なアンテナ部を有するレーダ部と、
    前記レーダ部が前記アンテナ部を介して受信した受信信号に基づいて、周囲の3次元レーダ情報を生成する3次元レーダ情報生成部と、
    前記センサ部が計測した前記物体までの距離に関する距離情報に基づいて、前記物体が遮蔽物であるか否かを判定する遮蔽物判定部と、
    前記3次元レーダ情報生成部が生成した前記3次元レーダ情報と、前記遮蔽物判定部の判定結果に基づいて、前記遮蔽物と判定された前記物体が透過する透過情報を生成する透過情報生成部と、
    を備え、
    前記キーポイント抽出部は、前記透過情報生成部が生成した前記透過情報に基づいて、前記不可視領域のキーポイントを抽出する、記憶装置。
  3. 請求項2に記載の記憶装置において、
    前記遮蔽物判定部は、前記センサ部が計測した前記物体までの距離に関する距離情報に基づいて、所定距離以下の地点に位置する前記物体を前記遮蔽物と判定する、記憶装置。
  4. 請求項2または3に記載の記憶装置において、
    前記3次元レーダ情報生成部は、前記3次元レーダ情報において、複数の前記物体が含まれている場合、複数の前記物体をそれぞれ異なる色または輝度に設定する、記憶装置。
  5. 請求項4に記載の記憶装置において、
    前記3次元レーダ情報生成部は、前記3次元レーダ情報において、複数の前記物体のうち、前記物体同士の重なり具合に応じて、前記物体それぞれの色または輝度を決定する、記憶装置。
  6. 所定位置の周囲の画像を撮像するとともに、前記所定位置から周囲の物体までの距離を計測するステップと、
    撮像した画像における可視領域と不可視領域とからキーポイントを抽出するステップと、
    前記可視領域のキーポイントと、前記不可視領域のキーポイントとに基づいて、位置推定を行うステップと、
    位置推定結果に関する情報を記憶部に記憶するステップと、
    を含む、記憶方法。
JP2021175544A 2021-10-27 2021-10-27 記憶装置、および記憶方法 Pending JP2023065012A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021175544A JP2023065012A (ja) 2021-10-27 2021-10-27 記憶装置、および記憶方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021175544A JP2023065012A (ja) 2021-10-27 2021-10-27 記憶装置、および記憶方法

Publications (1)

Publication Number Publication Date
JP2023065012A true JP2023065012A (ja) 2023-05-12

Family

ID=86281968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021175544A Pending JP2023065012A (ja) 2021-10-27 2021-10-27 記憶装置、および記憶方法

Country Status (1)

Country Link
JP (1) JP2023065012A (ja)

Similar Documents

Publication Publication Date Title
US10671862B2 (en) Method and system for detecting obstacles by autonomous vehicles in real-time
US9420177B2 (en) Panoramic view imaging system with laser range finding and blind spot detection
US8395490B2 (en) Blind spot display apparatus
EP3246660B1 (en) System and method for referencing a displaying device relative to a surveying instrument
ES2359852T3 (es) Método y sistema para el mapeo de datos de sensores de alcance sobre datos de sensores de imagen.
US7961906B2 (en) Human detection with imaging sensors
JP5682060B2 (ja) 画像合成装置、画像合成プログラム、及び画像合成システム
KR100647807B1 (ko) 그림자 분석을 통한 3차원 건물정보 추출방법
JP2005268847A (ja) 画像生成装置、画像生成方法、および画像生成プログラム
US20090008554A1 (en) Method for infrared imaging of living or non-living objects including terrains that are either natural or manmade
KR20180132917A (ko) 지도 데이터 갱신 장치, 지도 데이터 갱신 방법 및 기억 매체에 저장된 지도 데이터 갱신 프로그램
JP6460700B2 (ja) トンネルの内壁の欠陥の有無の診断を行う方法およびトンネルの内壁の欠陥の有無の診断を行うプログラム
JP7463530B2 (ja) 機械視点を用いた工作機械上の装置の制御システムおよび方法
JP2009140402A (ja) 情報表示装置、情報表示方法、情報表示プログラム及び情報表示プログラムを記録した記録媒体
JP2014228941A (ja) 地表面3次元サーフェス形状計測装置、走行可能領域検出装置およびそれを搭載した建設機械並びに走行可能領域検出方法
US20240028042A1 (en) Visual overlays for providing perception of depth
JP6715205B2 (ja) 作業機械の周囲画像表示装置
JP2023065012A (ja) 記憶装置、および記憶方法
Zou et al. Active pedestrian detection for excavator robots based on multi-sensor fusion
US9792701B2 (en) Method and system for determining a relation between a first scene and a second scene
NL2016718B1 (en) A method for improving position information associated with a collection of images.
US11430153B2 (en) Method for detecting an arrangement of at least two cameras of a multi-camera system of a mobile carrier platform relative to one another and method for detecting an arrangement of the camera with respect to an object outside the mobile carrier platform
JP6385621B2 (ja) 画像表示装置、画像表示方法及び画像表示プログラム
WO2021131260A1 (ja) 遮蔽検出装置および遮蔽検出プログラム
GB2584788A (en) A system and method for localisation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240219