JP2022511147A - 地理情報の生成を容易にするためのシステム及び方法 - Google Patents

地理情報の生成を容易にするためのシステム及び方法 Download PDF

Info

Publication number
JP2022511147A
JP2022511147A JP2020517585A JP2020517585A JP2022511147A JP 2022511147 A JP2022511147 A JP 2022511147A JP 2020517585 A JP2020517585 A JP 2020517585A JP 2020517585 A JP2020517585 A JP 2020517585A JP 2022511147 A JP2022511147 A JP 2022511147A
Authority
JP
Japan
Prior art keywords
processor
image data
geographic information
data
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020517585A
Other languages
English (en)
Other versions
JPWO2020072001A5 (ja
Inventor
サン ジェリー オン,キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gps Lands Singapore pte Ltd
Original Assignee
Gps Lands Singapore pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gps Lands Singapore pte Ltd filed Critical Gps Lands Singapore pte Ltd
Publication of JP2022511147A publication Critical patent/JP2022511147A/ja
Publication of JPWO2020072001A5 publication Critical patent/JPWO2020072001A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

地理情報の生成を容易にするためのシステム及び方法を開示する。地理情報の生成を容易にするためのシステムは、画像データを取得するように動作可能な撮像モジュールと、画像データを受信し、画像データを使用して複数のデータ点を有する点群を生成するように動作可能なプロセッサとを備え、プロセッサは、点群を分析して地理情報に関連する少なくとも1つのフィーチャを抽出し、抽出されたフィーチャを用いて地理情報を生成するように動作可能である。【選択図】図2

Description

本開示は、地理情報の生成を容易にするシステムための及び方法に関する。
本発明の背景技術についての以下の説明は、本発明の理解を容易にすることのみを意図している。この説明は、言及された内容のいずれも、本発明の優先日に、いずれの管轄区域においても当業者の一般技術常識として公開、公知、またはその一部であったことを認識または認容するものではない。
撮像センサの開発に伴い、3次元型センサ(以下「3Dセンサ」と称する)が、画像データを取得して、地理情報、例えば、高解像度(HD;High Definition)マップを生成するために、一般的に使用されている。3Dセンサの一例は、光検出及び測距(LiDAR;Light Detection and Ranging)センサである。LiDARセンサは、オブジェクト(被写体)にパルスレーザ光を照射して反射パルスを検出することにオブジェクトまでの距離を測定し、検出された距離を使用して画像データが取得される。
しかしながら、画像データが3Dセンサによって取得された後、ユーザは画像データを使用して地理情報を生成するための複雑な処理に直面する可能性がある。画像データを使用して地理情報を生成するために設計された既存のシステムは、地理情報を生成するために画像データをユーザが分析及び処理する必要があるので使用が複雑になることがよくある。
一般に、画像データの処理は、ユーザが生成を望む地理情報のタイプに応じて異なる。地理情報のタイプに応じて、ユーザは、必要な地理的要因を考慮して適切な方法で画像データを処理する必要がある。
上記に照らすと、取得された画像データを使用して地理情報を生成することはユーザにとって簡単ではない。更に、ユーザが画像データを分析して処理するのに時間がかかるので、ユーザは通常、リアルタイム又は略リアルタイムで地理情報を生成する課題に直面する可能性がある。地理情報の生成は、面倒で、非効率的で、時間がかかり、コストがかかる。これは、取得した画像データに基づく3D画像データ生成の計算集約的性質が、原因の一部にある。
上記を考慮して、前述の要求を満たし又は少なくとも部分的に課題を軽減する解決策を提供する必要がある。
本明細書全体を通して、文脈上別段の要求がない限り、「備える(comprising)」の用語や、「comprises」や「comprising」などの変形は、記載された完全体や完全体のグループを含むが、任意の他の完全体や完全体のグループを排除しないことを意味すると理解される。
更に、本明細書全体を通して、文脈上別段の要求がない限り、「含む(include)」の用語や、「includes」や「including」などの変形は、記載された完全体や完全体のグループを含むが、任意の他の完全体や完全体のグループを排除しないことを意味すると理解される。
本発明又は本開示は、地理情報の生成におけるユーザの手作業や面倒な作業を削減するシステム及び方法を提供することを目的とする。
地理情報の生成を容易にするためのシステム及び方法の形式で技術的解決策が提供される。特に、本システムは、撮像モジュール(imaging module)によって取得された画像データを分析するように動作可能なプロセッサを含む。その後、プロセッサは、分析に基づいて画像データから少なくとも1つのフィーチャ(feature;地物)を抽出するように動作可能である。抽出されたフィーチャは、ユーザが生成を望む地理情報に関連する。次に、プロセッサは、抽出されたフィーチャを使用して地理情報を生成するように動作可能である。
このようにして、プロセッサは、ユーザの手作業や面倒な作業なしに、リアルタイム又は略リアルタイムで、ユーザが生成を望む地理情報を生成するように動作可能である。
一態様では、地理情報の生成を容易にするためのシステムであって;画像データを取得するように動作可能な撮像モジュールと;画像データを受け取り、画像データを使用して複数のデータ点を有する点群(point cloud;ポイントクラウド)を生成するように動作可能なプロセッサとを備え;プロセッサは更に、点群を分析して地理情報に関連する少なくとも1つのフィーチャを抽出し、抽出されたフィーチャを使用して地理情報を生成するように動作可能である。
幾つかの実施形態では、撮像モジュールは、画像データとして3D画像データを生成するように動作可能な少なくとも1つの3Dセンサを含む。
幾つかの実施形態では、点群の生成は、画像データのジオリファレンシング(georeferencing;位置合わせして座標付けする作業など)を含む。
幾つかの実施形態では、システムは、位置及び/又は方位関連データをプロセッサに送信するように動作可能な位置及び方位システム(POS;Position and Orientation System)を更に備える。
幾つかの実施形態では、プロセッサは、送信されたデータを解析し、解析された情報を使用して画像データのジオリファレンシングを実行するように動作可能である。
幾つかの実施形態では、プロセッサは、点群を放射輝度的(radiometrically;ラジオメトリカリ)及び/又は幾何学的(geometrically;ジオメトリカリ)に補正するように動作可能である。
幾つかの実施形態では、プロセッサは、八分木(octree;オクツリー)を計算し、計算された八分木に基づいて、複数のセルの各々が同じサイズになるように、点群を複数のセルに分割するように動作可能である。
幾つかの実施形態では、プロセッサは、データ点の各々の法線を計算し、計算された法線に基づいて、複数のセルの各々の固有値を作成するように動作可能である。
幾つかの実施形態では、プロセッサは、複数のセルの各々の固有値を正規化することによって、複数のセルの各々の少なくとも1つの幾何学的属性を計算するように動作可能である。
幾つかの実施形態では、プロセッサは、幾何学的属性に従って、点群をセグメント化(細分化)するように動作可能である。
幾つかの実施形態では、プロセッサは、幾何学的属性に従ってセグメント化された点群に基づいて、データ点の各々を分類するように動作可能である。
幾つかの実施形態では、撮像モジュールは、2D画像データを生成するように動作可能な少なくとも1つの2Dセンサを更に含む。
幾つかの実施形態では、プロセッサは、2D画像データと3D画像データをマージ(統合)するように動作可能である。
幾つかの実施形態では、プロセッサは、マージされた画像データに基づいて、複数のセルの各々の少なくとも1つの幾何学的属性を再計算し、及び/又は、データ点の各々を再分類するように動作可能である。
幾つかの実施形態では、プロセッサは、生成する地理情報のタイプの選択を受け取り、生成する地理情報に関連する少なくとも1つのフィーチャを抽出するように動作可能である。
幾つかの実施形態では、地理情報は、高精細マップ、植物情報又は公共インフラストラクチャ情報の少なくとも1つを含む。
幾つかの実施形態では、フィーチャは、地理フィーチャ又はオブジェクトフィーチャ(物体フィーチャ)の少なくとも1つを含む。
幾つかの実施形態では、撮像モジュールは、以前に取得された画像データをプロセッサに提供するように動作可能である。
別の態様では、地理情報の生成を容易にするための方法であって;撮像モジュールで、画像データを取得し;プロセッサで、撮像モジュールから画像データを受信し;プロセッサで、画像データを使用して複数のデータ点を有する点群を生成し;プロセッサで、点群を分析し;地理情報に関連する少なくとも1つのフィーチャを抽出し;プロセッサで、抽出されたフィーチャを使用して地理情報を生成する。
本発明の他の態様及び特徴は、本発明の特定の実施形態についての以下の説明を添付の図面と併せて検討することにより、当業者に明らかとなる。
本発明は、添付の図面を参照して、単なる一例として、以下で説明する。
図1は、本発明の幾つかの実施形態によるブロック図を示す。
図2は、本発明の幾つかの実施形態によるフロー図を示す。
図3は、本開示の幾つかの実施形態による別のブロック図を示す。
図4は、本開示の幾つかの実施形態による別のフロー図を示す。
図5は、本開示の幾つかの実施形態による地理情報の生成に関するフロー図を示す。
本発明は他の構成でも実現可能であり、従って、添付の図面は、本発明の前述した一般論より優先されるものと解すべきではない
図1は、本開示の幾つかの実施形態によるブロック図を示す。
システム100は、撮像モジュール110とプロセッサ120を備えることができる。システム100は、位置及び方位システム(POS)モジュール130を更に備えることができる。
撮像モジュール110は、少なくとも1つの3Dセンサ111、及び/又は、少なくとも1つの2Dセンサ112を含むことができる。3Dセンサ111は、光検出及び測距(LiDAR)センサ(「LiDARスキャナ」とも称される)を含むことができるが、これに限定されない。2Dセンサ112は、RGBカメラ、マルチスペクトル撮像器、及び/又はハイパースペクトル撮像器を含むことができるが、これに限定されない。3Dセンサ111は、3D画像データを生成するように動作可能であり、2Dセンサ112は、2D画像データを生成するように動作可能である。
撮像モジュール110は、オブジェクトの画像を取り込むことで画像データを生成することができる。例えば、LiDARセンサは、オブジェクトにパルスレーザ光を照射して反射パルスを検出することによりオブジェクトまでの距離を測定し、測定された距離を使用して画像データを生成する。例えば、画像データは、オブジェクトの画像を取り込むことで生成された生データ(raw data)、及び/又は、生データから処理されたデータ(「処理済みデータ」とも称される)の少なくとも1つを含むことができるが、これに限定されない。
撮像モジュール110は、プロセッサ120による迅速な評価及び緊急を要する決定のために、リアルタイム又は略リアルタイムでプロセッサ120に画像データを提供するように動作可能である。
図示しないが、撮像モジュール110は、外部データベース及び/又はサーバから画像データを取得することができる。例えば、撮像モジュール110は、外部データベース及び/又はサーバから画像データを受け取り、その後、プロセッサ120に画像データを提供することができる。
図示しないが、撮像モジュール110は、以前に生成された画像データをプロセッサ120に提供することができる。例えば、撮像モジュール110は、内部データベースを有することができる。内部データベースは、以前に生成された画像データを格納するための1つ以上のメモリを含むことができる。撮像モジュール110は、内部データベースがから画像データを抽出し、その後、プロセッサ120に画像データを提供することができる。
POS130は、慣性航法システム(INS;Inertial Navigation System)モジュール131、及び、全地球航法衛星システム(GNSS;Global Navigation Satellite System)モジュール132を備えることができる。POS130は、モジュール131及び/又はモジュール132を通じて、方位及び/又は位置関連データを生成するように動作可能であってもよい。POS130は、位置及び/又は方位関連データをプロセッサ120に送信することができる。幾つかの実施形態では、位置及び/又は方位関連データは、リアルタイム又は略リアルタイムでプロセッサ120に送信される。位置及び/又は方位関連データの送信は、ストリーミング配信を介してもよい。
プロセッサ120は、明示的データグラフ実行(EDGE;Explicit Data Graph Execution)プロセッサを含み得る。プロセッサ120は、バックパック、モバイル、及び/又は空中プラットフォームなどの、ポータブルデバイスにインストールすることができる。ポータブルデバイスは、その上に/そこにアイテムを貼り付け又は取り付けるための、フレームなどの取り付け構造を含み得る。プロセッサ120は、プロセッサ120が使用されるプラットフォームに基づく様々なフォームファクタを含み得る。プロセッサ120は、少なくとも1つのGPUカードを含み得る。プロセッサ120は、少なくとも1つのグラフィックス処理ユニット(GPU;Graphics Processing Unit)を含み得る。GPUは、専用のソフトウェアがプロセッサ120にインストールされたハードウェアコンポーネントとして、カードの形でプロセッサ120に統合されてもよい。
プロセッサ120は、例えば、屋外条件下で動作可能であることなど、特定の要件を満たすケーシングを有し得る。例えば、ケーシングは、防水性、防塵性、及び/又は防振性であり得る。幾つかの例では、ケーシングは、IP68(IPコード、国際保護マーキング(International Protection Marking)、国際電気標準会議(IEC;International Electrotechnical Commission)が発行したIEC規格60529、又は欧州標準EN60529、とも称される)の要件を満たす。プロセッサ120は、既製のソリューションとすることができ、Connecttech社(http://connecttech.com/product/rosie-embedded-system-with-nvidia-jetson-tx2-tx1/)製のROSIEという商品名で知られているような小さい接地面積のケースや、Mercury system社(https://www.mrcy.com/rugged-servers/gpgpu-computing-servers/)から入手できる堅牢なGPGUコンピューティングサーバを備え、CNCマシンを用いてプラスチック又はアルミニウムから削り出され若しくは3Dプリンタで印刷されたカスタムケースを含む場合もある。
プロセッサ120は、撮像モジュール110及び/又はPOS 130を同期及び制御するように動作可能である。プロセッサ120はまた、リアルタイム又は略リアルタイムで画像データを処理及び分析するように動作可能である。GPUは、表示装置(ディスプレイデバイス)への出力のために画像データを処理するように動作可能である。
プロセッサ120は更に、処理及び分析された画像データを使用してリアルタイム又は略リアルタイムで地理情報を生成するように動作可能であり、従って、従来の方法と比較してデータのリアルタイム生成が容易になる。幾つかの実施形態では、プロセッサ120は、処理及び分析された画像データから、ユーザが生成を望む地理情報に関連する少なくとも1つの必要なフィーチャを抽出する。その後、プロセッサ120は、抽出された要因又は情報を使用して地理的情報を生成する。このプロセスは、ユーザの手作業や面倒な作業なしに、自動的に達成することができる。
撮像モジュール110、プロセッサ120、及びPOS130は、通信ネットワーク、例えば、イーサネットなどのローカルエリアネットワーク(LAN)や、Wi-Fi、Bluetooth、又はその他の移動無線ネットワークを含み得る無線通信ネットワークを介して、互いにリンクされることが理解されよう。システム100は、通信ネットワークを介して、様々のモバイルプラットフォームのリアルタイムのマッピング及びモニタリングを達成することができる。
このようにして、システム100は、グラフィックス処理ユニット(GPGPU;General-Purpose computing on Graphics Processing Units)上で撮像モジュール110とPOS130を組み合わせたハードウェア-ソフトウェアソリューションの汎用コンピューティングを提供する。システム100は、画像データと位置及び/又は方位関連データを収集し、ジオリファレンシング及び分析を含む画像データの処理を行うことができる。幾つかの実施形態では、分析結果は、即時の検査のために、リアルタイム又は略リアルタイムで、LANを介して、ユーザ、例えば、遠くの視聴者に、ストリーミング配信されてもよい。
更に、システム100は、ユーザが後処理タスクを実行する必要なしに、画像データを使用してリアルタイム又は略リアルタイムで地理情報を生成することができる。幾つかの実施形態では、生成された地理情報は、即時の検査のために、LANを介して、リアルタイム又は略リアルタイムで、ユーザ、例えば、遠くの視聴者に、ストリーミング配信されてもよい。
図2は、本開示の幾つかの実施形態によるフロー図を示す。
上述のように、システム100は、撮像モジュール110及びプロセッサ120を含むことができる。システム100は、POS130を更に含むことができる。
まず、撮像モジュール110は、画像データを取得する(S210)。撮像モジュール110は、少なくとも1つの3Dセンサ111を含み得る。3Dセンサ111は、画像データとして、3D画像データ、例えば、LiDARデータを生成する。
次に、プロセッサ120は、撮像モジュール110から画像データを受け取る(S220)。プロセッサ120は、通信ネットワーク、例えば、LANを介して、リアルタイム又は略リアルタイムで、3Dセンサ111から3D画像データを受信又は収集することができる。
3Dセンサ111から3D画像データを受け取った後、プロセッサ120は、3D画像データのジオリファレンシングを実行する。ジオリファレンシングは、1つ以上の点群を生成するために実行される。POS130から生成された位置及び/又は方位関連データは、3D画像データのジオリファレンシングを実行するために使用できることが理解されよう。
POS130は、位置及び/又は方位関連データをリアルタイム又は略リアルタイムでプロセッサ120に送信する。例えば、POS130は、ユーザデータグラムプロトコル(UDP)ネットワーク接続を通じて一連のバイナリパケットをストリーミング配信する。UDPネットワーク接続により、POS130は、プロセッサ120に対してサーバとして機能し、UDPネットワーク接続を通じて位置及び/又は方位関連データを連続的にストリーミング配信することができる。
プロセッサ120は、POS130に関するクライアントとして、位置及び/又は方位関連データ、例えば、一連のバイナリパケットをPOS130から受信し、一連のバイナリパケットを解析して必要な情報を見つける。パケットは、例えば、POS130参照フレームなどの参照フレームで報告される、位置、速度、姿勢、スピード及びダイナミクス関連データを含み得るが、これに限定されない。これらのデータは、ジオリファレンシングを実行するために、方程式、例えば、LiDAR方程式に供給される変数値であり得ることが理解されよう。このようにして、プロセッサ120は、解析された情報を使用して画像データのジオリファレンシングを実行することができる。ジオリファレンシングにより、センサフレーム内の座標は、マッピングフレーム内の座標、例えば、ECEF(earth-centred,earth-fixed)座標に変換される。
次に、プロセッサ120は、ジオリファレンスされた画像データを使用して点群を生成する(S230)。点群は一連のデータ点を含むことが理解されよう。
図示しないが、プロセッサ120は、点群を放射輝度的及び/又は幾何学的に補正することができる。例えば、点群の強度値は、幾何学的に補正されてもよく、放射輝度的に較正されてもよい。この点で、記録された強度は、測定のジオメトリ(形状)と環境効果に起因する幾つかの変形の影響を受ける可能性がある。従って、強度値の輝度補正(ラジオメトリック補正)及び幾何補正(ジオメトリック補正)は、それを使用する前に適用され得る。記録された強度は、低強度を示し得る黒画像及び高強度を示し得る白画像であってもよいことを理解されたい。
その後、プロセッサ120は、点群を分析する(S240)。分析は、次のリスト:-八分木などのツリーデータ構造の計算、法線の計算、幾何学的属性の計算、点群のセグメント化及びデータ点の各々の分類、の1つ以上を含み得るが、これに限定されない。
幾つかの実施形態では、プロセッサ120は、八分木を計算し、各セルに含まれる点の数に関係なく複数のセルの各々が同じサイズを有するように、計算された八分木に基づいて点群を複数のセルに分割することができる。幾つかの実施形態では、各セルは、立方体の形態であってもよい。セルのサイズが同じであるため、空間検索とその後の処理を高速化できる。
次に、プロセッサ120は、データ点の各々について法線を計算し、計算された法線に基づいて複数のセルの各々について固有値及び/又は固有ベクトルを作成することができる。法線は、一連のデータ点に最適な平面に垂直なベクトルである。幾つかの実施形態では、複数のセルの各々の固有値及び/又は固有ベクトルは、データ点の最近傍の各々から作成された共分散行列に対するものである。
その後、プロセッサ120は、複数のセルの各々の固有値を正規化し、複数のセルの各々について少なくとも1つの幾何学的属性を計算することができる。少なくとも1つの幾何学的属性には、直線性(linearity)、平面性(planarity)、散乱(scattering)、全方向性(omnivariance)、異方性(anisotropy)、固有エントロピー(eigenentropy)、局所曲率(local curvature)、正常値(normal values)、強度(intensity)、標高(elevation)、地上標高(AGE;Above Ground Elevation)に関するデルタ標高が含まれるが、これに限定されない。
次に、プロセッサ120は、幾何学的属性に従って点群をセグメント化することができる。上記で概説した幾何学的属性の少なくとも1つ、特に標高、法線及び/又は強度、均一性/変動、及び/又は(固有)値を使用して、点群をセグメント化できることが理解されよう。次に、プロセッサ120は、幾何学的属性に従ってセグメント化された点群に基づいて、データ点の各々を分類する。各セルのデータ点は、予め決められたクラスのセット、例えば、ASPRS(American Society for Photogrammetry and Remote Sensing;米国写真測量及びリモートセンシング学会)LiDARクラスに従って分類される。その後、データ点はメッシュ化され、AGE推定のレベル0(ゼロ)として使用される。従って、データ点の各々は、クラスとAEG標高値を持つことができる。
データ点の各々が分類された後、プロセッサ120は、地理情報に関連する少なくとも1つのフィーチャを抽出する(S250)。
プロセッサ120は、生成される地理情報のタイプの選択をユーザから受け取る。地理情報には、3Dフィーチャ抽出、分類及び/又はセグメント化、道路及び舗装表面の状態監視及び/又はメンテナンス、自然環境及び/又は建造環境における変化の検出、又はツリーヘルス(樹木の健康)などの植物情報、に起因する高解像度マップが含まれるが、これに限定されない。図示しないが、プロセッサ120は、様々なタイプの地理情報を提案することができ、ユーザは、ユーザが生成を望む少なくとも1つの地理情報を選択することができる。例えば、プロセッサ120は、ユーザが少なくとも1つの地理情報を選択できるように、様々なタイプの地理情報に関する情報をディスプレイに出力することができる。
プロセッサ120は、選択された地理的情報に関連する少なくとも1つのフィーチャを抽出する。フィーチャは、地理フィーチャ又はオブジェクトフィーチャのうちの少なくとも1つを含み得るが、これに限定されない。
例えば、植物情報が選択された場合、NDVI(Normalized Difference Vegetation Index;正規化植生指数)の値が計算される。NDVIの計算値に基づいて、フィーチャを抽出及び/又は決定することができる。NDVIの値が低い場合、例えば、0.1以下の場合は、植生のないエリアを示している可能性がある。NDVIの値が中程度の場合、例えば、0.2~0.3の場合は、低木と草を示している可能性がある。NDVIの値が高い場合、例えば、0.6~0.8の場合は、木や森を示している可能性がある。
その後、プロセッサ120は、抽出されたフィーチャを使用して地理情報を生成する(S260)。
幾つかの実施形態では、撮像モジュール110が少なくとも1つの2Dセンサ112を更に含むことが理解されよう。従って、3Dセンサ111と2Dセンサ112を組み合わせて使用することができる。2Dセンサは、2D画像データ、例えば、2D画像を生成するように動作可能である。3Dセンサ111及び2Dセンサ112は、同じオブジェクト又は背景に関して、3D画像データ及び2D画像データをそれぞれ取得することができる。
プロセッサ120は、通信ネットワークを介して、リアルタイム又は略リアルタイムで、3Dセンサ111からの3D画像データ及び2Dセンサ112からの2D画像データを受信又は収集することができる。幾つかの実施形態では、プロセッサ120は、3D画像データ及び2D画像データに含まれるオブジェクト又は背景に基づいて、3D画像データ及び2D画像データを一致させることができる。
3Dセンサ111及び2Dセンサ112のそれぞれから3D画像データ及び2D画像データを受信した後、プロセッサ120は、3D画像データ及び2D画像データのジオリファレンシングをリアルタイム又は略リアルタイムで実行する。
次に、プロセッサ120は、ジオリファレンスされた画像データを使用して点群を生成する。図示しないが、プロセッサ120は、点群を放射輝度的及び/又は幾何学的に補正することができる。2D画像データについては、マルチスペクトル撮像器の場合、画像データが最初に放射輝度的に補正され、次に幾何学的に補正された後、NDVI、SR(Simple Ratio Vegetation Index;単純比植生指数)、PRI(Photochemical Reflectance Index;光化学反射指数)などの幾つかの指数がバンド比から抽出又は生成される。指数は、点群を分析するために使用される。
データ点の各々が分類された後、プロセッサ120は、2D画像データと3D画像データをマージ及び/又は融合することができる。プロセッサ120は、マージされた画像データに基づいて、複数のセルの各々について少なくとも1つの幾何学的属性を再計算し、及び/又はデータ点の各々を再分類することができる。プロセッサ120は、幾何学的属性の再計算又はデータ点の各々の再分類のいずれかを選択して実行することができる。
幾何学的属性の再計算に関して、プロセッサ120は、他の幾何学的属性、例えば、植生の健康、クロロフィル濃度などを追加することができる。パッシブセンサで且つ視覚に関して透過能力を持たない2Dセンサ112から2D画像データが生じるので、幾何学的属性のデータ点への追加は最初の戻り点に限定される。
データ点の再分類、つまり分類の改善に関して、植生指数の2D画像データを使用して、点群内の植生の描写を補強及びアフィン変換(affine)することができる。2D画像データと3D画像データの融合は、写真測量と光線追跡(レイトレーシング)の原理に依存する場合がある。
このようにして、プロセッサ120は、リアルタイム又は略リアルタイムで、デジタル表面モデル(DSM;Digital Surface Model)、デジタル地形モデル(DTM;Digital Terrain Model)、等値線、破断線、関心点などの2D及び3Dメトリック抽出によって、強化された点群の更なる処理および分析を実行する。結果は、点群メトリックの場合はLAS又はLAZ形式で、ラスターメトリックの場合はGeoTIFF形式で保存することができる。実際の3D画像データを含む点群は、LAS又はLAZ形式などのバイナリファイル形式として保存することができる。これは生データと処理済みデータ用である。プロセッサ120は、点群から3つのタイプのデータを生成することができる。データのタイプは、分類とセグメント化のための点群;DSM、DTMなどのラスター、例えば、2D画像;及び/又は等値線と破断線のベクトルである
図3は、本開示の幾つかの実施形態によるブロック図を示す。図3は、プロセッサ120、例えば、EDGEプロセッサの、サーバ121とクライアント122との間の関係の合成レイアウトを示す。プロセッサ120のサーバ121は、3Dセンサ111、2Dセンサ112、及び/又はPOS130と直接インターフェース接続する。
図3では、プロセッサ120は、1つのサーバ121と1つのクライアント122を備える。言い換えると、プロセッサ120の少なくとも一部は、サーバ121の少なくとも1つの処理に関連してもよく、プロセッサ120の少なくとも一部は、クライアント122の少なくとも1つの処理に関連してもよい。より多くの処理能力が必要な場合、追加のクライアント、例えば、1つ以上のGPUを、プロセッサ120に追加できることが理解されよう。図示しないが、幾つかの実施形態では、統合デバイスは、プロセッサ120、3Dセンサ111、2Dセンサ112、及び/又はPOS130を含むことができる。
システム100は、同期及び非同期のいずれかの方法で行われる異なる処理の効率的な並列化を実行することができる。システム100はまた、システム100の物理的セットアップに基づいてプロセッサ120を増強又は縮小することも可能にする。このようにして、プロセッサ120は、処理されるデータ量をリアルタイム又は略リアルタイムで調整することができる。
サーバ121は、TCP/IP(Transmission Control Protocol/Internet Protocol)ネットワーク接続を介して3Dセンサ111及び2Dセンサ112と直接インターフェース接続することができる。streamReader3Dモジュール123a及びstreamReader2Dモジュール123bは、それぞれ3D画像データストリーム及び2D画像データストリームを取得することができる。
3Dセンサ111は、TCP/IP接続を介してシステム100と通信する所定のライブラリを通じてプログラムでアクセス可能である。ライブラリは、3Dセンサ111の制御及び3Dセンサ111からのデータ検索のための文書化されたプラットフォーム独立ソフトウェアライブラリであり得る。ライブラリは、3Dセンサ111を構成及び制御し、3Dセンサ111から測定値を取得して解析するように動作可能である。システム100は、スキャナが空中、移動、又は地上のスキャナであるかどうかに関係なく、3Dセンサ111として任意のスキャナ(例えば、Vラインスキャナ)と互換性があることを理解されたい。
所定のライブラリがセンサ/スキャナのハードウェアと互換性があるべきであると認められる。
サーバ121は、ユーザデータグラムプロトコル(UDP)ネットワーク接続を介してPOS130と直接インターフェース接続することができる。streamReaderPOSモジュール123cは、位置及び/又は方位関連データストリームを取得できる。
幾つかの実施形態では、データストリームの各データパケットは、図4の310a、320a及び330aに示すように、個別のタイムスタンプを有し得る。タイムスタンプは、各データパケットを相互参照して、dataGeorefHandlerモジュール124を使用してサーバ121のGPUでジオレジストレーション(georegistration;画像を位置調整する処理など)を実行するために使用される。dataGeorefHandlerモジュール124は、2D画像データ及び3D画像データに適用される写真測量及びLiDAR方程式の実装であり得る。ラスターメトリック及び点群を作成すると、ラスターメトリック及び点群はサーバ内部のハードドライブにローカル保存される。
サーバ121は、一連のメッセージを1つ以上のクライアント122に送信して、生データセット、例えば、ラスターメトリック及び点群を、更なる処理に利用可能であることを通知することができる。
サーバ121から一連のメッセージを受信した後、各クライアント122は、サーバ121に、metricXHandler125a~125nによる独自の処理タスクを実行するために必要なデータを提供するように要求することができる。必要なデータには、デジタル表面モデル(DSM;Digital Surface Models)、デジタル地形モデル(DTM;Digital Terrain Models)などの特定のメトリックが含まれるが、これに限定されない。
クライアント122が独自の処理タスクを正常に実行すると、クライアント122は、Sambaサーバ126(LAN上のファイルサービス)を通じてアクセス可能なフォルダ内のサーバ内部ハードドライブに結果をコピーすることができる。
3D画像データストリーム、2D画像データストリーム、並びに位置及び/又は方位関連データストリームに加えて、システムインストールパラメータを含むシステムインストールファイルが、dataGeorefHandlerモジュール124によって要求され得ることが理解されよう。幾つかの実施形態では、システムインストールパラメータは、POS 130及びGPSアンテナに対する3Dセンサ111及び2Dセンサ112の実際の空間分布及び方位に関わるため、システム物理設備に固有である。
幾つかの実施形態では、システム100の構成全体を単純化するために、様々なパラメータを、サーバ121に格納できる所定のXMLファイルに入力することができる。従って、単純なテキストエディタが、プロセッサ120を設定するために必要になる可能性がある。
図4は、本開示の幾つかの実施形態によるフロー図を示す。要素310a、320a、330a、340a、350a、360a、360b、360c、370a、370b、390a、390b、390c、及びステップS320からS390の詳細を、図4を参照して説明する。
streamReaderモジュール123は、POSモジュール130、3Dセンサ111及び2Dセンサ112のそれぞれに接続され、システム構成モジュール(システムインストールモジュール)140にも接続されている。POSモジュール130は、S330aで、streamReaderモジュール123に位置及び姿勢情報を送信する。3Dセンサ111は、3D撮像モジュール111に関してターゲット情報の空間座標を123に送信する。関連する属性情報、例えば、ターゲットの色、反射率なども、送信され得る。2Dモジュール112は、各レイヤーが赤・緑・青の色情報や様々なスペクトルバンドでの反射率測定値などの情報を持つことができる情報の関連する多数のレイヤーを有する2Dベクトルの形式で画像情報をstreamReaderモジュール123に送信する。システムインストールモジュール140は、XMLファイルに含まれる情報をstreamReaderモジュール123に渡す。これらの情報は、相互に関連する各センサの物理設備に関連しており、例えば、システムが搭載されている車両を含む。データストリーム310a、320a、330aは、共通の1つの情報フィールドを有しており、タイムスタンプはPOSモジュールのPPS(Pulse Per Second)信号による3Dセンサ111と2Dセンサ112の同期から実際に取得される。
各ストリームは独自のレートで受信されるので、ストリーム310a、320a、330aはstreamReaderモジュール123によって同期される。123によって同期及びマージされると、情報がdataGeorefHandlerモジュール124に渡され、実際の点群(360a)がモジュール111からのデータに対してジオリファレンスされ、画像がモジュール112からのデータから生成されてジオリファレンス(360c)される 。dataGeorefHandlerモジュール123はまた、点群の各点についての全伝播不確実性(Total Propagation Uncertainty)(360b)情報を生成することができる。点群360a及び関連するラスター画像360cは、点群(370a)及び画像(370b)の分類及びセグメント化のためにモジュール125aにそれぞれ渡される。分類されると、2つのデータはモジュールS380によってマージされる。その後、マージされたデータは、ベクターファイル(390a)、ラスターファイル(390c)の一連のセットを生成する最終的なフィーチャ抽出プロセスのためにモジュール125nに渡される。最終的に、これらのファイルは、高速に「検索及び発見」できるようにするためのデータベースなどにプッシュされる。更に、ベクターファイル390a及び390bを構成するファイルは、全てのユーザがリモートハードドライブ内の収集及び処理されたデータを確認して簡単なドラッグアンドドロップで自分のコンピュータにデータをコピーできるように、SAMBAサーバに配置される。簡易化のために図4に示すモジュール123がシステムログ(350s)を書き込んでいるが、実際には、各実施形態において、モジュールS350、S360、S370、S380、S390は全てシステムログ(350a)に出力を書き込むことに留意することが重要である。
クライアント122は必要なデータパケットを収集し、データパケットを、サーバ121のdataGeorefHandlerモジュール124を介して直接ジオリファレンシングを処理できる様々なサブモジュールにディスパッチし、また、S370、S380、S390でクライアント122のmetricXHandlerモジュール125a~125nを通じてメトリック生成にディスパッチすることができる。
プロセッサ123の動作の詳細は以下の通りである:
・StreamReaderモジュール123
- 図示しないが、streamReaderモジュール123は、streamReader3Dモジュール111、streamReader2Dモジュール112、streamReaderPOSモジュール123c、及びsysConfigリーダー123dを含み得るが、これに限定されない。streamReaderモジュール123は、3D及び2Dセンサ用の撮像モジュール(3Dセンサ111又は2Dセンサ111)のそれぞれ、及びPOS S330と、インターフェース接続できる。3D画像データが3Dセンサ111からstreamReader3Dモジュール111に送信された後、2D画像データが2Dセンサ112からstreamReader2Dモジュール112に送信され、位置及び/又は方位関連データがPOS130からstreamReaderPOSモジュール123cに送信され、streamReaderモジュール123は、3D画像データ、2D画像データ、位置及び/又は方位関連データ、並びにシステムインストール情報のそれぞれを、3Dセンサ111、2Dセンサ112、及びPOS130から受信又は収集することができる(S350)。
・DataGeorefHandlerモジュール124
- dataGeorefHandlerモジュール124は、3D画像データ及び2D画像データの実際のジオリファレンシングを実行することができる(S360)。ジオリファレンシングにより、センサフレーム内の座標は、マッピングフレーム内の座標、例えば、ECEF座標に変換される。幾つかの実施形態では、変換を実行するために、LiDAR方程式及び/又は写真測量方程式を使用することができる。幾つかの実施形態では、dataGeorefHandlerモジュール124は、Applanixクラウドサービス又はPosPACスクリプト(図示せず)を使用して、軌跡の自動的な後処理を実行することができる。
- 図示しないが、別のサブモジュールを追加して、3D画像データと2D画像データの最後にストリップアライメント(strip alignment)を実行することができる。ストリップアライメントにより、不正確な照準(ボアサイト)角度推定が改善される場合もある。幾つかの実施形態では、dataGeorefHandlerモジュール124は、ストリップアライメントを実行することができる。
- 上記の座標変換は、後処理及びリアルタイム又は略リアルタイムの処理に適用できることが理解されよう。
・分類器用のMetrics1Handlerモジュール125a
- これは、ジオリファレンシングの後に発生するデータ処理(S370)の第1段階である。Metrics1Handlerモジュール125aは、3D画像データ及び2D画像データの分類器であり得る。
- 2D画像データについては、マルチスペクトル撮像器の場合、画像データが最初に放射輝度的に補正され、次に幾何学的に補正された後、NDVI、SR、PRIなどの幾つかの指数がバンド比から抽出又は生成され、ほとんどの場合、2D画像データがリモートセンシング画像分析を使用して処理され、2D画像データがセグメント化される。
- 3D画像データについては、点群の強度値を幾何学的に補正し、放射輝度的に較正することができる。その後、各セルに含まれる点の数に関係なく、複数のセルが同じサイズを有するように八分木が計算される。その後、データ点の各々について法線が計算され、計算された法線に基づいて複数のセルの各々について固有値及び/又は固有ベクトルが作成される。法線は、一連のデータ点に最適な平面に垂直なベクトルである。幾つかの実施形態では、複数のセルの各々の固有値及び/又は固有ベクトルは、データ点の最近傍の各々から作成された共分散行列に対するものである。その後、固有値が正規化され、複数のセルの各々について少なくとも1つの幾何学的属性が計算される。幾何学的属性には、直線性、平面性、散乱、全方向性、異方性、固有エントロピー、局所曲率、正常値、標高、地上標高(AGE)に関するデルタ標高が含まれるが、これらに限定されない。
- 次に、幾何学的属性に従って点群がセグメント化される。幾何学的特徴、標高、法線及び強度、均一性/変動又は値の少なくとも1つを使用して、点群をセグメント化できることが理解されよう。各セルのデータ点は、予め決められたクラスのセット、例えば、ASPRS LiDARクラスに従って分類される。その後、データ点はメッシュ化され、AGE推定のレベル0として使用される。 従って、データ点の各々は、クラスとAEG標高値を持つことができる。
・データ融合用のMetrics2Handlerモジュール125b
- 次に、2D画像データと3D画像データがマージされる(S380)。metrics2Handlerモジュール125bは、マージされた画像データに基づいて、複数のセルの各々について少なくとも1つの幾何学的属性を再計算し、及び/又はデータ点の各々を再分類することができる。metrics2Handlerモジュール125bは、幾何学的属性の再計算又はデータ点の各々の再分類のいずれかを選択して実行することができる。
- 幾何学的属性の再計算に関して、metrics2Handlerモジュール125bは、他の幾何学的属性、例えば、植生の健康、クロロフィル濃度などを追加することができる。パッシブセンサで且つ視覚に関して透過能力を持たない2Dセンサ112から2D画像データが生じるので、幾何学的属性のデータ点への追加は最初の戻り点に限定される。
- データ点の再分類、つまり分類の改善に関して、植生指数の2D画像データを使用して、点群内の植生の描写を補強及びアフィン変換する。2D画像データと3D画像データの融合は、写真測量と光線追跡の原理に依存する場合がある。
- 幾つかの実施形態では、2D画像データがない場合、S380のこのステップは省略することができる。
・アドホック処理用のMetricsNHandlerモジュール125n
- metricsNHandlerモジュール125nは、クラス及びAEG標高値を有するデータ点の各々を地理情報の生成に適用するために使用される(S390)。このようにして、metricsNHandlerモジュール125nは、ユーザが望む地理情報を生成することができる。
システム100は、2D画像データなしで地理情報を生成できることが理解されよう。2D画像データがない場合、112のステップと320a、360c、370bの要素を図4から省略できる。
説明全体にわたってリアルタイム又は略リアルタイムのデータ処理を説明したが、プロセッサ120はポストプロセッサとしても動作できることを理解されたい。プロセッサ120がポストプロセッサとして使用される場合、2D画像データ及び/又は3D画像データは、2Dセンサ112及び/又は3Dセンサ111の代わりに、1つ以上の画像ファイル、例えば、2D画像ファイル及び/又は3D画像ファイルから受信される。
幾つかの実施形態では、3D画像ファイル、例えば、生のLiDARファイルは、RXPファイルであり、所定のライブラリを通じてアクセス可能であり得る。POSファイルについては、SBET(Smooth Best Estimate Trajectory)形式の後処理軌跡、又はApplanix PosPACソフトウェアから生成された「file rnav_Mission1.out」形式のいずれであってもよい。後者のファイル形式は、RTK(リアルタイム基地局補正)又はRTX(リアルタイム衛星補正)などのリアルタイム位置情報サービスを用いる場合に使用できる。後者のファイルはSBETファイル形式と同じ形式の場合があるが、後処理を適用する必要はない。2D画像ファイルについては、2Dセンサ112のタイプに依存する場合がある。2Dセンサ112がmicro-CASIなどのプッシュブルーム(push-broom)センサを有する場合、生の2D画像は、最初にSBET軌跡を使用して後処理された画像であってもよく、その後、この画像をプロセッサ120に供給することができる。CMOSセンサが2Dセンサ112として使用される場合、それらの時間タグを伴う2D画像をプロセッサ120に直接供給することができる。
図5は、本開示の幾つかの実施形態による地理情報の生成に関するフロー図を示す。
点群を分析した後、地理情報を生成することができる。プロセッサ120は、ユーザから生成される地理情報のタイプの選択を受け取る。図示しないが、プロセッサ120は、様々なタイプの地理情報を提案することができ、ユーザは、ユーザが生成を望む少なくとも1つの地理情報を選択することができる。
プロセッサ120は、選択された地理情報に関連する少なくとも1つのフィーチャを抽出する。フィーチャは、地理フィーチャ又はオブジェクトフィーチャのうちの少なくとも1つを含み得るが、これに限定されない。
地理情報には、3Dフィーチャ抽出、分類及びセグメント化、道路及び舗装表面の状態監視及びメンテナンス、自然環境及び建造環境における変化の検出、又はツリーヘルスなどの植物情報、に起因する高解像度マップが含まれるが、これに限定されない。 幾つかの実施形態では、地理情報は、キャノピー下(under-canopy)マッピング情報又は緊急応答情報を含み得るが、これに限定されない。
・HDマップ
- プロセッサ120は、以下のように地理情報としてHDマップを生成することができる。 生成プロセスは、図2のS260に対応する。
- プロセッサ120は、選択された地理情報に関連する少なくとも1つのフィーチャを抽出する。抽出されるフィーチャは、道路の状態に関連する可能性があり、道路の中心線、道路標識、縁石、信号機及び街灯、標識、ケーブルなどが含まれるが、これに限定されない。抽出プロセスは、図2のS250に対応する。幾つかの実施形態では、プロセッサ120は、デュアルスキャナモバイルマッピングシステムと共に使用されてもよい。デュアルスキャナモバイルマッピングシステムは、2つのLiDARセンサ、コントローラユニット、カメラトリガーボックス、GNSS(Global Navigation Satellite System;全地球型測位システム)レシーバ、及び360°球面カメラで構成される。特に、プロセッサ120は、Applanix AP60、VMXシステム(2つのRiegl VUX-1HAを有するRieglのMMS VMX-1HA)、及びFLIRから提供されるLeadbug5カメラと共に使用されてもよい。
- プロセッサ120は、360°回転するLiDARセンサを3Dプロファイリングセンサ(3Dセンサ111)として使用することができる。幾つかの実施形態では、プロセッサ120は更に、2Dプロファイリングセンサ(2Dセンサ112)を使用することができる。プロファイリングセンサは、2Dスライスを収集できる。2Dスライスを積み重ねて、3D画像データを生成することができる。
- 例えば、道路の中心線抽出については、プロファイリングセンサを使用して、中心線を抽出できるように、車両後方の略垂直な2Dスライスを抽出する。抽出を実現するために、移動平均の計算によるスライドウィンドウを使用した区分線形時系列セグメンテーション(Piecewise Linear Time Series Segmentation)アプローチを用いて点群を分析し、点群のコーナー(corners)又はブレイク(breaks)を見つけることができる。この分析プロセスは、図2のS240に対応する。車両との相対的な位置や相互の位置にセマンティック分析(semantic analysis)を適用すると、道路の端及び/又は縁石が特定され、中心線が推定される。点群の分析を実現するために、点群は画像データを使用して生成されてもよい。この生成プロセスは、図2のS230に対応する。
- 幾つかの実施形態では、POS130、例えば、IMUによって生成された位置及び/又は方位関連データの累積の分析は、道路の中心線を検出するのに役立てることができる。幾つかの実施形態では、中心線の検出は、処理時間を短縮するために、スライド分析ウィンドウを正しい方向にスライドさせるガイドとして使用できる一組の方向ベクトルを提供することができる。幾つかの実施形態では、累積は、ポリライン(polylines)に変換することもでき、その後、シェイプファイル(Shapefile)のベクトルファイルとして保存することができる。保存したファイルは、後で再検査することができる。
- 幾つかの国では、縁石は同じパターンであり、例えば、黒と灰色(石又はコンクリートの自然色)の交互の帯である。従って、縁石の抽出は、物理的属性、例えば、その色や反射率だけでなく、幾何学的特性にも基づいている。抽出は、道路の両側が抽出されているので、中心線の検出後に行うことができる。道路の端が見つかった後、反射率を分析して縁石の境界を見つけることができる。
- 道路標識は、強度属性に基づいて抽出できる。道路の点群は、縁石境界情報を使用して、全体的な点群から抽出できる。このサブ点群、つまり抽出された点群から強度の閾値が適用され、残りの点はユークリッド距離フィルタを使用してクラスタ化される。その後、各クラスタの形状及びラベルが分析される。
- 抽出された円柱型ベースのフィーチャは、街灯、信号機などの人工オブジェクト、又は木のいずれかであり得ることが理解されよう。データのスライスは、AGEが1から1.3メートルの間で抽出される。次に、このデータのスライスを、処理時間を短縮するために小さなパーツに分割する。例えば、このデータスライスは、ユークリッド距離セグメンテーションアルゴリズムを使用してクラスタ化される。各クラスタについて、円柱がデータのクラスタ化されたスライスに当て嵌められ、フィッティングスコアが出力される。フィッティングスコアは、形状のタイプを評価するために使用される。幾つかの実施形態では、フィッティングスコアは、実際の残差法線であってもよく、点及び円柱から推定された最良フィッティング平面間の直交距離の実際のRMSE(Root Mean Square Error;二乗平均平方根誤差)であってもよい。
- フィッティングスコアが高い場合、クラスタは円柱形を示し、木又は何らかの人工ポールであることを意味する。フィッティングスコアが低い場合、クラスタは円柱形ではなく、後で処理するためにひとまず置いておくことができる。各フィッティングについて、プロセッサ120は、(これ以上の点が利用できなくなるまで)1メートル毎又は2メートル以上でデータ点の他のスライスを抽出し、円柱フィッティングを実行することができる。後続のフィッティングが高得点を示し、同様の円柱の特性が全て、地理的中心X、Yが同じであると共に各クラスタ内の点の一致数の付近に集中している場合、プロセッサ120は、このフィーチャが人工的なフィーチャであると想定する。その後、最下位のクラスタの重心の周りのバッファ領域を抽出することにより、更に処理が実行される。その後、スライスシーケンスの属性を、機械学習アプローチを使用して(高さ、直径などに基づいて)オブジェクトのタイプを確立するために使用できる。
- 木の場合、バッファリングされた点群にQSM(Quantitative Structure Model;量的構造モデル)アルゴリズムが適用される。このアルゴリズムは、幹及び分岐ネットワーク(trunk and branches network)から水密メッシュを生成することができる。このメッシュから、プロセッサ120は、境界ボックスを評価し、バッファゾーンのサイズを調整することができる。この新しいバッファゾーンについて、プロセッサ120は、円又は楕円体を当て嵌めることにより、AGE及びそのクラウン直径に関する木の高さを評価することができる。
- 幾つかの実施形態では、フィッティングスコア、例えば、残差法線に基づいて、フィッティングオブジェクトを決定することができる。フィッティングオブジェクトは、円柱、円、及び/又は楕円体を含み得るが、これに限定されない。幾つかの実施形態では、フィッティングを実行するライブラリは、フィッティングのための複数のタイプのオブジェクトを提供し、フィッティングスコアを出力することができる。
- その後、プロセッサ120は、QSMアルゴリズムによって生成されたメッシュを使用して、ツリー(幹及び分岐ネットワーク)のボリュームを評価することができる。ボリューム及び樹種情報から、例えば、第3の情報源から、プロセッサ120は、木の重量及び/又は炭素含有量を評価することができる。
- 全てのオブジェクトは地理情報システムデータベースに保存され、そこで表示及び更に分析することができます。
- リアルタイム又は略リアルタイムの結果は、適切なタイムスタンプと共にIMU/BODY参照フレームに保存される。これにより、ユーザがより正確な位置を望む場合にフィーチャの最終位置を調整でき、軌跡を後処理してSBETファイルを取得し、それを対象の点に適用することができる。
・ツリーヘルス(図5に示す)
- プロセッサ120は、以下のように地理情報としてツリーヘルス情報(樹木健康情報)を生成することができる。 この生成プロセスは、図2のS260に対応する。
- プロセッサ120は、道端、公園、及び住宅街区に沿った樹木のマッピングを実行し、それらの健康状態を評価することができる。地理情報は、以下の情報の少なくとも1つを決定するためにアーボリスト(arborist;樹木の栽培や手入れ方法に詳しい専門家)によって使用されてもよい:画像に基づく樹種、地面から所定メートルの高さでの樹木の周囲の測定値、推定樹高及び樹冠サイズ、マッピングされた全ての樹木の樹木位置、又は地面から所定メートルの高さでの幹の重心を示す点フィーチャ。
- このアプリケーションでは、2種類の運動学的システム統合を使用できる。第1のシステムは、自動車などの車両についてのものであってもよく、他のシステムは、バックパックについてのものであってもよい。幾つかの実施形態では、プロセッサ120は、RieglのMMS VMX-1HAと共に使用されてもよい。RieglのMMS VMX-1HAは、2つのRiegl VUX-1HA、コントローラユニットとカメラトリガーボックス、Applanix AP60、FLIRの360°球状のLadybug5カメラ、及び、1つ又は2つのmicroCASI-1920 Itresで構成することができる。他の実施形態では、第2のシステムは、プロセッサ120(フットプリントが小さい)、ApplanixのAPX20を備えたRiegl miniVUX-1UAV、Theta V、Ricohの360°全天球カメラ、及び、Itresのmicro-CASI 1920で構成することができる。
- 処理ワークフローは、上記のHDマップと同じである。これは、3D撮像機と2D撮像機から3Dデータと2Dデータを取得し、軌跡情報を使用してジオリファレンスすることを意味する(S501及びS505)。点群には、幾何補正(S503)と輝度補正(S504)を適用することができる。点群は、図3及び図4と同じ方法で生成できることを理解されたい。S503及びS504は、図2のS240に対応する。しかしながら、この用途では、追加の2Dセンサ112、例えば、ハイパースペクトル撮像機が、NDVI、SRIなどのハイパースペクトル植生指数の分析を通じてシーン内の植生を特定するのに役立つ(S511)。
- まず、3D画像データとしてのLiDARデータは、上述のようにHDマップに提示された方法を使用して分類することができる。その後、ハイパースペクトル撮像機からの2D画像データは、ItresのRCXライブラリを使用して放射輝度的に補正され(S507)、軌跡情報を使用して幾何学的に投影される(S508)。最後に、較正及び地理補正(georectify)された画像データ(S510)、例えば、較正及び地理補正された2D画像データは、大気補正を受けることができる(S509)。しかしながら、このアプリケーションでは、センサとオブジェクト間の距離は最小であり、樹木は地面にあるので大気補正は適用されない。
- 続いて、NDVIの値を算出する(S511)。計算されたNDVIの値に基づいて、フィーチャを抽出及び/又は決定することができる。この抽出及び/又は決定プロセスは、図2のS250に対応する。NDVIの値が低い場合、例えば、0.1以下の場合は、植生のないエリアを示している可能性がある。NDVIの値が中程度の場合、例えば、0.2~0.3の場合は、低木と草を示している可能性がある。NDVIの値が高い場合、例えば、0.6~0.8の場合は、木や森を示している可能性がある。基準値は、ユーザ及び/又はプロセッサ120によって決定することができる。
- この時点で、3D画像及び2D画像、S510、S511、S506及びS504は、タイムスタンプ情報に基づいて融合される。融合プロセスは、点群の色付け(S521)、形状、色、強度属性に基づく分類(S522)、最後にセグメント化(S523)を含むことができる。ツリーヘルスの場合、点群からトレス(tress)を抽出し、QSMアルゴリズムを使用してボリュームを推定するための樹木メッシュを生成する(S524)。メッシュボリュームの推定値(S525)から、ローカルのアーボリストによって提供された樹種情報と樹木ボリュームを使用して、炭素含有量を推定することができる(S526)。最後に、ツリーヘルス指数は、S511の植生指数を使用して推定することができる。
代替又は代用ではなく、上記の特徴の変形及び組み合せを、本発明の意図される範囲内に入る更なる別の実施形態を形成するように組み合わせてもよいことが、当業者に更に理解されるべきである。

Claims (19)

  1. 地理情報の生成を容易にするためのシステムであって、
    画像データを取得するように動作可能な撮像モジュールと、
    前記画像データを受け取り、前記画像データを使用して複数のデータ点を有する点群を生成するように動作可能なプロセッサとを備え、
    前記プロセッサは更に、前記点群を分析して地理情報に関連する少なくとも1つのフィーチャを抽出し、前記抽出されたフィーチャを使用して前記地理情報を生成するように動作可能であることを特徴とするシステム。
  2. 請求項1に記載のシステムにおいて、
    前記撮像モジュールは、前記画像データとして3D画像データを生成するように動作可能な少なくとも1つの3Dセンサを含むことを特徴とするシステム。
  3. 請求項1又は請求項2に記載のシステムにおいて、
    前記点群の生成は、前記画像データのジオリファレンシングを含むことを特徴とするシステム。
  4. 請求項1乃至請求項3のいずれかに記載のシステムにおいて、
    位置及び/又は方位関連データを前記プロセッサに送信するように動作可能な位置及び方位システム(POS)を更に備えることを特徴とするシステム。
  5. 請求項4に記載のシステムにおいて、
    前記プロセッサは、前記送信されたデータを解析し、前記解析された情報を使用して前記画像データのジオリファレンシングを実行するように動作可能であることを特徴とするシステム。
  6. 請求項1乃至請求項5のいずれかに記載のシステムにおいて、
    前記プロセッサは、前記点群を放射輝度的及び/又は幾何学的に補正するように動作可能であることを特徴とするシステム。
  7. 請求項1乃至請求項6のいずれかに記載のシステムにおいて、
    前記プロセッサは、八分木を計算し、前記計算された八分木に基づいて、複数のセルの各々が同じサイズになるように、前記点群を複数のセルに分割するように動作可能であることを特徴とするシステム。
  8. 請求項7に記載のシステムにおいて、
    前記プロセッサは、前記複数のデータ点の各々の法線を計算し、前記計算された法線に基づいて、前記複数のセルの各々の固有値を作成するように動作可能であることを特徴とするシステム。
  9. 請求項8に記載のシステムにおいて、
    前記プロセッサは、前記複数のセルの各々の前記固有値を正規化することによって、前記複数のセルの各々の少なくとも1つの幾何学的属性を計算するように動作可能であることを特徴とするシステム。
  10. 請求項9に記載のシステムにおいて、
    前記プロセッサは、前記幾何学的属性に従って、前記点群をセグメント化するように動作可能であることを特徴とするシステム。
  11. 請求項10に記載のシステムにおいて、
    前記プロセッサは、前記幾何学的属性に従ってセグメント化された点群に基づいて、前記複数のデータ点の各々を分類するように動作可能であることを特徴とするシステム。
  12. 請求項1乃至請求項11のいずれかに記載のシステムにおいて、
    前記撮像モジュールは、2D画像データを生成するように動作可能な少なくとも1つの2Dセンサを更に含むことを特徴とするシステム。
  13. 請求項12に記載のシステムにおいて、
    前記プロセッサは、前記2D画像データと前記3D画像データをマージするように動作可能であることを特徴とするシステム。
  14. 請求項9乃至請求項11のいずれかに記載のシステムにおいて、
    前記プロセッサは、前記マージされた画像データに基づいて、前記複数のセルの各々の少なくとも1つの幾何学的属性を再計算し、及び/又は、前記複数のデータ点の各々を再分類するように動作可能であることを特徴とするシステム。
  15. 請求項1乃至請求項14のいずれかに記載のシステムにおいて、
    前記プロセッサは、生成する地理情報のタイプの選択を受け取り、前記生成する地理情報に関連する少なくとも1つのフィーチャを抽出するように動作可能であることを特徴とするシステム。
  16. 請求項1乃至請求項15のいずれかに記載のシステムにおいて、
    前記地理情報は、高精細マップ、植物情報又は公共インフラストラクチャ情報の少なくとも1つを含むことを特徴とするシステム。
  17. 請求項1乃至請求項16のいずれかに記載のシステムにおいて、
    前記フィーチャは、地理フィーチャ又はオブジェクトフィーチャの少なくとも1つを含むことを特徴とするシステム。
  18. 請求項1乃至請求項17のいずれかに記載のシステムにおいて、
    前記撮像モジュールは、以前に取得された画像データを前記プロセッサに提供するように動作可能であることを特徴とするシステム。
  19. 地理情報の生成を容易にするための方法であって、
    撮像モジュールで、画像データを取得し、
    プロセッサで、前記撮像モジュールから前記画像データを受信し、
    前記プロセッサで、前記画像データを使用して複数のデータ点を有する点群を生成し、
    前記プロセッサで、前記点群を分析し、
    前記プロセッサで、地理情報に関連する少なくとも1つのフィーチャを抽出し、
    前記プロセッサで、前記抽出されたフィーチャを使用して前記地理情報を生成することを特徴とする方法。
JP2020517585A 2018-10-04 2019-09-18 地理情報の生成を容易にするためのシステム及び方法 Pending JP2022511147A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG10201808791P 2018-10-04
SG10201808791P 2018-10-04
PCT/SG2019/050466 WO2020072001A1 (en) 2018-10-04 2019-09-18 System and method for facilitating generation of geographical information

Publications (2)

Publication Number Publication Date
JP2022511147A true JP2022511147A (ja) 2022-01-31
JPWO2020072001A5 JPWO2020072001A5 (ja) 2022-08-12

Family

ID=70055977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020517585A Pending JP2022511147A (ja) 2018-10-04 2019-09-18 地理情報の生成を容易にするためのシステム及び方法

Country Status (8)

Country Link
JP (1) JP2022511147A (ja)
KR (1) KR20210067979A (ja)
CN (1) CN113168714A (ja)
AU (1) AU2019352559A1 (ja)
GB (1) GB2589024A (ja)
SG (1) SG11202009873RA (ja)
TW (1) TW202022808A (ja)
WO (1) WO2020072001A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4336468A1 (en) * 2022-09-06 2024-03-13 Beijing Tusen Zhitu Technology Co., Ltd. Parameterization method for point cloud data

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113504543B (zh) * 2021-06-16 2022-11-01 国网山西省电力公司电力科学研究院 无人机LiDAR系统定位定姿系统及方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9947128B2 (en) * 2013-01-29 2018-04-17 Andrew Robert Korb Methods for improving accuracy, analyzing change detection, and performing data compression for multiple images
US9803985B2 (en) * 2014-12-26 2017-10-31 Here Global B.V. Selecting feature geometries for localization of a device
US9830706B2 (en) * 2015-09-17 2017-11-28 Skycatch, Inc. Generating georeference information for aerial images
CN106688017B (zh) * 2016-11-28 2019-03-01 深圳市大疆创新科技有限公司 生成点云地图的方法、计算机系统和装置
KR102647351B1 (ko) * 2017-01-26 2024-03-13 삼성전자주식회사 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4336468A1 (en) * 2022-09-06 2024-03-13 Beijing Tusen Zhitu Technology Co., Ltd. Parameterization method for point cloud data

Also Published As

Publication number Publication date
GB2589024A (en) 2021-05-19
KR20210067979A (ko) 2021-06-08
AU2019352559A1 (en) 2020-12-17
WO2020072001A1 (en) 2020-04-09
SG11202009873RA (en) 2020-11-27
CN113168714A (zh) 2021-07-23
GB202019895D0 (en) 2021-01-27
TW202022808A (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
JP7485749B2 (ja) ビデオベースの位置決め及びマッピングの方法及びシステム
US11210806B1 (en) Using satellite imagery to enhance a 3D surface model of a real world cityscape
US10817731B2 (en) Image-based pedestrian detection
US10670416B2 (en) Traffic sign feature creation for high definition maps used for navigating autonomous vehicles
US11094112B2 (en) Intelligent capturing of a dynamic physical environment
US20200401617A1 (en) Visual positioning system
Liu et al. LiDAR-derived high quality ground control information and DEM for image orthorectification
CN110226186B (zh) 表示地图元素的方法和装置以及定位的方法和装置
TW202001786A (zh) 用於更新高度自動化駕駛地圖的系統和方法
US20180158235A1 (en) Method and apparatus for generating a cleaned object model for an object in a mapping database
CN110796714B (zh) 一种地图构建方法、装置、终端以及计算机可读存储介质
JP2020500290A (ja) 位置特定基準データを生成及び使用する方法及びシステム
JP2019527832A (ja) 正確な位置特定およびマッピングのためのシステムおよび方法
CN111047695B (zh) 一种城市群高度空间信息及等高线的提取方法
Barazzetti et al. True-orthophoto generation from UAV images: Implementation of a combined photogrammetric and computer vision approach
EP3876189A1 (en) Geographic object detection device, geographic object detection method, and geographic object detection program
US9704042B2 (en) Predicting tree species from aerial imagery
US11443452B2 (en) Using spatial filter to reduce bundle adjustment block size
JP2022511147A (ja) 地理情報の生成を容易にするためのシステム及び方法
CN117576652B (zh) 道路对象的识别方法、装置和存储介质及电子设备
CN114758086A (zh) 一种城市道路信息模型的构建方法及装置
KR100981588B1 (ko) 특징점 픽셀의 크기와 방향 정보를 이용하는 벡터 변환에 기초한 도시공간 지리정보 생성 시스템
Zhu A pipeline of 3D scene reconstruction from point clouds
Bai et al. Application of unmanned aerial vehicle multi-vision image 3D modeling in geological disasters
Gonçalves Using structure-from-motion workflows for 3D mapping and remote sensing

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240521