JP2021192261A - 建物の抽出方法、装置、機器及び記憶媒体 - Google Patents

建物の抽出方法、装置、機器及び記憶媒体 Download PDF

Info

Publication number
JP2021192261A
JP2021192261A JP2021142053A JP2021142053A JP2021192261A JP 2021192261 A JP2021192261 A JP 2021192261A JP 2021142053 A JP2021142053 A JP 2021142053A JP 2021142053 A JP2021142053 A JP 2021142053A JP 2021192261 A JP2021192261 A JP 2021192261A
Authority
JP
Japan
Prior art keywords
data
pixel
new channel
positioning
remote sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021142053A
Other languages
English (en)
Other versions
JP7289337B2 (ja
Inventor
ジドン ペン,
Jidong Peng
チェン ワン,
Zhen Wang
チェン チェン,
Cheng Chen
シレイ ウェン,
Shilei Wen
ケ スン,
Ke Sun
チェンリャン ルオ,
Chien-Liang Luo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021192261A publication Critical patent/JP2021192261A/ja
Application granted granted Critical
Publication of JP7289337B2 publication Critical patent/JP7289337B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】映像処理技術の分野に関連する建物抽出方法、建物抽出装置及びプログラムを提供する。【解決手段】方法は、ターゲットエリアのリモートセンシング映像データ及びユーザ行動関連データを取得する。ユーザ行動関連データとリモートセンシング映像データには、時空相関がある。さらに、ユーザ行動関連データ及びリモートセンシング映像データに基づいて、新規チャンネルを生成し、リモートセンシング映像データ及び新規チャンネルデータに基づいてターゲットエリア内の建物を抽出する。【選択図】図1

Description

本出願は、画像処理技術の分野、特にリモートセンシング映像のインテリジェントな翻訳技術に関し、具体的に建物の抽出方法、装置、機器、及び記憶媒体に関する。
建物とは、住宅、商業ビル、オフィスビルなど、住居、娯楽、仕事、保管などの機能を人々に提供できる空間を指す。基本的な地理データベースの主要な要素の1つとして、建物は、都市計画と建設、都市化評価、人口密度推定、及び災害後の再建の分野において重要な位置を占めている。
建物が頻繁に変化しているため、基本的な地理データベースにおける建物状態をタイムリーに更新する必要がある一方、従来技術において、建物を抽出する場合、通常、環境などの要因の影響を受け、建物の抽出精度が低下し、使用需要を満たすことができない。
本出願は、より高い精度で建物を抽出するための方法、装置、機器、及び記憶媒体を提供する。
本出願の一態様によれば、建物の抽出方法を提供し、ターゲットエリアのリモートセンシング映像データ及びユーザ行動関連データを取得するステップであって、ここで、前記ユーザ行動関連データと前記リモートセンシング映像データには時空相関があるステップと、前記ユーザ行動関連データ及び前記リモートセンシング映像データに基づいて新規チャンネルデータを生成するステップと、前記リモートセンシング映像データ及び前記新規チャンネルデータに基づいて、ターゲットエリア内の建物を抽出するステップと、を含む。
本出願のもう1つの態様によれば、建物抽出装置を提供し、ターゲットエリアのリモートセンシング映像データ及びユーザ行動関連データを取得するためのデータ取得モジュールであって、ここで、前記ユーザ行動関連データと前記リモートセンシング映像データには時空相関があるデータ取得モジュールと、前記ユーザ行動関連データ及び前記リモートセンシング映像データに基づいて、新規チャンネルデータを生成するための新規チャンネルデータ生成モジュールと、前記リモートセンシング映像データ及び前記新規チャンネルデータに基づいて、前記ターゲットエリア内の建物を抽出するための建物抽出モジュールと、を備える。
本出願のもう1つの態様によれば、電子機器を提供し、少なくとも1つのプロセッサと、該少なくとも1つのプロセッサと通信可能に接続されるメモリと、を備え、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが本出願の実施例によって提供される建物抽出方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
本出願のもう1つの態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体をさらに提供し、前記コンピュータ命令は、前記コンピュータに本出願の実施例によって提供される建物抽出方法を実行させることに用いられる。
本出願のもう1つの態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに本出願の実施例によって提供される建物抽出方法を実行させる。
本出願の実施例の技術案によれば、建物の抽出精度を向上させる。
なお、当該部分に記載されているコンテンツは、本開示の実施例の肝心なまたは重要な特徴を特定することを意図しておらず、本開示の範囲を限定することも意図していないことを理解されたい。本開示の他の特徴は、以下の説明を通じて容易に理解される。
図面は、本技術案をよりよく理解することに用いられ、本出願の限定をするものではない。
本出願の実施例によって提供される建物抽出方法のフローチャートである。 本出願の実施例によって提供されるもう1つの建物抽出方法のフローチャートである。 本出願の実施例によって提供されるもう1つの建物抽出方法のフローチャートである。 本出願の実施例によって提供されるもう1つの建物抽出方法のフローチャートである。 本出願の実施例によって提供されるもう1つの建物抽出方法のフローチャートである。 本出願の実施例によって提供されるもう1つの建物抽出方法のフローチャートである。 本出願の実施形態によって提供される建物抽出装置の構造図である。 本出願の実施形態による建物抽出方法を実施するための電子機器のブロック図である。
以下、図面と組み合わせて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
本出願の実施例によって提供される各建物抽出方法及び建物抽出装置は、スマートシティ建設、都市化評価、人口密度推定、及び災害後の再建プロジェクトの実施過程に適し、映像処理技術を使用し、リモートセンシング映像データを通じてインテリジェントな翻訳をすることにより、建物抽出の場合を実現する。本出願の実施例により提供される建物抽出方法は、建築抽出装置によって実行することができる。当該装置はソフトウェア及び/またはハードウェアによって実現し、具体的に電子デバイスに配置する。
図1は、本出願の実施例によって提供される建物抽出方法のフローチャートであり、当該方法は以下のステップを含む。
ステップ101において、ターゲットエリアのリモートセンシング映像データ及びユーザ行動関連データを取得し、ここで、ユーザ行動関連データとリモートセンシング映像データには時空相関がある。
ここで、ユーザの行動関連データとリモートセンシング映像データには時空相関がある。例示的には、リモートセンシング映像データは、ターゲットエリアの表面波の強弱が記録された映像データとして理解され得る。ここで、リモートセンシング映像データにおける各ピクセルは、ターゲットエリアのサブエリアを特徴づける。
例示的には、ユーザ行動関連データは、リモートセンシング映像データと時間的及び空間的な関係を持ち、かつユーザ行動を反映できる補助データを特徴づけることに用いられる。
ここで、時間関係は、ユーザ行動関連データ及びリモートセンシング映像の収集時間によって制限することができる。例示的には、ユーザ行動関連データは、リモートセンシング映像データが収集される前の、設定された履歴時間帯に収集または使用された補助データであってもよい。ここで、設定された履歴時間帯は、技術者がニーズや経験値に応じて、または大量の試験を繰り返すことによって決定される。例えば、設定された履歴時間帯は、リモートセンシング映像データが収集される時点の前の60日以内に収集または使用された補助データであってもよい。
ここで、空間関係は、補助データ及びリモートセンシング映像の収集場所によって限定され得る。具体的には、ユーザ行動関連データは、ターゲットエリアにおける各サブエリアによって収集または使用された補助データであってもよい。
1つの実施例において、ユーザ行動関連データは、POI(Point of Interest 関心点)データ、測位データ、検索データなどのうちの少なくとも1つであってもよく、ユーザ行動関連データに含まれるコンテンツカテゴリを充実させ、さまざまな新規チャンネルデータを生成することを可能にする。
例示的には、POIデータは、ターゲットエリアにおける各候補POIの関連データを特徴付けることに用いられる。例えば、それは、各候補POIにおけるユーザの活動を反映する候補POIのカテゴリまたは説明情報などであってもよい。
例示的には、測位データは、ターゲットエリア内のユーザであってもよく、測位機能を備えたアプリケーションを使用する場合、収集された座標情報などは、ターゲットエリアの異なるサブエリアにおけるユーザの測位行動を反映することができる。
例示的には、検索データはターゲットエリア内のユーザであってもよい。検索機能を備えたアプリケーションを使用する場合、収集されたユーザの検索動作によって生成される検索情報は、ターゲットエリアのさまざまなサブエリアにおけるユーザの検索動作を反映できる。
選択可能に、リモートセンシング映像データ及びユーザ行動関連データのうちの少なくとも1つはローカル電子デバイス、電子デバイスに関連する他のストレージデバイス、またはクラウドに予め記憶することができる。これに対応して、建物を抽出する必要がある場合、対応するストレージ空間からリモートセンシング映像データ及びユーザ行動関連データを取得する。
ステップ102において、ユーザ行動関連データ及びリモートセンシング映像データに基づいて、新規チャンネルデータを生成する。
例示的には、リモートセンシング映像データに基づいて、ユーザ行動関連データを処理し、リモートセンシング映像データと時空相関を有する新規チャンネルデータを取得する。選択可能に、ユーザ行動関連データに対する処理は分割、結合、特徴抽出、及び他のデータ変換のうちの少なくとも1つであってもよい。
選択可能に、リモートセンシング映像データにおける各ピクセルの測位情報に基づいて、ユーザ行動関連データを分割し、リモートセンシング映像データにおける各ピクセルのソート順に従って、分割されたユーザ行動関連データを再結合し、各ピクセルに関連付けられたユーザ行動関連データに基づいて、新規チャンネルデータを生成することができる。
選択可能に、機器学習モデルによって、ユーザ行動関連データからリモートセンシング映像データに関連する共同特徴を抽出し、抽出された共同特徴に基づいて、新規チャンネルデータを生成することもできる。ここで、機器学習モデルは、既存の任意のモデルまたは少なくとも2つのモデルの組み合わせを採用することができ、本出願はモデルの具体的な構造については、限定しない。
1つの実施例において、ユーザ行動関連データ及びリモートセンシング影像データに基づいて、新規チャンネルデータを生成することは、測位情報に基づいて、ユーザ行動関連データをリモートセンシング影像データのピクセルにマッピングし、各ピクセル関連ユーザ行動関連データに基づいて、新規チャンネルデータを生成するものであってもよい。データマッピングによってリモートセンシング映像データとユーザ行動関連データとの関連関係を確立するのが、新規チャンネルデータの生成のための基礎を定めたことは理解される。同時に、データマッピングの方式を採用すれば操作が容易かつ迅速であり、操作性が高く、データ計算量が少ない。
具体的には、リモートセンシング映像データにおける各ピクセルに対応するターゲットエリアのサブエリアは、ピクセルに対応するターゲットエリア内のサブエリアの測位情報、及びユーザ行動関連データにおける各データの測位情報に基づいて、ユーザ行動関連データを対応するピクセルにそれぞれマッピングすることができるため、各ピクセルとユーザ行動関連データとの間の関連関係を確立し、さらには、各ピクセルに関連付けられたユーザ行動関連データに基づいて、ターゲットエリアの建物の抽出プロセスをサポートするための新規チャンネルデータを生成する。
ステップ103において、リモートセンシング映像データ及び新規チャンネルデータに基づいて、ターゲットエリア内の建物を抽出する。
ここで、リモートセンシング映像データは、少なくとも1つのチャンネルタイプのデータを含むことができる。ここで、チャンネルタイプは、RGBタイプまたは赤外線タイプのうちの少なくとも1つであってもよい。
例示的には、リモートセンシング映像データに追加チャンネルを設けることができ、追加チャンネル数は、新規チャンネルデータと同じである。リモートセンシング映像データを更新するために新規チャンネルデータをチャンネルによってリモートセンシング映像データに追加する。更新されたリモートセンシング映像データに基づいてターゲットエリア内の建物を抽出する。
ユーザ行動関連データ及びリモートセンシング映像データによって新規チャンネルデータを生成して、ターゲットエリアの建物の抽出を支援することは、収集環境要因によるリモートセンシング映像データの品質低下、建物抽出結果の精度が高くないという欠点を補うことは理解される。同時に、建物抽出プロセスにおいて、新規チャンネルデータを導入し、建物抽出時の参照データを充実させ、さらに建物抽出結果の精度を向上させる。
本出願の実施例は、ターゲットエリアのリモートセンシング映像データ及びユーザ行動関連データを取得し、ここで、ユーザ行動関連データとリモートセンシング映像データには時空相関があり、ユーザ行動関連データ及びリモートセンシング映像データに基づいて新規チャンネルデータを生成し、リモートセンシング映像データ及び新規チャンネルデータに基づいてターゲットエリア内の建物を抽出する。以上により、本出願の実施例は、ユーザの行動関連データ及びリモートセンシング映像データに基づいて生成された新規チャンネルデータを導入することで、ユーザのターゲットエリアにおける異なる位置の活動状況を特徴づけ、当該新規チャンネルデータをリモートセンシング映像データの補足データとしてターゲットエリア内の建物を抽出し、建物抽出過程におけるデータ参照を充実させ、建物抽出結果の精度をさらに向上させる。また、新規チャンネルデータを追加することにより、収集環境などによるリモートセンシング映像データの品質が悪くなり、建物抽出結果に与えた影響を補うことができ、建物抽出結果の安定性及び建物抽出方式の汎用性を向上させた。
図2は、本出願の実施例によって提供されるもう1つの建物抽出方法のフローチャートである。当方法は前記各技術案に基づいて最適化されて完備されたものである。
さらに、建物抽出方式を完備するために「前記リモートセンシング映像データ及び前記新規チャンネルデータに基づいて、前記ターゲットエリア内の建物を抽出する」という操作を、「前記リモートセンシング映像データ及び前記新規チャンネルデータを、予めトレーニングされた建物抽出モデルに入力して、前記ターゲットエリア内の建物を抽出する」ことに細分化する。
図2に示すように、建物の抽出方法は、以下のステップを含む。
ステップ201において、ターゲットエリアのリモートセンシング映像データ及びユーザ行動関連データを取得し、ここで、前記ユーザ行動関連データ及び前記リモートセンシング映像データは時空相関を備える。
ステップ202において、前記ユーザ行動関連データ及び前記リモートセンシング映像データに基づいて、新規チャンネルデータを生成する。
ステップ203において、前記リモートセンシング映像データ及び前記新規チャンネルデータに基づいて、ターゲットエリア内の建物を抽出する。
ステップ204において、前記リモートセンシング映像データ及び前記新規チャンネルデータを、予めトレーニングされた建物抽出モデルに入力して、前記ターゲットエリア内の建物を抽出する。
選択可能に、ターゲットエリア内の建物を抽出することは、ターゲットエリアの建物を検出することであってよい。または、選択可能に、ターゲットエリア内の建物を抽出することは、ターゲットエリア内の建物に対して語義分割を行うことであってもよい。
ここでは、建物抽出モデルのモデルトレーニング段階において、建物抽出モデルの精度を満足するまでに、予めマークされたリモートセンシング映像データ及び新規チャンネルデータを用いて、構築された建物抽出モデルにおけるネットワークパラメータを調整することができる。
例示的には、建物抽出モデルは、ターゲット検出モデル及び語義分割モデルのうちの少なくとも1つを含むことができる。ここで、ターゲット検出モデルは、検出ターゲットエリア内の建物を検出することに用いられる、当該ターゲット検出モデルはPP−YOLO(Paddle Paddle You only look once、飛漿−1度だけ見る)及びMask R−CNN(Mask Region Convolutional Neural Networks、エリアマーク畳み込みニューラルネットワークモデル)などのネットワーク構造のうちの少なくとも1つに基づいて実現することができる。ここで、語義分割モデルは、ターゲットエリア内の建物を語義分割することに用いられる、当該語義分割モデルは、U−net、DeepLabなどのネットワーク構造のうちの少なくとも1つに基づいて実現することができる。
本出願の実施例は、ターゲットエリア内の建物の抽出過程において、建物抽出モデルを導入することにより、建物抽出の汎用性及び利便度を向上させる同時に、建物抽出効率を向上させ、リモートセンシング映像データ及び新規チャンネルデータに基づいて、ターゲットエリア内の建物を抽出する。
図3は、本出願の実施例によって提供されるもう1つの建物抽出方法のフローチャートであり、当方法は前記各技術案に基づいて最適化されて完備されたものである。
さらに、ユーザ行動関連データを、POIデータを含むことに細分化し、それに応じて、新規チャンネルデータの決定メカニズムを完備するために、「ユーザ行動関連データ及びリモートセンシング映像データに基づいて、新規チャンネルデータを生成する」という操作を「POIデータにおける各候補POIの測位情報に基づいて、リモートセンシング映像データにおける各ピクセルの隣接POIを決定し、隣接POIのPOIデータに基づいて新規チャンネルデータを生成する」ことに細分化する。
図3に示すように、建物の抽出方法は、以下のステップを含む。
ステップ301において、ターゲットエリアのリモートセンシング映像データ及びPOIデータを取得し、ここで、POIデータとリモートセンシング映像データには時空相関がある。
ここで、POIデータは、ユーザがナビゲーション機能や地図検索機能を備えたアプリケーションを使用する場合、使用される地図データにおけるターゲットエリアに対応する各候補POIに関するデータであってもよく、例えば、候補POIのカテゴリまたは説明情報などを含むことができる。
なお、候補POIに対応するPOIデータが異なるため、それに応じて、ユーザが各候補POIにおいて実行できる動作も異なる、即ち、ユーザが異なる候補POIにおける活動状況が異なる。したがって、POIデータを導入することにより各候補POIにおけるユーザの活動状況を側面から反映することができる。
ここで、POIデータには、測位情報、テキスト情報などのデータのうちの少なくとも1つが含まれてもよい。ここで、測位情報は現在のPOIに対応する位置座標を特徴づけることに用いられ、テキスト情報は現在のPOIの概要説明及びPOIカテゴリなどの基本的な属性を特徴づけることに用いられる。
POIデータは、候補POIの新規または削除に応じて調整される可能性があるため、POIデータのリアルタイム性及び有効性を保証するために、通常取得されたPOIデータはリモートセンシング映像データの取得前に設定期間内のPOIデータである。ここで、設定時間帯は、従業者によってニーズまたは経験値に応じて設定され、または大量の試験によって確定されることができる。
ステップ302において、POIデータにおける各候補POIの測位情報に基づいて、リモートセンシング映像データにおける各ピクセル隣接POIを決定する。
例示的には、POIデータにおける各候補POIの測位情報に基づいて、POIデータをリモートセンシング映像データにおける各ピクセルにそれぞれマッピングすることにより、ピクセルとPOIデータとの関連関係を確立し、各ピクセルに関連付けられた候補POIを隣接POIとする。
ステップ303において、隣接POIのPOIデータにより、新規チャンネルデータを生成する。
選択可能な実施形態において、隣接POIのPOIデータによって新規チャンネルデータを生成するのは、各ピクセルに対して隣接POIのテキストデータよりPOIトピックベクトルを生成し、各ピクセルのPOIトピックベクトルによって新規チャンネルデータを生成することができる。
ここで、POIのテキストデータは、POI名、POI説明及び地理的な位置などの情報のうちの少なくとも1つを含む。
ここで、POIトピックベクトルは、POIの機能テーマまたは位置テーマを特徴づけるための特徴ベクトルであり、POIのテキストデータから抽出することができる。
例示的には、POIのテキストデータを単語分割し、単語分割結果を得ることができ、単語分割結果を予めトレーニングされたテーマ生成モデルに入力し、POIトピックベクトルを得る。ここで、文書テーマ生成モデルは、LDA(Latent Dirichlet Allocation,潜在的ディリクレ配分法)モデルなどであってもよく、POI単語を複数のテーマに分割することができる。
POIトピックベクトルの決定過程のデータ計算量を低減し、POIトピックベクトルの決定効率を向上させるために、POIトピックベクトルセットを事前に構築することができ、POIトピックベクトルセットに、各候補POIのテキストデータに対応するPOIトピックベクトルを記憶する。したがって、隣接するPOIのテキストデータを各候補POIのテキストデータと一致させ、一致性の高い候補POIのPOIトピックベクトルを当該隣接POIのPOIトピックベクトルとして決定する。
ここで、POIトピックセットは、下記の方法によって構築される。予め設定POIデータベースから各候補POIのPOI名を抽出して単語分割し、POI名の単語分割結果を得て、例えば、中国語の単語ベース及び外国語の単語ベースのうちの少なくとも1つに基づいてPOI名を単語分割し、関心点名の単語分割結果を文書のトピック生成モデルに入力し、POIトピックセットを得る。トピックセットにおける各候補POIとPOIトピックベクトルとの対応関係を確立する。ここで、文書トピック生成モデルは、LDA(Latent Dirichlet Allocation,潜在的ディリクレ配分法)モデルなどであってもよく、POI単語を複数のテーマに分割することができる。
もう1つの実施例において、隣接POIのPOIデータに基づいて、新規チャンネルデータを生成する。各ピクセルの隣接POIを統計し、統計結果に基づいて、新規チャンネルデータを生成することができる。
選択可能に、各ピクセルの隣接POIを統計し、統計結果に基づいて、新規チャンネルデータを生成することは、各ピクセルに対して、当該ピクセルの隣接POIのPOI数を統計し、リモートセンシング映像データにおける各ピクセルのソート順に基づいて、各ピクセルの隣接POIのPOI数を組み合わせて新規チャンネルデータを生成するものであってもよい。
選択可能に、各ピクセルの隣接POIを統計し、統計結果に基づいて、新規チャンネルデータを生成することは、各ピクセルに対して、当該ピクセルの隣接POIのPOIカテゴリをそれぞれ統計し、リモートセンシング映像データにおける各ピクセルのソート順に基づいて、各ピクセルの隣接POIのPOIカテゴリ数を組み合わせて新規チャンネルデータを生成するものであってもよい。ここで、POIのカテゴリは、従業員によってニーズまたは経験に応じて区別することができる。例示的には、POIのカテゴリは、業種基準を採用して、POIをグルメ、ホテル、ショッピング、生活サービス、観光スポット、レジャーなどのうちの少なくとも1つ種類の1級業種に分類することができる。新規チャンネルデータにおける内容の豊かさをさらに向上させるために、各1級業種結果を少なくとも1つの2級業種にさらに分けることもできる。例えば、ホテルを星付きホテル、エクスプレスホテル、アパートメントスタイル、民宿ホテルなどに分ける。
または、選択可能に、各ピクセルの隣接POIを統計し、統計結果に基づいて、新規チャンネルデータを生成することは、各ピクセルに対して、当該ピクセルの隣接POIが各POIカテゴリにおけるPOI数をそれぞれ統計し、各POIカテゴリに対してリモートセンシング映像データにおける各ピクセルのソート順に基づいて、各ピクセルのPOI数を組み合わせて当該POIカテゴリに対応する新型チャンネルデータを生成するものであってもよい。
なお、統計結果に基づいて新規チャンネルデータを生成する場合には、異なるチャンネルデータの次元の影響を除去するために、統計結果を正規化し、正規化後の統計結果に基づいて、新規チャンネルデータを生成することもできる。ここで、正規化処理は、線形関数正規化、ゼロ中心化、及び他の既存の正規化方法における1つ、または少なくとも2つの方法の組み合わせを採用することができる。
なお、新規チャンネルデータとリモートセンシング映像データにおける各チャンネルデータの次元の違いによる影響を除去するために、正規化する際に、新規チャンネルデータを[0,255]というデータ区間に正規化することができる。
ステップ304において、リモートセンシング映像データ及び新規チャンネルデータに基づいて、ターゲットエリア内の建物を抽出する。
本出願の実施例は、新規チャンネルデータの生成操作を、POIデータの各候補POIの測位情報に基づいてリモートセンシング映像データにおける各ピクセルの隣接POIを決定し、隣接POIのPOIデータによって新規チャンネルデータを生成することに細分化する。以上により、上記技術案を採用して、新規チャンネルデータの生成メカニズムを完備し、POIデータを通じてユーザの活動行為に関する暗黙的特徴の発掘を行い、建物の抽出を行う参照根拠を充実させ、建物の抽出結果の精度を向上させるために基礎を築き上げた。
図4は本出願の実施例によって提供されるもう1つの建物抽出方法のフローチャートであり、当該方法は前記各実施形態の技術案に基づいて最適化された完備が行われる。
さらに、ユーザ行動関連データを、測位データを含むことに細分化し、それに応じて「ユーザ行動関連データ及びリモートセンシング映像データに基づいて、新規チャンネルデータを生成する」という操作を、「測位データにおける各測位点の分布状況に応じて、各ピクセルに関連付けられた測位点の駐在カテゴリを決定し、ここで、駐在カテゴリは常駐及び非常駐を含み、各ピクセルに関連付けられた駐在カテゴリに基づいて、新規チャンネルデータを生成する」ことに細分化することにより、新規チャンネルデータの確定メカニズムを完備する。
図4に示すように、建物の抽出方法は以下のステップを含む。
ステップ401において、ターゲットエリアのリモートセンシング映像データ及び測位データを取得し、ここで、測位データとリモートセンシング映像データには時空相関がある。
ここで、測位データは、ターゲットエリアにおけるユーザが測位機能を備えたアプリケーションを使用して生成された測位データであってもよいため、当該測位データは、ユーザの測位行為、または、測位機能を備えたアプリケーションの使用行為を特徴づけることができる。
測位行動は、ユーザによって自らトリガーされる測位行動であってもよく、例えば、ナビゲーションクラスアプリケーションによって自身が位置している場所を測位することであってもよい。選択可能に、測位行動はユーザによって受動的にトリガーされる測位行動であってもよく、例えば、ユーザが買い物アプリケーションを使用して商品を閲覧する際に、アプリケーション許可後、ショッピングクラスアプリケーションによってユーザの位置収集を行うことであってもよい。
例示的に、測位データはリモートセンシング映像データを取得する前の設定された履歴時間帯内に収集されたデータであってもよく、測位データとリモートセンシング映像データとの間の時間関連性を反映しながら、測位データの時効性を保証する。ここで、設定された履歴時間帯は、技術者がニーズや経験値に応じて、または大量の試験を繰り返すことによって決定することができる。
例示的には、測位データは、ターゲットエリア内のユーザによって生成されたデータであってもよく、従って、測位データとリモートセンシング映像データとの空間的関連性を反映し、候補の新規チャンネルデータの生成に基礎を築き上げた。
ステップ402において、測位データにおける各測位点の分布状況に応じて、各ピクセルに関連付けられた測位点の駐在カテゴリを決定し、ここで、駐在カテゴリは常駐カテゴリ及び非常駐カテゴリを含む。
例示的には、各ピクセルの測位情報に基づいて、ターゲットエリアを異なるサブエリアに分割し、測位データにおける各測位ユーザの測位点の位置決定時間順に、各測位点の測位ユーザがサブエリアにおける移動特徴をそれぞれ決定し、ここで、移動特徴は移動速度及び滞在時間のうちの少なくとも1つを含み、測位ユーザの移動特徴に応じて、測位点が常駐カテゴリであるか、または非常駐カテゴリであるかを決定する。
選択可能に、各測位ユーザに対して、当該測位ユーザの測位点の隣接測位時間及び隣接測位時間に対応する測位距離に基づいて、隣接測位点のうちの1つの測位点における当該測位ユーザの移動速度を決定し、移動速度が設定速度閾値より小さい場合は、当該測位点が常駐カテゴリであると判定し、移動速度が設定速度閾値以上である場合、当該測位点が非常駐カテゴリであると判定する。ここで、速度閾値を設定することは、技術者がニーズまたは経験値に基づいて決定するか、または大量の試験を繰り返して決定することができる。
または、選択可能に、各測位ユーザに対して、当該測位ユーザの測位点の隣接測位時間及び隣接測位時間に対応する測位距離に基づいて、当該測位ユーザが隣接測位点における1つの移動速度を決定し、隣接測位時間の設定数の連続測位点の移動速度が設定速度閾値よりも小さい場合、当該設定数の連続の測位点の駐在カテゴリが常駐カテゴリであると判定し、そうでなければ、当該設定数量の連続測位点の駐在カテゴリは非常駐カテゴリであると判定すし、ここで、設定数及び設定速度閾値のうちの少なくとも1つは、技術者がニーズまたは経験値に基づいて決定するか、または大量の試験を繰り返し決定することができる。
ステップ403において、各ピクセルに関連付けられた駐在カテゴリに基づいて、新規チャンネルデータを生成する。
1つの実施例において、各ピクセルに関連付けられた測位点の駐在カテゴリに基づいて、チャンネルデータを生成することは、駐在カテゴリに応じて、各ピクセルに関連付けられた測位点を統計し、統計結果に基づいて、新規チャンネルデータを生成することであってもよい。駐在カテゴリを統計する方法によって新規チャンネルデータの生成が、新規チャンネルデータの生成方法をさらに完備したことは理解される。同時に、統計方法によって新規チャンネルデータの生成にデータサポートを提供し、操作が簡単かつ迅速で、メモリリソースの占用量が小さくなる。
例示的には、各駐在カテゴリに対して、各ピクセルに関連付けられた測位点の各駐在カテゴリにおける統計値をそれぞれ統計し、各ピクセルの各駐在カテゴリにおける統計値に基づいて、リモートセンシング映像データにおける各ピクセルのソート順を組み合わせて、当該駐在カテゴリに対応する新規チャンネルデータを生成する。なお、駐在カテゴリの数に応じて、生成された新規チャンネルデータのチャンネル数を決定することができる。典型的には、駐在カテゴリの数は、新規チャンネルデータのチャンネル数と同じである。
なお、異なる駐在カテゴリの統計値の次元による影響を除去するために、統計値を正規化し、正規化後の統計値に基づいて、新規チャンネルデータを生成するともできることは理解される。ここで、正規化処理は、線形関数正規化、ゼロ中心化、及び他の既存の正規化方法における1つ、または少なくとも2つの方法の組み合わせを採用することができる。
なお、新規チャンネルデータとリモートセンシング映像データにおける各チャンネルデータの次元の違いによる影響を除去するために、正規化する際に、新規チャンネルデータを[0,255]というデータ区間に正規化することができる。
例示的には、各ピクセルに関連付けられた測位点の常駐カテゴリにおける統計値をそれぞれ統計し、常駐カテゴリの統計値と対応するピクセルに関連付けられた測位点の総数の比率に基づいて、常駐カテゴリ比率を決定し、各ピクセルの常駐カテゴリ比率に応じて、リモートセンシング映像データにおける各ピクセルのソート順と併せて、新規チャンネルデータを生成する。
ステップ404において、リモートセンシング映像データ及び新規チャンネルデータに基づいて、ターゲットエリア内の建物を抽出する。
本出願の実施例は、新規チャンネルデータを生成する操作を、測位データにおける各測位点の分布状況に応じて、各ピクセルに関連付けられた測位点の常駐カテゴリを決定し、ここで、駐在カテゴリが常駐カテゴリ及び非常駐在カテゴリを含み、各ピクセルに関連付けられた駐在カテゴリに応じて、新規チャンネルデータを生成することに細分化する。以上により、上記技術案を採用することで、新規チャンネルデータの生成メカニズムを完備し、駐在カテゴリを導入して測位点を区別することより、測位点の属するエリア内のユーザの活躍度をマッピングし、駐在カテゴリに応じて新規チャンネルデータを生成し、生成された新規チャンネルデータにはユーザの行為活動に関連する隠れた特徴が含まれるようにし、従って、建物の抽出過程において、リモートセンシングの映像データを補足し、建物の抽出参照基準を充実させ、建物の抽出結果の精度を向上させるために基礎を築き上げた。
図5は本出願の実施例によって提供されるもう1つの建物抽出方法のフローチャートであり、当該方法は前記各実施例の技術案に基づいて最適化及び改善された。
さらに、ユーザ行動関連データを、測位データを含むことに細分化し、それに応じて、新規チャンネルデータの決定メカニズムを完備するために、「ユーザ行動関連データ及びリモートセンシング映像データに基づいて、新規チャンネルデータを生成する」という操作を「測位データにおける各測位点の分布状況に応じて、リモートセンシング映像データの各ピクセルに関連付けられた測位データを決定し、各ピクセルに関連付けられた測位データにおける固定データビット数及び測位ユーザ数のうちの少なくとも1つを統計し、統計結果に基づいて新規チャンネルデータを生成する」ことに細分化する。
図5に示すように、建物の抽出方法は、以下のステップを含む。
ステップ501において、ターゲットエリアのリモートセンシング映像データ及び測位データを取得し、ここで、測位データとリモートセンシング映像データには時空相関がある。
ここで、測位データは、各測位点の測位情報及び各測位点に対応する測位ユーザのユーザ情報を含む。
ステップ502において、測位データにおける各測位点の分布状況に応じて、リモートセンシング映像データの各ピクセルに関連付けられた測位データを決定する。
例示的には、測位データにおける各測位点の分布状況に応じて、測位データをリモートセンシング映像データの各ピクセルの位置領域にそれぞれマッピングし、各ピクセル要素に関連する測位データを得る。
ステップ503において、各ピクセルに関連付けられた測位データにおける測位点数及び測位ユーザ数のうちの少なくとも1つを統計し、統計結果に基づいて、新規チャンネルデータを生成する。
選択可能に、各ピクセルに関連付けられた測位データにおける測位点数を統計し、統計結果に基づいて、新規チャンネルデータを生成することは、各ピクセルに関連付けられた測位データにおける測位点数を直接統計して、測位点統計値を得て、各ピクセルに関連付けられた測位点統計値を、各ピクセルのリモートセンシング映像データにおけるソート順に従って、組み合わせて測位点次元における新規チャンネルデータを生成することであってもよい。
選択可能に、各ピクセルに関連付けられた測位データにおける測位ユーザ数を統計し、統計結果に基づいて、新規チャンネルデータを生成することは、各ピクセルに関連付けられた測位データの測位ユーザ数を統計して、ユーザ統計値を得て、各ピクセルに関連付けられたユーザ統計値を、各ピクセルのリモートセンシング映像データにおけるソート順に従って、組み合わせてユーザ次元における新規チャンネルデータを生成することであってもよい。
選択可能に、各ピクセルに関連付けられた測位データにおける測位ユーザ数を統計し、統計結果に基づいて、新規チャンネルデータを生成することは、各ピクセルに関連付けられた測位データの測位ユーザを決定し、各測位ユーザのユーザカテゴリを決定し、各ピクセルに関連付けられた測位ユーザのユーザカテゴリを統計して、ユーザカテゴリ統計値を得て、各ユーザカテゴリに対して、当該ユーザカテゴリの統計値を、各ピクセルのリモートセンシング映像データにおけるソート順に従って、組み合わせてユーザカテゴリ次元における新規チャンネルデータを生成することであってもよい。ここで、新規チャンネルデータのチャンネル数は、ユーザカテゴリ数に対応する。
さらに、新規チャンネルデータの情報量を充実させるために、時間帯ごとに異なる時間帯や次元(測位点次元、ユーザ次元、ユーザカテゴリ次元などのうちの少なくとも1つ)における統計値を決定し、かつ統計値に基づいて、対応するチャンネルの新規チャンネルデータを生成することもできる。ここで、新規チャンネルデータのチャンネル数は、時間数と次元数の積に対応する。時間分割方式は、従業員がニーズまたは経験に応じて決定することができる。例えば、1日を昼と夜の2つの時間などに分割することができる。
なお、新規チャンネルデータの情報量を充実させるために、前記少なくとも2つの新規チャンネルデータを組み合わせて、複数チャンネルの新規チャンネルデータを得ることにより、その後の建物抽出のためにデータサポートを提供することができる。
異なるチャンネルのデータの次元の違いによる影響を排除するために、各チャンネルの新規チャンネルデータを正規化することもできることが理解される。ここで、正規化処理は、線形関数正規化、標準化、及び他の既存の正規化方法における1つ、または少なくとも2つの方法の組み合わせを採用することができる。
なお、新規チャンネルデータとリモートセンシング映像データにおける各チャンネルデータの次元の違いによる影響を除去するために、正規化する際に、新規チャンネルデータを[0,255]というデータ区間に正規化することができる。
測位点数を導入することにより、ターゲットエリアにおけるユーザの測位状況を反映することができ、したがって、測位点次元またはアプリケーションに次元を使用してユーザの行為活動を特徴づけることができる。ピクセルに関連付けられた測位ユーザ数を導入することにより、ユーザ分布状況を決定し、ユーザのターゲットエリアにおける潜在的な活動状況を反映することができる。
ステップ504において、リモートセンシング映像データ及び新規チャンネルデータに基づいて、ターゲットエリア内の建物を抽出する。
本出願の実施例は、新規チャンネルデータの生成する操作を、測位データにおける各測位点の分布状況に応じてリモートセンシング映像データの各ピクセルに関連付けられた測位データを決定し、各ピクセルに関連付けられた測位データにおける測位点数及び測位ユーザ数の少なくとも1つを統計し、統計結果に基づいて新規チャンネルデータを生成することに細分化にする。以上により、上記技術案は、ピクセルに関連付けられた測位データにおける測位点数及び測位ユーザ数の少なくとも1つを導入することより、側面に当該ピクセル内のユーザのユーザ活動状況を特徴づけ、ユーザ行動に関連する隠れた特徴が含まれる新規チャンネルデータを生成し、建物抽出過程において、リモートセンシング映像データを補足し、建物抽出の基準を充実させ、建物の抽出結果の精度を向上させるための基礎を築き上げた。
図6は、本出願の実施例によって提供されるもう1つの建物抽出方法のフローチャートであり、当該方法は前記各実施例の技術案に基づいて最適化及び改善された。
さらに、ユーザ行動関連データを、検索データを含むことに細分化し、それに応じて、新規チャンネルデータの決定メカニズムを完備するために、「ユーザ行動関連データ及びリモートセンシング映像データに基づいて、新規チャンネルデータを生成する」という操作を「検索データの測位情報に基づいて、リモートセンシング映像データの各ピクセルに関連付けられたキーワードの組み合わせの検索回数を決定し、各ピクセルに関連付けられた検索回数に応じて、新規チャンネルデータを生成する」ことに細分化する。
図6に示すように、建物の抽出方法は、以下のステップを含む。
ステップ601において、ターゲットエリアのリモートセンシング映像データ及び検索データを取得する。ここで、検索データとリモートセンシング映像データには時空相関がある。
ここで、検索データは、ターゲットエリアのユーザが検索機能を備えたアプリケーションを用いて生成された検索データであってもよいため、当該検索データは、ユーザの検索行為を特徴づけることができる。
例示的には、検索データは、リモートセンシング映像データを収集する時刻の前の設定された履歴時間帯内に収集されたデータであってもよく、測位データとリモートセンシング映像データとの間の時間関連性を反映しながら、測位データの時効性を保証する。ここで、設定された履歴時間帯は、技術者がニーズや経験値に応じて、または大量の試験を繰り返すことによって決定することができる。
例示的には、検索データは、ターゲットエリアにおけるユーザによって生成されたデータであってもよいため、検索データとリモートセンシング映像データとの間の空間関連性が保証され、候補の新規チャンネルデータの生成のために基礎を築き上げた。
ステップ602において、検索データの測位情報に基づいて、リモートセンシング映像データの各ピクセルに関連付けられたキーワードの組み合わせの検索回数を決定する。
ここで、検索データの測位情報は、検索行為を生成する測位情報を特徴づけることに用いられる。例示的には、検索データの測位情報に基づいて、リモートセンシング映像データの各ピクセルの測位情報に従って、検索データをそれぞれ各ピクセルにマッピングし、各ピクセルに関連付けられた検索データを得ることができる。各ピクセルに関連付けられた検索データにおけるキーワードの組み合わせの検索回数をそれぞれ統計し、後続の新規チャンネルデータの生成にデータサポートを提供することができる。
例示的には、キーワードの組み合わせは、予め構築された検索単語ベースを検索することによって決定することができる。選択可能に、検索データにおける候補単語の組み合わせに基づいて、予め構築された検索単語ベースを検索し、検索単語ベースにおける各単語と候補単語の組み合わせのマッチング状況に基づいて、検索データにおけるキーワードの組み合わせを決定し、決定されたキーワードの組み合わせの検索回数を統計する。具体的には、検索単語ベースに候補語の組み合わせに一致する連語がある場合、当該候補語の組み合わせはキーワードの組み合わせとして決定され、そうでなければ、該当候補語の組み合わせは無関係単語の組み合わせとして決定される。
ステップ603において、各ピクセルに関連付けられた検索回数に基づいて、新規チャンネルデータを生成する。
例示的には、各ピクセルに関連付けられた検索回数を、リモートセンシング映像データにおける各ピクセルのソート順によって組み合わせて検索次元における新規チャンネルデータを生成する。
ステップ604において、リモートセンシング映像データ及びチャンネルデータに基づいて、ターゲットエリア内の建物を抽出する。
本出願の実施例は、新規チャンネルデータを生成する操作を、検索データの測位情報に基づいてリモートセンシング映像データの各ピクセルに関連付けられたキーワードの組み合わせの検索回数を決定し、各ピクセルに関連付けられた検索回数に応じて、新規チャンネルデータを生成することに細分化する。以上により、上記技術案は、ピクセルに関連付けられた検索データにおけるキーワードの組み合わせの検索回数を導入することにより、当該ピクセルにおけるユーザの検索行為を特徴づけ、生成された新規チャンネルデータにユーザの検索行為に関連する隠れた特徴が含まれるようにして、建物の抽出過程においてリモートセンシング映像データを補足し、建物抽出の参照根拠を充実させた、建物の抽出結果の精度を向上させるために基礎を築き上げた。
図7は、本出願の実施形態によって提供される建物抽出装置の構造図であり、当該建物装置700はデータ取得モジュール701と、新規チャンネルデータ生成モジュール702と、建物抽出モジュール703とを備える。
データ取得モジュール701は、ターゲットエリアのリモートセンシング映像データ及びユーザ行動関連データを取得することに用いられ、ここで、前記ユーザ行動関連データと前記リモートセンシング映像データには時空相関がある。
新規チャンネルデータ生成モジュール702は、ユーザ行動関連データ及びリモートセンシング映像データに基づいて、新規チャンネルデータを生成することに用いられる。
建物抽出モジュール703は、リモートセンシング映像データ及び新規チャンネルデータに基づいて、ターゲットエリア内の建物を抽出することに用いられる。
本出願の実施例は、データ取得モジュールにより、ターゲットエリアのリモートセンシング映像データ及びユーザ行動関連データを取得し、前記ユーザ関連データとリモートセンシング映像データには時空相関があり、新規チャンネルデータ生成モジュールを介して、ユーザ行動関連データ及びリモートセンシング映像データに基づいて、新規チャンネルデータを生成し、建物抽出モジュールを介して、リモートセンシング映像データ及び新規チャンネルデータに基づいて、ターゲットエリア内の建物を抽出する。本出願の実施例は、ユーザの行動関連データ及びリモートセンシング映像データに基づいて生成された新規チャンネルデータを導入することで、ユーザのターゲットエリアにおける異なる位置の活動状況を特徴づけ、当該新規チャンネルデータをリモートセンシング映像データの補足データとしてターゲットエリア内の建物の抽出を行い、建物抽出過程におけるデータ参照を充実させ、さらに建物抽出結果の精度を向上させた。同時に、新規チャンネルデータにより、収集環境要因などによるリモートセンシング映像データの品質が悪くなり、建物抽出結果に与える影響を補うことができ、建物抽出結果の安定性と建物抽出方式の汎用性を向上させることができる。
さらに、新規チャンネルデータ生成モジュール702は、測位情報に基づいて、ユーザ行動関連データをリモートセンシング映像データのピクセルにマッピングし、各ピクセルに関連付けられたユーザ行動関連データに基づいて、新規チャンネルデータを生成するためのピクセルマッピングユニットを備える。
さらに、ユーザ行動関連データは、関心点(POI)データ、測位データ、及び検索データのうちの少なくとも1つを含む。
さらに、ユーザ行動関連データがPOIデータを含む場合、ピクセルマッピングユニットは、POIデータの各候補POIの測位情報に基づいて、リモートセンシング映像データにおける各ピクセルの隣接POIを決定するための隣接POI決定サブユニットと、隣接POIのPOIデータに基づいて、新規チャンネルデータを生成するための新規チャンネルデータ生成サブユニットと、を備える。
さらに、新規チャンネルデータ生成サブユニットは、各ピクセルに対して、隣接POIのテキストデータに基づいてPOIトピックベクトルを生成し、各ピクセルのPOIトピックベクトルに基づいて、新規チャンネルデータを生成するためのPOIベクトル生成スレーブユニットと、各ピクセルの隣接POIを統計し、統計結果に基づいて、新規チャンネルデータを生成するためのPOI統計スレーブユニットと、を備える。
さらに、ユーザ行動関連データが測位データを含む場合、ピクセルマッピングユニットは、測位データにおける各測位点の分布状況に応じて、各ピクセルに関連付けられた測位点の駐在カテゴリを決定するための駐在カテゴリ決定スレーブユニットであって、ここで、駐在カテゴリは常駐カテゴリ及び非常駐カテゴリを含む駐在カテゴリ決定スレーブユニットと、各ピクセルに関連付けられた駐在カテゴリに応じて、新規チャンネルデータを生成するための新規チャンネルデータ生成スレーブユニットと、を備える。
さらに、新規チャンネルデータ生成スレーブユニットは、駐在カテゴリに基づいて、各ピクセルに関連付けられた測位点を統計し、統計結果に基づいて、新規チャンネルデータを生成するための駐在カテゴリ統計サブスレーブユニットを備える。
さらに、ユーザ行動関連データが測位データを含む場合、ピクセルマッピングユニットは、測位データにおける各測位点の分布状況に応じてリモートセンシング映像データの各ピクセルに関連付けられた測位データを決定するためのピクセル関連測位データ決定スレーブユニットと、各ピクセルに関連付けられた測位データにおける測位点数及び測位ユーザ数のうちの少なくとも1つを統計し、統計結果に基づいて、新規チャンネルデータを生成するための測位データ統計スレーブユニットと、を備える。
さらに、ユーザ行動関連データが検索データを含む場合、ピクセルマッピングユニットは、検索データの測位情報に基づいて、前記リモートセンシング映像データの各ピクセルに関連付けられたキーワードの組み合わせの検索回数を決定するための検索回数決定スレーブユニットと、各ピクセルに関連付けられた検索回数に基づいて、前記新規チャンネルデータを生成するための検索カテゴリ決定スレーブユニットと、を備える。
さらに、建物抽出モジュール703は、リモートセンシング映像データと新規チャンネルデータを、予めトレーニングされた建物抽出モデルに入力して、ターゲットエリア内の建物を抽出するための建物抽出ユニットを備える。
上記建物抽出装置は、本出願の任意の実施例により提供される建物抽出方法を実行でき、建物抽出方法を実行するための対応する機能モジュールと有益な効果を備える。
本出願の実施例によれば、本出願の実施例は、電子機器及び読み取り可能な記憶媒体をさらに提供する。
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本出願によって提供される建物抽出方法を実行させる。
図8に示すように、本出願の実施例の建物抽出方法を実現するための電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、任意の車載デバイスを表すことができ、携帯情報端末、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様のコンピューティングデバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実施例の実現を制限することを意図したものではない。
図8に示すように、当該電子機器は、1つ又は複数のプロセッサ801と、メモリ802と、高速インターフェース及び低速インターフェースを備える、各コンポーネントを接続するためのインターフェースと、を備える。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に応じて他の方式で取り付けることができる。プロセッサは、外部入力/出力装置(インターフェースに結合されたディスプレイデバイスなど)にグラフィカルユーザインターフェース(Graphical User Interface、GUI)の図形情報をディスプレイするためにメモリに記憶されている命令を含む、電子機器内に実行される命令を処理することができる。他の実施形態では、必要であれば、複数のプロセッサ及び/又は複数のバスを、複数のメモリとともに使用することができる。同様に、複数の電子機器を接続することができ、各機器は、例えば、サーバアレイ、ブレードサーバ、又はマルチプロセッサシステムなどの部分的な必要な操作を提供することができる。図8では、1つのプロセッサ801を例とする。
メモリ802は、本出願の実施例により提供される非一時的なコンピュータ読み取り可能な記憶媒体である。ここで、前記メモリには、少なくとも1つのプロセッサによって実行される命令を記憶して、前記少なくとも1つのプロセッサが本出願の実施例により提供される建物抽出方法を実行することができるようにする。本出願の実施例の非一時的なコンピュータ読み取り可能な記憶媒体は、コンピュータが本出願の実施例により提供される建物抽出方法を実行するためのコンピュータ命令を記憶する。
メモリ802は、非一時的なコンピュータ読み取り可能な記憶媒体として、本出願の実施例における建物抽出方法に対応するプログラム命令/モジュール、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶するために用いられ、例えば、図7に示すデータ取得モジュール701、新規チャンネルデータ生成モジュール702及び建物抽出モジュール703である。プロセッサ801は、メモリ802に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち上記の方法の実施例における建物抽出方法を実現する。
メモリ802は、プログラムストレージ領域とデータストレージ領域とを含むことができ、ここで、プログラムストレージ領域は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データストレージ領域は、電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ802は、高速ランダムアクセスメモリを備えることができ、非一時的なメモリをさらに備えることができ、例えば、少なくとも1つのディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスである。いくつかの実施例では、メモリ802は、プロセッサ801に対して遠隔に設置されたメモリを備えることができ、これらの遠隔メモリは、ネットワークを介して本出願の実施例の建物抽出方法を実現するための電子機器に接続されることができる。上記のネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びその組み合わせを含むが、これらに限定されない。
本出願の実施例の建物抽出方法を実現するための電子機器は、入力装置803と出力装置804とをさらに備えることができる。プロセッサ801、メモリ802、入力装置803、及び出力装置804は、バス又は他の方式を介して接続することができ、図8では、バスを介して接続することを例とする。
入力装置803は、入力された数字又は文字情報を受信することができ、及び本出願の実施例の建物抽出方法を実現するための電子機器のユーザ設置及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングデバイス、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置804は、ディスプレイデバイス、補助照明デバイス、及び触覚フィードバックデバイスなどを備えることができ、補助照明デバイスは、発光ダイオード(Liquid Emitting Display、LED)などであり、触覚フィードバックデバイスは、振動モータなどである。当該ディスプレイデバイスは、液晶ディスプレイ(Liquid Crystal Display、LCD)、LEDディスプレイ、及びプラズマディスプレイを備えることができるが、これらに限定されない。いくつかの実施形態では、ディスプレイデバイスは、タッチスクリーンであってもよい。
本明細書で説明されるシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを備えるプログラム可能なシステムで実行及び/又は解釈することができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれるこれらのコンピューティングプログラムは、プログラマブルプロセッサの機械命令、高レベルのプロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施することを含む。本明細書に使用されるように、「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、機器、及び/又は装置、例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(Programmable Logic Device、PLD)を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、ここで説明されているシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、陰極線管(Cathode Ray Tube、CRT)又はLCDモニタなどのユーザに情報を表示するためのディスプレイ装置と、マウス又はトラックボールなどのキーボード及びポインティングデバイスとを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するために用いられることもでき、例えば、ユーザに提供されるフィードバックは、視覚フィードバック、聴覚フィードバック、又は触覚フィードバックなどの任意の形式のセンシングフィードバックであってもよく、音響入力と、音声入力と、触覚入力とを含む任意の形式でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、データサーバとするなどのバックエンドコンポーネントを備えるコンピューティングシステムで実施することができ、又はアプリケーションサーバーなどのミドルウェアコンポーネントを備えるコンピューティングシステムで実施することができ、又はフロントエンドコンポーネントを備えるコンピューティングシステムで実施することができ、例えば、グラフィカルユーザインターフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインターフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションし、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを備えるコンピューティングシステムで実施することができる。通信ネットワークなどの任意の形式又は媒体のデジタルデータ通信によってシステムのコンポーネントを相互に接続されることができる。通信ネットワークの例は、ローカルエリアネットワーク(Local Area Network、LAN)と、ワイドエリアネットワーク(Wide Area Network、WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを備えることができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント−サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバはクラウドサーバであってもよい、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおける1つのホスト製品であり、従来の物理ホストとVPSサービスに存在する管理の難しさが高く、業務拡張性が弱いという欠陥を解決した。
本出願の実施例は、ユーザの行動関連データ及びリモートセンシング映像データに基づいて生成された新規チャンネルデータを導入することで、ユーザのターゲットエリアにおける異なる位置の活動状況を特徴づけ、当該新規チャンネルデータをリモートセンシング映像データの補足データとしてターゲットエリア内の建物の抽出を行い、建物抽出過程におけるデータ参照を充実させ、さらに建物抽出結果の精度を向上させた。同時に、新規チャンネルデータを追加することにより、収集環境要因などによるリモートセンシング映像データの品質が悪くなり、建物抽出結果に与える影響を補うことができ、建物抽出結果の安定性と建物抽出方式の汎用性を向上させることができる。
なお、上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本出願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案の所望の結果を実現することができれば、本明細書では限定されない。
上記具体的な実施形態は、本出願に対する保護範囲の制限を構成するものではない。当業者は、設計要求と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。任意の本出願の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれなければならない。

Claims (23)

  1. ターゲットエリアのリモートセンシング映像データ及びユーザ行動関連データを取得するステップであって、前記ユーザ行動関連データと前記リモートセンシング映像データには時空相関があるステップと、
    前記ユーザ行動関連データ及び前記リモートセンシング映像データに基づいて、新規チャンネルデータを生成するステップと、
    前記リモートセンシング映像データ及び前記新規チャンネルデータに基づいて、前記ターゲットエリア内の建物を抽出するステップと、
    を含む建物抽出方法。
  2. 前記ユーザ行動関連データ及び前記リモートセンシング映像データに基づいて、新規チャンネルデータを生成するステップが、
    測位情報に基づいて、前記ユーザ行動関連データを前記リモートセンシング映像データのピクセルにマッピングし、各ピクセルに関連付けられた前記ユーザ行動関連データに基づいて、前記新規チャンネルデータを生成するステップを含む請求項1に記載の方法。
  3. 前記ユーザ行動関連データは、関心点(POI)データ、測位データ及び検索データのうちの少なくとも1つを含む請求項2に記載の方法。
  4. 前記ユーザ行動関連データが前記POIデータを含む場合、
    前記測位情報に基づいて、前記ユーザ行動関連データを前記リモートセンシング映像データのピクセルにマッピングし、各ピクセルに関連付けられた前記ユーザ行動関連データに基づいて、前記新規チャンネルデータを生成するステップが、
    前記POIデータの各候補POIの測位情報に基づいて、前記リモートセンシング映像データの各ピクセルの隣接POIを決定するステップと、
    前記隣接POIのPOIデータに基づいて、前記新規チャンネルデータを生成するステップと、
    を含む請求項3に記載の方法。
  5. 前記隣接POIのPOIデータに基づいて、前記新規チャンネルデータを生成するステップが、
    各ピクセルに対して、前記隣接POIのテキストデータに基づいて、POIトピックベクトルを生成し、各ピクセルのPOIトピックベクトルに基づいて、前記新規チャンネルデータを生成するステップ、または、
    各ピクセルの隣接POIを統計し、統計結果に基づいて、前記新規チャンネルデータを生成するステップ、
    を含む請求項4に記載の方法。
  6. 前記ユーザ行動関連データが前記測位データを含む場合、
    前記測位情報に基づいて、前記ユーザ行動関連データを前記リモートセンシング映像データのピクセルにマッピングし、各ピクセルに関連付けられた前記ユーザ行動関連データに基づいて、前記新規チャンネルデータを生成するステップが、
    前記測位データの各測位点の分布状況に基づいて、各ピクセルに関連付けられた測位点の駐在カテゴリを決定するステップであって、前記駐在カテゴリは、常駐カテゴリと非常駐カテゴリとを含むステップと、
    各ピクセルに関連付けられた駐在カテゴリに基づいて、前記新規チャンネルデータを生成するステップと、
    を含む請求項3に記載の方法。
  7. 前記各ピクセルに関連付けられた駐在カテゴリに基づいて、前記新規チャンネルデータを生成するステップが、
    駐在カテゴリに基づいて、各ピクセルに関連付けられた測位点を統計し、統計結果に基づいて、前記新規チャンネルデータを生成するステップを含む請求項6に記載の方法。
  8. 前記ユーザ行動関連データが前記測位データを含む場合、
    前記測位情報に基づいて、前記ユーザ行動関連データを前記リモートセンシング映像データのピクセルにマッピングし、各ピクセルに関連付けられた前記ユーザ行動関連データに基づいて、前記新規チャンネルデータを生成するステップが、
    前記測位データの各測位点の分布状況に基づいて、前記リモートセンシング映像データの各ピクセルに関連付けられた測位データを決定するステップと、
    各ピクセルに関連付けられた測位データの測位点数及び測位ユーザ数のうちの少なくとも1つを統計し、統計結果に基づいて、前記新規チャンネルデータを生成するステップと、
    を含む請求項3に記載の方法。
  9. 前記ユーザ行動関連データが検索データを含む場合、
    前記測位情報に基づいて、前記ユーザ行動関連データを前記リモートセンシング映像データのピクセルにマッピングし、各ピクセルに関連付けられた前記ユーザ行動関連データに基づいて、前記新規チャンネルデータを生成するステップが、
    検索データの測位情報に基づいて、前記リモートセンシング映像データの各ピクセルに関連付けられたキーワードの組み合わせの検索回数を決定するステップと、
    各ピクセルに関連付けられた検索回数に基づいて、前記新規チャンネルデータを生成ステップと、
    を含む請求項3に記載の方法。
  10. 前記リモートセンシング映像データ及び前記新規チャンネルデータに基づいて、前記ターゲットエリア内の建物を抽出するステップが、
    前記リモートセンシング映像データ及び前記新規チャンネルデータを、予めトレーニングされた建物抽出モデルに入力して、前記ターゲットエリア内の建物を抽出するステップを含む請求項1から9のいずれか一項に記載の方法。
  11. ターゲットエリアのリモートセンシング映像データ及びユーザ行動関連データを取得するためのデータ取得モジュールであって、前記ユーザ行動関連データと前記リモートセンシング映像データには時空相関があるデータ取得モジュールと、
    前記ユーザ行動関連データ及び前記リモートセンシング映像データに基づいて、新規チャンネルデータを生成するための新規チャンネルデータ生成モジュールと、
    前記リモートセンシング映像データ及び前記新規チャンネルデータに基づいて、前記ターゲットエリア内の建物を抽出するための建物抽出モジュールと、
    を備える建物抽出装置。
  12. 前記新規チャンネルデータ生成モジュールが、
    測位情報に基づいて、前記ユーザ行動関連データを前記リモートセンシング映像データのピクセルにマッピングし、各ピクセルに関連付けられた前記ユーザ行動関連データに基づいて、前記新規チャンネルデータを生成するためのピクセルマッピングユニットを備える請求項11に記載の装置。
  13. 前記ユーザ行動関連データが、関心点(POI)データ、測位データ及び検索データのうちの少なくとも1つを含む請求項12に記載の装置。
  14. 前記ユーザ行動関連データが前記POIデータを含む場合、
    前記ピクセルマッピングユニットが、
    前記POIデータの各候補POIの測位情報に基づいて、前記リモートセンシング映像データの各ピクセルの隣接POIを決定するための隣接POI決定サブユニットと、
    前記隣接POIのPOIデータに基づいて、前記新規チャンネルデータを生成するための新規チャンネルデータ生成サブユニットと、
    を備える請求項13に記載の装置。
  15. 前記新規チャンネルデータ生成サブユニットが、
    各ピクセルに対して、前記隣接POIのテキストデータに基づいて、POIトピックベクトルを生成し、各ピクセルのPOIトピックベクトルに基づいて、前記新規チャンネルデータを生成するためのPOIベクトル生成スレーブユニットと、
    各ピクセルの隣接POIを統計し、統計結果に基づいて、前記新規チャンネルデータを生成するためのPOI統計スレーブユニットと、
    を備える請求項14に記載の装置。
  16. 前記ユーザ行動関連データが前記測位データを含む場合、
    前記ピクセルマッピングユニットが、
    前記測位データの各測位点の分布状況に基づいて、各ピクセルに関連付けられた測位点の駐在カテゴリを決定するための駐在カテゴリ決定スレーブユニットであって、前記駐在カテゴリは、常駐カテゴリと非常駐カテゴリとを含む駐在カテゴリ決定スレーブユニットと、
    各ピクセルに関連付けられた駐在カテゴリに基づいて、前記新規チャンネルデータを生成するための新規チャンネルデータ生成スレーブユニットと、
    を備える請求項13に記載の装置。
  17. 前記新規チャンネルデータ生成スレーブユニットが、
    駐在カテゴリに基づいて、各ピクセルに関連付けられた測位点を統計し、統計結果に基づいて、前記新規チャンネルデータを生成するための駐在カテゴリ統計サブスレーブユニットを備える請求項16に記載の装置。
  18. 前記ユーザ行動関連データが前記測位データを含む場合、
    前記ピクセルマッピングユニットが、
    前記測位データの各測位点の分布状況に基づいて、前記リモートセンシング映像データの各ピクセルに関連付けられた測位データを決定するためのピクセル関連測位データ決定スレーブユニットと、
    各ピクセルに関連付けられた測位データの測位点数及び測位ユーザ数のうちの少なくとも1つを統計し、統計結果に基づいて、前記新規チャンネルデータを生成するための測位データ統計スレーブユニットと、
    を備える請求項13に記載の装置。
  19. 前記ユーザ行動関連データが検索データを含む場合、
    前記ピクセルマッピングユニットが、
    検索データの測位情報に基づいて、前記リモートセンシング映像データの各ピクセルに関連付けられたキーワードの組み合わせの検索回数を決定するための検索回数決定スレーブユニットと、
    各ピクセルに関連付けられた検索回数に基づいて、前記新規チャンネルデータを生成するための検索カテゴリ決定スレーブユニットと、
    を備える請求項13に記載の装置。
  20. 前記建物抽出モジュールが、
    前記リモートセンシング映像データ及び前記新規チャンネルデータを、予めトレーニングされた建物抽出モデルに入力して、前記ターゲットエリア内の建物を抽出するための建物抽出ユニットを備える請求項11から19のいずれか一項に記載の装置。
  21. 少なくとも1つのプロセッサと、
    該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
    を備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から10のいずれか一項に記載の建物抽出方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。
  22. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が、コンピュータに請求項1から10のいずれか一項に記載の建物抽出方法を実行させる非一時的なコンピュータ読み取り可能な記憶媒体。
  23. コンピュータに請求項1から10のいずれか一項に記載の建物抽出方法を実行させるコンピュータプログラム。
JP2021142053A 2020-09-11 2021-09-01 建物の抽出方法、装置、機器及び記憶媒体 Active JP7289337B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010952905.4A CN111915608B (zh) 2020-09-11 2020-09-11 建筑物提取方法、装置、设备和存储介质
CN202010952905.4 2020-09-11

Publications (2)

Publication Number Publication Date
JP2021192261A true JP2021192261A (ja) 2021-12-16
JP7289337B2 JP7289337B2 (ja) 2023-06-09

Family

ID=73267076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021142053A Active JP7289337B2 (ja) 2020-09-11 2021-09-01 建物の抽出方法、装置、機器及び記憶媒体

Country Status (5)

Country Link
US (1) US20210240983A1 (ja)
EP (1) EP3968224A1 (ja)
JP (1) JP7289337B2 (ja)
KR (1) KR20210106395A (ja)
CN (1) CN111915608B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117115641A (zh) * 2023-07-20 2023-11-24 中国科学院空天信息创新研究院 建筑物信息提取方法、装置、电子设备及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113076803B (zh) * 2021-03-03 2022-09-30 中山大学 一种基于高分辨率遥感影像的建筑物矢量提取方法及系统
CN116069436B (zh) * 2023-03-17 2023-07-21 阿里巴巴达摩院(杭州)科技有限公司 遥感图像的处理方法、电子设备以及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006313511A (ja) * 2005-04-07 2006-11-16 Sony Corp 画像処理装置,画像処理方法,およびコンピュータプログラム。
JP2008506167A (ja) * 2004-06-25 2008-02-28 デジタルグローブ インコーポレイテッド 画像に関連するロケーションを確定する方法および装置
US20130300740A1 (en) * 2010-09-13 2013-11-14 Alt Software (Us) Llc System and Method for Displaying Data Having Spatial Coordinates
US20160381291A1 (en) * 2015-06-24 2016-12-29 Samsung Electronics Co., Ltd. Electronic device and method for controlling display of panorama image
WO2017054314A1 (zh) * 2015-09-29 2017-04-06 百度在线网络技术(北京)有限公司 一种建筑物高度计算方法、装置和存储介质
JP2017520063A (ja) * 2014-07-10 2017-07-20 クアルコム,インコーポレイテッド 周辺情報を使用した高速テンプレートマッチング
WO2018197585A1 (en) * 2017-04-26 2018-11-01 Skansense S.L.U. Identifying targets within images
JP2019056956A (ja) * 2017-09-19 2019-04-11 株式会社ナビタイムジャパン 情報処理システム、情報処理プログラム、情報処理装置及び情報処理方法
JP2019101783A (ja) * 2017-12-04 2019-06-24 キヤノン株式会社 情報処理装置及び方法
JP2020507855A (ja) * 2017-02-16 2020-03-12 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 画像分類出力分布のフィルタリングを伴う画像認識
JP2020523699A (ja) * 2017-09-21 2020-08-06 北京三快在線科技有限公司Beijing Sankuai Online Technology Co.,Ltd. 関心点コピーの生成

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3568621B2 (ja) * 1995-04-20 2004-09-22 株式会社日立製作所 地図表示装置
US6553308B1 (en) * 1999-04-29 2003-04-22 Donnelly Corporation Vehicle-based navigation system with smart map filtering, portable unit home-base registration and multiple navigation system preferential use
US10872322B2 (en) * 2008-03-21 2020-12-22 Dressbot, Inc. System and method for collaborative shopping, business and entertainment
US8825387B2 (en) * 2008-07-25 2014-09-02 Navteq B.V. Positioning open area maps
US9836881B2 (en) * 2008-11-05 2017-12-05 Hover Inc. Heat maps for 3D maps
US9031971B2 (en) * 2010-07-23 2015-05-12 Qualcomm Incorporated Flexible data download models for augmented reality
US20150117796A1 (en) * 2011-03-28 2015-04-30 Google Inc. Method and system for prioritizing points of interest for display in a map
EP3275204B1 (en) * 2015-03-24 2020-07-22 Carrier Corporation System and method for capturing and analyzing multidimensional building information
KR101641672B1 (ko) * 2015-07-21 2016-07-21 (주)디자인비아트 휴대단말기를 이용한 건축 모형 실행의 증강 현실 시스템
EP3475933A1 (en) * 2016-06-24 2019-05-01 Swiss Reinsurance Company Ltd. Autonomous or partially autonomous motor vehicles with automated risk-controlled systems and corresponding method thereof
JP6725718B2 (ja) * 2018-03-12 2020-07-22 ネイバー コーポレーションNAVER Corporation 位置基盤情報探索方法およびコンピュータ装置
US10462359B1 (en) * 2018-04-13 2019-10-29 Adobe Inc. Image composition instruction based on reference image perspective
US11280621B2 (en) * 2019-01-04 2022-03-22 International Business Machines Corporation Navigation using a device without global positioning system assistance
US11676344B2 (en) * 2019-11-12 2023-06-13 MFTB Holdco, Inc. Presenting building information using building models
CN111126482B (zh) * 2019-12-23 2020-11-13 自然资源部国土卫星遥感应用中心 一种基于多分类器级联模型的遥感影像自动分类方法
CN111563448B (zh) * 2020-04-30 2023-10-31 北京百度网讯科技有限公司 一种违章建筑物检测方法、装置、电子设备和存储介质
US11343636B2 (en) * 2020-06-24 2022-05-24 Here Global B.V. Automatic building detection and classification using elevator/escalator stairs modeling—smart cities

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008506167A (ja) * 2004-06-25 2008-02-28 デジタルグローブ インコーポレイテッド 画像に関連するロケーションを確定する方法および装置
JP2006313511A (ja) * 2005-04-07 2006-11-16 Sony Corp 画像処理装置,画像処理方法,およびコンピュータプログラム。
US20130300740A1 (en) * 2010-09-13 2013-11-14 Alt Software (Us) Llc System and Method for Displaying Data Having Spatial Coordinates
JP2017520063A (ja) * 2014-07-10 2017-07-20 クアルコム,インコーポレイテッド 周辺情報を使用した高速テンプレートマッチング
US20160381291A1 (en) * 2015-06-24 2016-12-29 Samsung Electronics Co., Ltd. Electronic device and method for controlling display of panorama image
WO2017054314A1 (zh) * 2015-09-29 2017-04-06 百度在线网络技术(北京)有限公司 一种建筑物高度计算方法、装置和存储介质
JP2020507855A (ja) * 2017-02-16 2020-03-12 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 画像分類出力分布のフィルタリングを伴う画像認識
WO2018197585A1 (en) * 2017-04-26 2018-11-01 Skansense S.L.U. Identifying targets within images
JP2019056956A (ja) * 2017-09-19 2019-04-11 株式会社ナビタイムジャパン 情報処理システム、情報処理プログラム、情報処理装置及び情報処理方法
JP2020523699A (ja) * 2017-09-21 2020-08-06 北京三快在線科技有限公司Beijing Sankuai Online Technology Co.,Ltd. 関心点コピーの生成
JP2019101783A (ja) * 2017-12-04 2019-06-24 キヤノン株式会社 情報処理装置及び方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117115641A (zh) * 2023-07-20 2023-11-24 中国科学院空天信息创新研究院 建筑物信息提取方法、装置、电子设备及存储介质
CN117115641B (zh) * 2023-07-20 2024-03-22 中国科学院空天信息创新研究院 建筑物信息提取方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP7289337B2 (ja) 2023-06-09
KR20210106395A (ko) 2021-08-30
CN111915608A (zh) 2020-11-10
EP3968224A1 (en) 2022-03-16
US20210240983A1 (en) 2021-08-05
CN111915608B (zh) 2023-08-15

Similar Documents

Publication Publication Date Title
JP2021192261A (ja) 建物の抽出方法、装置、機器及び記憶媒体
JP7214949B2 (ja) Poi状態情報を取得する方法、装置、デバイス、プログラム及びコンピュータ記憶媒体
KR101916798B1 (ko) 검색 컨텍스트를 이용한 질의 추천 방법 및 시스템
US9053194B2 (en) Method and apparatus for correlating and viewing disparate data
US11630560B2 (en) Map information display method and apparatus, electronic device, and computer storage medium
JP2022097396A (ja) 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体
KR20210089597A (ko) 비디오 검색 방법, 장치, 기기 및 매체
KR20210038467A (ko) 이벤트 테마 생성 방법, 장치, 기기 및 저장 매체
CN112131449A (zh) 一种基于ElasticSearch的文化资源级联查询接口的实现方法
US20210390254A1 (en) Method, Apparatus and Device for Recognizing Word Slot, and Storage Medium
KR102490712B1 (ko) 질문 응답 로봇 생성 방법 및 장치
CN111737430B (zh) 实体链接方法、装置、设备以及存储介质
CN103744575A (zh) 一种用于提供输入应用的输入辅助区域的方法与设备
JP7206514B2 (ja) 地理位置点のソート方法、ソートモデルの訓練方法及び対応装置
JP2022532967A (ja) 地理位置を検索するための類似性モデル作成方法、装置、電子デバイス、記憶媒体およびプログラム
CN112328890A (zh) 搜索地理位置点的方法、装置、设备及存储介质
JP2021192289A (ja) 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体
JP7298090B2 (ja) 地理位置点の空間関係を抽出する方法及び装置
CN110781657A (zh) 导航播报的管理方法、装置及设备
JP2020021489A (ja) 地域に基づくアイテム推薦装置及び方法
WO2021104274A1 (zh) 图文联合表征的搜索方法、系统、服务器和存储介质
KR20210040310A (ko) 지도 검색 테스트 방법, 장치, 기기, 저장매체 및 프로그램
CN106462629A (zh) 搜索中的直接答案触发
KR20190011176A (ko) 속성 언어를 이용한 검색 방법 및 장치
US11838294B2 (en) Method for identifying user, storage medium, and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230530

R150 Certificate of patent or registration of utility model

Ref document number: 7289337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150