KR20210106395A - 건축물 추출 방법, 장치, 기기 및 저장 매체 - Google Patents

건축물 추출 방법, 장치, 기기 및 저장 매체 Download PDF

Info

Publication number
KR20210106395A
KR20210106395A KR1020210104526A KR20210104526A KR20210106395A KR 20210106395 A KR20210106395 A KR 20210106395A KR 1020210104526 A KR1020210104526 A KR 1020210104526A KR 20210104526 A KR20210104526 A KR 20210104526A KR 20210106395 A KR20210106395 A KR 20210106395A
Authority
KR
South Korea
Prior art keywords
data
pixel
new channel
positioning
poi
Prior art date
Application number
KR1020210104526A
Other languages
English (en)
Inventor
지동 펑
청 완
청 쳔
스레이 원
커 쑨
청량 뤄
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210106395A publication Critical patent/KR20210106395A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 출원은 건축물 추출 방법, 장치, 기기 및 저장 매체를 개시하고, 이미지 처리 기술 분야에 관한 것이며, 구체적인 구현 방식은, 타겟 영역의 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터를 획득하되, 사용자 행위 관련 데이터와 원격 감지 이미지 데이터는 시공간 상관 관계를 갖고, 사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성하며, 원격 감지 이미지 데이터 및 새로운 채널 데이터에 따라, 타겟 영역 중의 건축물을 추출하는 것이다. 본 출원의 실시예는 건축물 추출 정밀도를 제공한다.

Description

건축물 추출 방법, 장치, 기기 및 저장 매체{METHOD, APPARATUS, DEVICE FOR BUILDING EXTRACTION AND STORAGE MEDIUM}
본 출원은 이미지 처리 기술 분야에 관한 것으로, 특히 원격 감지 이미지의 스마트 번역 기술에 관한 것이고, 구체적으로 건축물 추출 방법, 장치, 기기 및 저장 매체에 관한 것이다.
건축물이란 사람들에게 주거, 오락, 작업 또는 수납 등 기능을 제공할 수 있는 주택, 상업체 및 오피스 빌딩 등과 같은 공간 장소를 가리킨다. 건축물은 기초 지리 데이터베이스의 주요 요소 중 하나로, 도시 계획과 건설, 도시화 평가, 인구 밀도 추정, 재해 복구 등 분야에서 중요한 위치를 차지하고 있다.
건축물 변화가 빈번하기 때문에 기초 지리 데이터베이스의 건축물의 상황을 제때에 업데이트해야 한다. 그러나 종래 기술에서는 건축물을 추출할 때, 일반적으로 환경 등 요소의 영향을 받아 건축물 추출 정밀도가 떨어져 사용 수요를 만족하지 못한다.
본 출원은 정밀도가 더 높은 건축물 추출 방법, 장치, 기기 및 저장 매체를 제공한다.
본 출원의 일 측면에 따르면, 건축물 추출 방법을 제공하는바, 이는,
타겟 영역의 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터를 획득하되, 상기 사용자 행위 관련 데이터와 상기 원격 감지 이미지 데이터는 시공간 상관 관계를 갖는 단계;
상기 사용자 행위 관련 데이터 및 상기 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성하는 단계; 및,
상기 원격 감지 이미지 데이터 및 상기 새로운 채널 데이터에 따라, 상기 타겟 영역 중의 건축물을 추출하는 단계;를 포함한다.
본 출원의 다른 측면에 따르면, 건축물 추출 장치를 제공하는바, 이는,
타겟 영역의 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터를 획득하되, 상기 사용자 행위 관련 데이터와 상기 원격 감지 이미지 데이터는 시공간 상관 관계를 갖는 데이터 획득 모듈;
상기 사용자 행위 관련 데이터 및 상기 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성하는 새로운 채널 데이터 생성 모듈; 및,
상기 원격 감지 이미지 데이터 및 상기 새로운 채널 데이터에 따라, 상기 타겟 영역 중의 건축물을 추출하는 건축물 추출 모듈;을 포함한다.
본 출원의 다른 측면에 따르면, 전자 기기를 제공하는바, 이는,
적어도 하나의 프로세서; 및,
상기 적어도 하나의 프로세서와 통신 가능하게 연결되는 메모리;를 포함하고,
상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행됨으로써 상기 적어도 하나의 프로세서에 의해 본 출원의 임의의 실시예에서 제공되는 건축물 추출 방법이 수행될 수 있도록 한다.
본 출원의 다른 측면에 따르면, 상기 컴퓨터가 본 출원의 임의의 실시예에서 제공되는 건축물 추출 방법을 수행하게 하는 컴퓨터 명령이 저장되어 있는 비 일시적 컴퓨터 판독 가능 저장 매체를 제공한다.
본 발명의 또 다른 측면에 따르면, 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램을 더 제공하는바, 상기 컴퓨터 프로그램중의 명령이 실행될 경우, 본 출원의 임의의 실시예에서 제공되는 건축물 추출 방법이 실행된다.
본 출원의 실시예의 기술적 해결책에 따르면, 건축물 추출 정밀도를 향상시킨다.
이 부분에서 설명된 내용은 본 발명의 실시예의 핵심적이거나 중요한 특징을 나타내는 것이 아니고, 본 발명의 범위를 제한하려는 의도도 아님을 이해해야 한다. 본 발명의 다른 특징은 아래의 명세서에 의해 쉽게 이해될 것이다.
첨부 도면은 본 방안을 더 잘 이해하기 위한 것으로, 본 출원을 한정하지 않는다. 여기서,
도 1은 본 출원의 실시예에서 제공되는 건축물 추출 방법의 흐름도이다.
도 2는 본 출원의 실시예에서 제공되는 다른 건축물 추출 방법의 흐름도이다.
도 3은 본 출원의 실시예에서 제공되는 다른 건축물 추출 방법의 흐름도이다.
도 4는 본 출원의 실시예에서 제공되는 다른 건축물 추출 방법의 흐름도이다.;
도 5는 본 출원의 실시예에서 제공되는 다른 건축물 추출 방법의 흐름도이다.;
도 6은 본 출원의 실시예에서 제공되는 다른 건축물 추출 방법의 흐름도이다.;
도 7은 본 출원의 실시예에서 제공되는 건축물 추출 장치의 구조도이다.
도 8은 본 출원의 실시예의 건축물 추출 방법을 구현하는 전자 기기의 블록도이다.
이하, 첨부 도면을 결부하여 본 출원의 예시적인 실시예들을 설명하고자 하며, 이해를 돕기 위해 본 출원의 실시예들의 다양한 세부 사항들이 포함되는데, 이들은 단지 예시적인 것으로 간주되어야 한다. 따라서, 본 출원의 기술 분야의 통상의 지식을 가진 자라면 본 출원의 범위 및 사상을 벗어나지 않으면서 본 명세서에 설명된 실시예들에 대해 다양한 변경 및 수정이 이루어질 수 있음을 알아야 한다. 또한, 명확성 및 간결성을 위해, 공지된 기능 및 구조에 대한 설명은 아래 설명에서 생략된다.
본 출원의 실시예에서 제공되는 각 건축물 추출 방법 및 건축물 추출 장치는 스마트 시티 구축, 도시화 평가, 인구 밀도 추정 및 재해 복구 등 프로젝트 실시 과정에 적용되는바, 이미지 처리 기술을 사용하여 원격 감지 이미지(Remote Sensing Image) 데이터를 통해 스마트 번역을 진행함으로써, 건축물 추출을 구현한다. 본 출원의 실시예에 의해 제공된 각 건축물 추출 방법은 건축물 추출 장치에 의해 수행될 수 있고, 상기 장치는 소프트웨어 및/또는 하드웨어를 사용하여 구현되며, 구체적으로 전자 기기에 구성된다.
도 1은 본 출원의 실시예에서 제공되는 건축물 추출 방법의 흐름도이다. 상기 방법은 하기와 같은 단계를 포함한다.
단계 S101, 타겟 영역의 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터를 획득하되, 사용자 행위 관련 데이터와 원격 감지 이미지 데이터는 시공간 상관 관계를 갖는다.
사용자 행위 관련 데이터와 원격 감지 이미지 데이터는 시공간 상관 관계를 갖는다. 예시적으로, 원격 감지 이미지 데이터는 타겟 영역의 지물 전자파 크기가 기록된 영상 데이터로 이해될 수 있다. 원격 감지 이미지 데이터 중의 각각의 화소는 타겟 영역 중의 서브 영역을 특성화한다.
예시적으로, 사용자 행위 관련 데이터는 원격 감지 이미지 데이터와 시간 관계 및 공간 관계를 갖고, 사용자 행위를 반영할 수 있는 보조 데이터를 특성화한다.
시간 관계는 사용자 행위 관련 데이터와 원격 감지 이미지의 수집 시간을 통해 한정될 수 있다. 예시적으로, 사용자 행위 관련 데이터는 원격 감지 이미지 데이터 수집 이전의 설정된 과거 시간대에서 수집되거나 사용된 보조 데이터일 수 있고, 설정된 과거 시간대는 수요 또는 경험치에 따라 기술자에 의해 결정될 수 있거나, 또는 대량의 시험을 반복하여 결정될 수 있다. 예를 들어, 설정된 과거 시간대는 원격 감지 이미지 데이터 수집 시각 전 60일 이내에 수집되거나 사용된 보조 데이터일 수 있다.
공간 관계는 보조 데이터와 원격 감지 이미지의 수집 지점을 통해 한정될 수 있다. 구체적으로, 사용자 행위 관련 데이터는 타겟 영역 내 각 서브 영역에서 수집되거나 사용된 보조 데이터일 수 있다.
일 실시예에서, 사용자 행위 관련 데이터는 POI(Point of Interest, 관심점) 데이터, 포지셔닝 데이터 및 검색 데이터 등 중 적어도 하나일 수 있는바, 사용자 행위 관련 데이터에 포함된 콘텐츠 카테고리를 풍부하게 하여, 여러 유형의 새로운 채널 데이터의 생성을 위해 가능성을 제공한다.
예시적으로, POI 데이터는 타겟 영역 내 각 후보 POI의 관련 데이터를 특성화하는데, 예를 들어, 각 후보 POI에서의 사용자의 활동 상황을 측면 반영하는 후보 POI의 카테고리 또는 설명 정보 등일 수 있다.
예시적으로, 포지셔닝 데이터는 타겟 영역 내의 사용자가 포지셔닝 기능이 있는 애플리케이션을 사용하는 경우 수집된 좌표 정보 등 일 수 있는바, 사용자가 타겟 영역 중 상이한 서브 영역에서의 포지셔닝 행위를 반영할 수 있다.
예시적으로, 검색 데이터는 타겟 영역 내의 사용자가 검색 기능이 있는 애플리케이션을 사용하는 경우, 수집된 사용자 검색 행위에 의해 생성된 검색 정보 등일 수 있는바, 타겟 영역 중 상이한 서브 영역에서의 사용자의 검색 행위를 반영할 수 있다.
선택적으로, 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터 중 적어도 하나는 전자 기기 로컬, 전자 기기에 관련되는 다른 저장 기기 또는 클라우드에 미리 저장될 수 있고, 상응하게, 건축물 추출을 진행해야 할 경우, 상응한 저장 공간에서 각각 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터의 획득을 진행한다.
단계 S102, 사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성한다.
예시적으로, 원격 감지 이미지 데이터에 따라, 사용자 행위 관련 데이터를 처리하여, 원격 감지 이미지 데이터와 시공간 상관 관계를 갖는 새로운 채널 데이터를 획득한다. 선택적으로, 사용자 행위 관련 데이터에 대한 처리는 분할, 조합, 특징 추출 및 다른 데이터 변환 등 중 적어도 하나일 수 있다.
선택적으로, 원격 감지 이미지 데이터 중 각 화소의 위치 정보에 따라, 사용자 행위 관련 데이터를 분할하고, 원격 감지 이미지 데이터 중 각 화소의 배열 순서에 따라, 분할 후의 사용자 행위 관련 데이터를 재조합함으로써, 각 화소에 관련되는 사용자 행위 관련 데이터에 따라, 새로운 채널 데이터를 생성할 수 있다.
선택적으로, 기계 학습 모델을 통해 사용자 행위 관련 데이터에서 원격 감지 이미지 데이터에 관련되는 협동 특징을 추출하고, 추출된 협동 특징에 따라 새로운 채널 데이터를 생성할 수도 있다. 기계 학습 모델은 종래의 임의의 하나의 모델 또는 적어도 두 가지 모델의 조합을 사용할 수 있으며, 본 출원에서는 모델의 구체적인 구조에 대해 한정하지 않는다.
일 실시예에서, 사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성하는 것은, 포지셔닝 정보에 따라, 사용자 행위 관련 데이터를 원격 감지 이미지 데이터의 화소(picture element)에 매핑하고, 각 화소에 관련되는 사용자 행위 관련 데이터에 따라, 새로운 채널 데이터를 생성하는 것일 수 있다. 데이터 매핑 방식으로 원격 감지 이미지 데이터와 사용자 행위 관련 데이터 사이의 관련 관계를 구축하여, 새로운 채널 데이터의 생성을 위해 토대를 마련하였음을 이해할 수 있다. 아울러, 데이터 매핑 방식을 사용하면 조작이 간편하고 빠르며, 조작 가능성이 강하고 데이터 연산량이 적다.
구체적으로, 원격 감지 이미지 데이터 중 각각의 화소가 타겟 영역 중의 서브 영역에 대응되므로, 화소에 대응되는 타겟 영역 중의 서브 영역의 위치 정보 및 사용자 행위 관련 데이터 중 각 데이터의 포지셔닝 정보에 따라, 사용자 행위 관련 데이터를 상응한 화소에 각각 매핑함으로써, 각 화소와 사용자 행위 관련 데이터 사이의 관련 관계를 구축하고, 나아가 각 화소에 관련되는 사용자 행위 관련 데이터에 따라, 새로운 채널 데이터를 생성하여, 타겟 영역 중의 건축물 추출을 보조할 수 있다.
단계 S103, 원격 감지 이미지 데이터 및 새로운 채널 데이터에 따라, 타겟 영역 중의 건축물을 추출한다.
원격 감지 이미지 데이터는 하나 이상의 채널 유형의 데이터를 포함할 수 있다. 채널 유형은 RGB 유형 또는 적외선 유형 등 중 적어도 하나일 수 있다.
예시적으로, 원격 감지 이미지 데이터에 부가 채널을 설정할 수 있고, 부가 채널의 채널 수량은 새로운 채널 데이터의 채널 수량과 동일하며, 새로운 채널 데이터를 채널별로 원격 감지 이미지 데이터에 추가하여, 원격 감지 이미지 데이터를 업데이트하며, 업데이트 후의 원격 감지 이미지 데이터에 따라 타겟 영역 중의 건축물을 추출한다.
사용자 행위 관련 데이터 및 원격 감지 이미지 데이터를 통해 새로운 채널 데이터를 생성하고, 타겟 영역 중 건축물의 추출을 보조하여, 수집 환경 등 요소로 인해 원격 감지 이미지 데이터 품질이 떨어져 건축물 추출 결과 정확도가 높지 않은 결함을 보완함을 이해할 수 있다. 아울러, 건축물 추출 과정에 새로운 채널 데이터를 인입하여, 건축물 추출 시 참조 데이터를 풍부하게 하여, 건축물 추출 결과의 정확도를 향상시킨다.
본 출원의 실시예는 타겟 영역의 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터를 획득하고, 사용자 행위 관련 데이터와 원격 감지 이미지 데이터는 시공간 상관 관계를 가지며, 사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성하고, 원격 감지 이미지 데이터 및 새로운 채널 데이터에 따라, 타겟 영역 중의 건축물을 추출한다. 본 출원의 실시예는 사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 의해 생성된 새로운 채널 데이터를 인입하여, 타겟 영역 중 상이한 위치에서의 사용자의 활동 상황을 특성화하고, 상기 새로운 채널 데이터를 원격 감지 이미지 데이터의 보충 데이터로 하여, 타겟 영역 중 건축물의 추출을 진행함으로써, 건축물 추출 과정의 데이터 참조를 풍부하게 하여 건축물 추출 결과의 정확도를 향상시킨다. 아울러, 새로운 채널 데이터를 통해 수집 환경 등 요소로 인해 원격 감지 이미지 데이터 품질이 떨어져 건축물 추출 결과에 미치는 영향을 보완할 수도 있어, 건축물 추출 결과의 안정성 및 건축물 추출 방식의 보편성을 향상시킨다.
도 2는 본 출원의 실시예에서 제공되는 다른 건축물 추출 방법의 흐름도이다. 상기 방법은 상기 각 기술적 해결책을 토대로 최적화되고 개선된 것이다.
또한, "상기 원격 감지 이미지 데이터 및 상기 새로운 채널 데이터에 따라, 상기 타겟 영역 중의 건축물을 추출" 하는 동작을 "상기 원격 감지 이미지 데이터 및 상기 새로운 채널 데이터를 미리 트레이닝된 건축물 추출 모델에 입력하여, 상기 타겟 영역 중의 건축물을 추출"하는 것으로 세분화하여, 건축물 추출 방식을 보완한다.
도 2에 도시된 건축물 추출 방법은 하기와 같은 단계를 포함한다.
단계 S201, 타겟 영역의 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터를 획득하되, 상기 사용자 행위 관련 데이터와 상기 원격 감지 이미지 데이터는 시공간 상관 관계를 갖는다.
단계 S202, 상기 사용자 행위 관련 데이터 및 상기 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성한다.
단계 S203, 상기 원격 감지 이미지 데이터 및 상기 새로운 채널 데이터에 따라, 상기 타겟 영역 중의 건축물을 추출한다.
단계 S204, 상기 원격 감지 이미지 데이터 및 상기 새로운 채널 데이터를 미리 트레이닝된 건축물 추출 모델에 입력하여, 상기 타겟 영역 중의 건축물을 추출한다.
선택적으로, 타겟 영역 중의 건축물을 추출하는 것은 타겟 영역 중의 건축물을 검출하는 것일 수 있다. 또는 선택적으로, 타겟 영역 중의 건축물을 추출하는 것은 타겟 영역 중의 건축물에 대해 시맨틱 분할 등을 진행하는 것일 수 있다.
건축물 추출 모델의 모델 트레이닝 단계에서, 건축물 추출 모델에 대한 정밀도 수요를 만족시킬 때까지, 건축물이 미리 라벨링된 원격 감지 이미지 데이터 및 새로운 채널 데이터를 사용하여, 구축된 건축물 추출 모델 중의 네트워크 파라미터를 조절할 수 있다.
예시적으로, 건축물 추출 모델은 타겟 검출 모델 및 시맨틱 분할 모델 중 적어도 하나를 포함할 수 있다. 타겟 검출 모델은 타겟 영역 중의 건축물을 검출하고, 상기 타겟 검출 모델은 PP-YOLO(PaddlePaddle You only look once, 패들-욜로) 및 Mask R-CNN(Mask Region Convolutional Neural Networks, 영역 표기 콘볼루션 신경망) 등 네트워크 구조 중 적어도 하나에 기반하여 구현될 수 있다. 시맨틱 분할 모델은 타겟 영역 중의 건축물에 대해 시맨틱 분할을 진행하고, 상기 시맨틱 분할 모델은 U-net, DeepLab 등 네트워크 구조 중 적어도 하나에 기반하여 구현될 수 있다.
본 출원의 실시예는 타겟 영역 중의 건축물 추출을 진행하는 과정에 건축물 추출 모델을 인입하여, 건축물 추출의 보편성 및 편의성을 향상시키는 동시에 건축물 추출 효율을 향상시키며, 원격 감지 이미지 데이터 및 새로운 채널 데이터에 따라, 타겟 영역 중의 건축물을 추출한다.
도 3은 본 출원의 실시예에서 제공되는 다른 건축물 추출 방법의 흐름도이다. 상기 방법은 상기 각 기술적 해결책을 토대로 최적화되고 개선된 것이다.
또한, 사용자 행위 관련 데이터를 POI 데이터를 포함하는 것으로 세분화하고, 상응하게, "사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성"하는 동작을 "POI 데이터 중 각 후보 POI의 포지셔닝 정보에 따라, 원격 감지 이미지 데이터 중 각 화소의 주변 POI를 결정하고, 주변 POI의 POI 데이터에 따라, 새로운 채널 데이터를 생성"하는 것으로 세분화하여, 새로운 채널 데이터의 결정 매커니즘을 보완한다.
도 3에 도시된 건축물 추출 방법은 하기와 같은 단계를 포함한다.
단계 S301, 타겟 영역의 원격 감지 이미지 데이터 및 POI 데이터를 획득하되, POI 데이터와 원격 감지 이미지 데이터는 시공간 상관 관계를 갖는다.
POI 데이터는 사용자가 네비게이션 기능 또는 맵 조회 기능이 있는 애플리케이션을 사용하는 경우, 사용된 맵 데이터의 타겟 영역에 대응되는 각 후보 POI의 관련 데이터일 수 있는데, 예를 들어, 후보 POI의 카테고리 또는 설명 정보 등을 포함할 수 있다.
설명해야 할 것은, 후보 POI에 대응되는 POI 데이터가 상이하므로, 상응하게, 사용자가 각 후보 POI에서 수행할 수 있는 동작도 상이하며, 다시 말해서, 상이한 후보 POI에서의 사용자의 활동 상황이 상이하다. 따라서, POI 데이터를 인입하여, 각 후보 POI에서의 사용자의 활동 상황을 측면 반영할 수 있다.
POI 데이터에는 포지셔닝 정보, 텍스트 정보 등 데이터 중 적어도 하나가 포함될 수 있다. 포지셔닝 정보는 현재 POI에 대응되는 위치 좌표를 특성화하고, 텍스트 정보는 현재 POI의 개요 설명 및 POI 카테고리 등 기본 속성을 특성화한다.
POI 데이터는 후보 POI의 추가 또는 삭제에 따라 대응되게 조절될 수 있으므로, POI 데이터의 실시간성 및 유효성을 보장하기 위해, 일반적으로 획득된 POI 데이터는 원격 감지 이미지 데이터 수집 전 설정된 시간대 이내의 POI 데이터이다. 설정된 과거 시간대는 수요 또는 경험치에 따라 기술자에 의해 결정될 수 있거나, 또는 대량의 시험을 통해 결정될 수 있다.
단계 S302, POI 데이터 중 각 후보 POI의 포지셔닝 정보에 따라, 원격 감지 이미지 데이터 중 각 화소의 주변 POI를 결정한다.
예시적으로, POI 데이터 중 각 후보 POI의 포지셔닝 정보에 따라, POI 데이터를 원격 감지 이미지 데이터의 각 화소에 각각 매핑시킴으로써, 화소와 POI 데이터 사이의 관련 관계를 구축하고, 각 화소에 관련되는 후보 POI를 주변 POI로 한다.
단계 S303, 주변 POI의 POI 데이터에 따라, 새로운 채널 데이터를 생성한다.
일 선택 가능한 실시형태에서, 주변 POI의 POI 데이터에 따라, 새로운 채널 데이터를 생성하는 것은, 각각의 화소에 대해, 주변 POI의 텍스트 데이터에 따라 POI 토픽 벡터를 생성하고, 각 화소의 POI 토픽 벡터에 따라 새로운 채널 데이터를 생성하는 것일 수 있다.
POI의 텍스트 데이터는 POI 명칭 및 POI 설명 및 지리 위치 등 정보 중 적어도 하나를 포함한다.
POI 토픽 벡터는 POI의 기능 토픽 또는 위치 토픽의 특징 벡터를 특성화하고, POI의 텍스트 데이터에서 추출하여 획득할 수 있다.
예시적으로, POI의 텍스트 데이터에 대해 단어 분리(Word Segmentation) 처리를 진행하여 단어 분리 결과를 획득하고, 단어 분리 결과를 미리 트레이닝된 토픽 생성 모델에 입력시켜 POI 토픽 벡터를 획득할 수 있다. 문서 토픽 생성 모델은 LDA(Latent Dirichlet Allocation, 잠재 디리클레 분포) 모델 등일 수 있는바, POI 단어를 다수의 토픽으로 나눌 수 있다.
POI 토픽 벡터 결정 과정에 데이터 연산량을 감소시켜 POI 토픽 벡터 결정 효율을 향상시키기 위해, POI 토픽 벡터 집합을 미리 구축할 수도 있고, POI 토픽 벡터 집합에는 각 후보 POI의 텍스트 데이터에 대응되는 POI 토픽 벡터가 저장된다. 상응하게, 주변 POI의 텍스트 데이터와 각 후보 POI의 텍스트 데이터를 매칭하여, 매칭 정도가 비교적 높은 후보 POI의 POI 토픽 벡터를 상기 주변 POI의 POI 토픽 벡터로 결정한다.
POI 토픽 집합은 하기의 방식을 사용하여 구축될 수 있다. 기설정된 POI 데이터베이스에서 각 후보 POI의 POI 명칭을 추출하여 단어 분리를 진행하여, POI 명칭의 단어 분리 결과를 획득하고, 예를 들어 중국어 어휘 데이터베이스 및 외국어 어휘 데이터베이스 중 적어도 하나에 기반하여 POI 명칭에 대해 단어 분리를 진행할 수 있으며, 다음, 관심점 명칭의 단어 분리 결과를 문서 토픽 생성 모델에 입력시켜 POI 토픽 집합을 획득하고, POI 토픽 집합 중 각 후보 POI와 POI 토픽 벡터 사이의 대응 관계를 구축한다. 문서 토픽 생성 모델은 LDA(Latent Dirichlet Allocation, 잠재 디리클레 분포) 모델 등일 수 있는바, POI 단어를 다수의 토픽으로 나눌 수 있다.
다른 선택 가능한 실시형태에서, 주변 POI의 POI 데이터에 따라, 새로운 채널 데이터를 생성하는 것은 각 화소의 주변 POI를 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성하는 것일 수 있다.
선택적으로, 각 화소의 주변 POI를 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성하는 것은, 각각의 화소에 대해, 상기 화소의 주변 POI의 POI 수량을 통계하고, 원격 감지 이미지 데이터 중 각 화소의 배열 순서에 따라, 각 화소의 주변 POI의 POI 수량을 조합하여 새로운 채널 데이터를 생성하는 것일 수 있다.
또는 선택적으로, 각 화소의 주변 POI를 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성하는 것은, 각각의 화소에 대해, 상기 화소의 주변 POI의 POI 카테고리를 각각 통계하고, 원격 감지 이미지 데이터 중 각 화소의 배열 순서에 따라, 각 화소의 주변 POI의 POI 카테고리 수량을 조합하여 새로운 채널 데이터를 생성하는 것일 수 있다. POI의 카테고리는 수요 또는 경험에 따라 기술자에 의해 나뉠 수 있다. 예시적으로, POI의 카테고리는 산업 분류 표준을 사용하여, POI를 음식, 호텔, 쇼핑, 생활 서비스, 관광 명소 및 여가 오락 등 중 적어도 하나의 일급 산업 분류로 나눌 수 있다. 새로운 채널 데이터 중의 콘텐츠 풍부성 더 향상시키기 위해, 각 일급 산업 분류 결과를 적어도 하나의 이급 산업 분류로 더 나눌 수도 있다. 예를 들어, 호텔을 성(star)급 호텔, 익스프레스 호텔, 아파트형 호텔 및 민숙 등으로 나눈다.
또는 선택적으로, 각 화소의 주변 POI를 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성하는 것은, 각각의 화소에 대해, 각 POI 카테고리 하에서의 상기 화소의 주변 POI의 POI 수량을 각각 통계하고, 각 POI 카테고리에 대해, 원격 감지 이미지 데이터 중 각 화소의 배열 순서에 따라, 각 화소의 POI 수량을 조합하여 상기 POI 카테고리에 대응되는 새로운 채널 데이터를 생성하는 것일 수 있다.
설명해야 할 것은, 통계 결과에 따라 새로운 채널 데이터를 생성할 경우, 상이한 채널 데이터의 차원(dimension)의 영향을 제거하기 위해, 통계 결과에 대해 정규화(Normalization) 처리를 진행하고, 정규화 후의 통계 결과에 따라 새로운 채널 데이터를 생성할 수도 있다. 정규화 처리는 선형 함수 정규화, 제로 평균(zero mean) 표준화 및 다른 종래의 정규화 방법 중 하나 또는 적어도 두 가지 방법의 조합을 사용할 수 있다.
설명해야 할 것은, 새로운 채널 데이터와 원격 감지 이미지 데이터 중 각 채널 데이터의 차원이 상이함으로 인한 이미지를 제거하기 위해, 정규화 처리를 진행 시 새로운 채널 데이터를 [0, 255] 데이터 구간으로 정규화시킬 수 있다.
단계 S304, 원격 감지 이미지 데이터 및 새로운 채널 데이터에 따라, 타겟 영역 중의 건축물을 추출한다.
본 출원의 실시예는 새로운 채널 데이터의 생성 동작을 POI 데이터 중 각 후보 POI의 포지셔닝 정보에 따라, 원격 감지 이미지 데이터 중 각 화소의 주변 POI를 결정하고, 주변 POI의 POI 데이터에 따라, 새로운 채널 데이터를 생성하는 것으로 세분화한다. 상기 기술적 해결책을 사용하면, 새로운 채널 데이터의 생성 매커니즘을 보완하고, POI 데이터를 통해 사용자 활동 행위와 관련된 은닉 특징의 발굴을 진행함으로써, 건축물 추출의 참조 의거를 풍부하게 하여, 건축물 추출 결과 정확도의 향상을 위해 토대를 마련한다.
도 4는 본 출원의 실시예에서 제공되는 다른 건축물 추출 방법의 흐름도이다. 상기 방법은 상기 각 기술적 해결책을 토대로 최적화되고 개선된 것이다.
또한, 포지셔닝 데이터를 포함하는 것으로 사용자 행위 관련 데이터를 세분화하고, 상응하게, "사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성"하는 동작을 "포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 각 화소에 관련되는 포지셔닝 포인트의 체류 카테고리를 결정하되, 체류 카테고리는 상주 카테고리 및 비상주 카테고리를 포함하고, 각 화소에 관련되는 체류 카테고리에 따라, 새로운 채널 데이터를 생성"하는 것으로 세분화하여, 새로운 채널 데이터의 결정 매커니즘을 보완한다.
도 4에 도시된 건축물 추출 방법은 하기와 같은 단계를 포함한다.
단계 S401, 타겟 영역의 원격 감지 이미지 데이터 및 포지셔닝 데이터를 획득하되, 포지셔닝 데이터와 원격 감지 이미지 데이터는 시공간 상관 관계를 갖는다.
포지셔닝 데이터는 타겟 영역 중의 사용자가 포지셔닝 기능이 있는 애플리케이션을 사용하여 생성된 포지셔닝 데이터일 수 있으므로, 상기 포지셔닝 데이터는 사용자의 포지셔닝 행위 또는 포지셔닝 기능이 있는 애플리케이션에 대한 사용 행위를 특성화할 수 있다.
설명해야 할 것은, 포지셔닝 행위는 네비게이션 타입 애플리케이션을 통해 자신의 위치를 포지셔닝하는 것과 같이 사용자에 의해 자발적으로 트리거된 포지셔닝 행위일 수 있다. 선택적으로, 포지셔닝 행위는 사용자가 쇼핑 타입 애플리케이션을 사용하여 상품을 브라우징할 때 쇼핑 타입 애플리케이션이 애플리케이션 권한 부여에 따라 사용자 위치의 수집을 진행하는 것과 같이 사용자에 의해 수동적으로 트리거된 포지셔닝 행위일 수도 있다.
예시적으로, 포지셔닝 데이터 원격 감지 이미지 데이터 수집 이전의 설정된 과거 시간대 이내에 수집된 데이터일 수 있는바, 포지셔닝 데이터와 원격 감지 이미지 데이터 사이의 시간 관계를 구현하는 동시에, 포지셔닝 데이터의 시효성을 보장한다. 설정된 과거 시간대는 수요 또는 경험에 따라 기술자에 의해 결정될 수 있거나, 또는 대량의 시험을 반복하여 결정될 수 있다.
예시적으로, 포지셔닝 데이터는 타겟 영역 내의 사용자에 의해 생성된 데이터일 수 있어, 포지셔닝 데이터 및 원격 감지 이미지 데이터 사이의 공간 관계를 구현하여, 후보 새로운 채널 데이터의 생성을 위해 토대를 마련한다.
단계 S402, 포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 각 화소에 관련되는 포지셔닝 포인트의 체류 카테고리를 결정하되, 체류 카테고리는 상주 카테고리 및 비상주 카테고리를 포함한다.
예시적으로, 각 화소의 위치 정보에 따라, 타겟 영역을 상이한 서브 영역으로 분할하고, 포지셔닝 데이터 중 각 포지셔닝 사용자의 포지셔닝 포인트의 포지셔닝 시간 순서에 따라, 서브 영역에서의 각 포지셔닝 포인트의 포지셔닝 사용자의 이동 특징을 각각 결정하되, 이동 특징은 이동 속도 및 체류 시간 중 적어도 하나를 포함하며, 포지셔닝 사용자의 이동 특징에 따라, 포지셔닝 포인트를 상주 카테고리 또는 비상주 카테고리로 결정한다.
선택적으로, 각각의 포지셔닝 사용자에 대해, 상기 포지셔닝 사용자의 포지셔닝 포인트의 인접 포지셔닝 시간 및 인접 포지셔닝 시간에 대응되는 포지셔닝 거리에 따라, 인접 포지셔닝 포인트 중 하나의 포지셔닝 포인트에서의 상기 포지셔닝 사용자의 이동 속도를 결정하고, 이동 속도가 설정된 속도 임계값보다 작으면, 상기 포지셔닝 포인트를 상주 카테고리로 결정하며, 이동 속도가 설정된 속도 임계값보다 크거나 같으면, 상기 포지셔닝 포인트를 비상주 카테고리로 결정한다. 설정된 속도 임계값은 수요 또는 경험치에 따라 기술자에 의해 결정될 수 있거나, 또는 대량의 시험을 반복하여 결정될 수 있다.
또는 선택적으로, 각각의 포지셔닝 사용자에 대해, 상기 포지셔닝 사용자의 포지셔닝 포인트의 인접 포지셔닝 시간 및 인접 포지셔닝 시간에 대응되는 포지셔닝 거리에 따라, 인접 포지셔닝 포인트 중 하나의 포지셔닝 포인트에서의 상기 포지셔닝 사용자의 이동 속도를 결정하고, 인접 포지셔닝 시간의 설정된 수량의 연속 포지셔닝 포인트의 이동 속도가 설정된 속도 임계값보다 작으면, 상기 설정된 수량의 연속 포지셔닝 포인트의 체류 카테고리가 상주 카테고리로 결정되고, 그렇지 않으면, 상기 설정된 수량의 연속 포지셔닝 포인트의 체류 카테고리가 비상주 카테고리로 결정된다. 설정된 수량 및 설정된 속도 임계값 중 적어도 하나는 수요 또는 경험치에 따라 기술자에 의해 결정될 수 있거나, 또는 대량의 시험을 반복하여 결정될 수 있다.
단계 S403, 각 화소에 관련되는 체류 카테고리에 따라, 새로운 채널 데이터를 생성한다.
일 실시예에서, 각 화소에 관련되는 포지셔닝 포인트의 체류 카테고리에 따라 채널 데이터를 생성하는 것은, 체류 카테고리에 따라, 각 화소에 관련되는 포지셔닝 포인트를 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성하는 것일 수 있다. 체류 카테고리 통계 방식으로 새로운 채널 데이터를 생성하여, 새로운 채널 데이터의 생성 방식을 보다 보완함을 이해할 수 있다. 아울러, 통계 방식을 사용하여 새로운 채널 데이터의 생성을 위해 데이터 지원을 제공하므로, 조작이 간편하고 빠르며, 메모리 자원 사용량이 적다.
예시적으로, 각 체류 카테고리에 대해, 각 화소에 관련되는 포지셔닝 포인트가 각 체류 카테고리 하에서의 통계값을 각각 통계하고, 각 화소가 각 체류 카테고리 하에서의 통계값에 따라, 원격 감지 이미지 데이터 중 각 화소의 배열 순서를 결합하여, 상기 체류 카테고리에 대응되는 새로운 채널 데이터를 조합 생성한다. 설명해야 할 것은, 체류 카테고리의 수량에 따라, 생성된 새로운 채널 데이터의 채널 수량을 결정할 수 있다. 전형적으로, 체류 카테고리의 수량은 새로운 채널 데이터의 채널 수량과 동일하다.
상이한 체류 카테고리의 통계값의 차원으로 인한 영향을 제거하기 위해, 통계값에 대해 정규화 처리를 진행하고, 정규화 후의 통계값에 따라 새로운 채널 데이터를 생성할 수도 있음을 이해할 수 있다. 정규화 처리는 선형 함수 정규화, 제로 평균 표준화 및 다른 종래의 정규화 방법 중 하나 또는 적어도 두 가지 방법의 조합을 사용할 수 있다.
설명해야 할 것은, 새로운 채널 데이터와 원격 감지 이미지 데이터 중 각 채널 데이터의 차원이 상이함으로 인한 이미지를 제거하기 위해, 정규화 처리를 진행 시 새로운 채널 데이터를 [0, 255] 데이터 구간으로 정규화시킬 수 있다.
예시적으로, 각 화소에 관련되는 포지셔닝 포인트가 상주 카테고리 하에서의 통계값을 각각 통계하고, 상주 카테고리의 통계값과 대응되는 화소에 관련되는 포지셔닝 포인트의 총 수량의 비율에 따라, 상주 카테고리 점유율을 결정하며, 각 화소의 상주 카테고리 점유율에 따라, 원격 감지 이미지 데이터 중 각 화소의 배열 순서를 결합하여, 새로운 채널 데이터를 조합 생성한다.
단계 S404, 원격 감지 이미지 데이터 및 새로운 채널 데이터에 따라, 타겟 영역 중의 건축물을 추출한다.
본 출원의 실시예는 새로운 채널 데이터의 생성 동작을 포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 각 화소에 관련되는 포지셔닝 포인트의 체류 카테고리를 결정하되, 체류 카테고리는 상주 카테고리 및 비상주 카테고리를 포함하고, 각 화소에 관련되는 체류 카테고리에 따라, 새로운 채널 데이터를 생성하는 것으로 세분화한다. 상기 기술적 해결책을 사용하면, 새로운 채널 데이터의 생성 매커니즘을 보완하고, 체류 카테고리를 인입하여 포지셔닝 포인트를 구별하며, 포지셔닝 포인트가 속한 영역 내의 사용자 활동 정도를 매핑함으로써, 체류 카테고리에 따라 새로운 채널 데이터를 생성하여, 생성된 새로운 채널 데이터에 사용자 행위 활동에 관련되는 은닉 특징이 포함되도록 함으로써, 건축물 추출 과정에서 원격 감지 이미지 데이터를 보충하여, 건축물 추출의 참조 의거를 풍부하게 하여, 건축물 추출 결과 정확도의 향상을 위해 토대를 마련한다.
도 5는 본 출원의 실시예에서 제공되는 다른 건축물 추출 방법의 흐름도이다. 상기 방법은 상기 각 기술적 해결책을 토대로 최적화되고 개선된 것이다.
또한, 포지셔닝 데이터를 포함하는 것으로 사용자 행위 관련 데이터를 세분화하고, 상응하게, "사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성"하는 동작을 "포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 원격 감지 이미지 데이터의 각 화소에 관련되는 포지셔닝 데이터를 결정하고, 각 화소에 관련되는 포지셔닝 데이터 중의 포지셔닝 포인트 수량 및 포지셔닝 사용자 수량 중 적어도 하나를 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성"하는 것으로 세분화하여, 새로운 채널 데이터의 결정 매커니즘을 보완한다.
도 5에 도시된 건축물 추출 방법은 하기와 같은 단계를 포함한다.
단계 S501, 타겟 영역의 원격 감지 이미지 데이터 및 포지셔닝 데이터를 획득하되, 포지셔닝 데이터와 원격 감지 이미지 데이터는 시공간 상관 관계를 갖는다.
포지셔닝 데이터는 각 포지셔닝 포인트의 포지셔닝 정보 및 각 포지셔닝 포인트에 대응되는 포지셔닝 사용자의 사용자 정보를 포함한다.
단계 S502, 포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 원격 감지 이미지 데이터의 각 화소에 관련되는 포지셔닝 데이터를 결정한다.
예시적으로, 포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 포지셔닝 데이터를 각각 원격 감지 이미지 데이터 각 화소의 위치 영역에 매핑하여, 각 화소에 관련되는 포지셔닝 데이터를 획득한다.
단계 S503, 각 화소에 관련되는 포지셔닝 데이터 중의 포지셔닝 포인트 수량 및 포지셔닝 사용자 수량 중 적어도 하나를 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성한다.
선택적으로, 각 화소에 관련되는 포지셔닝 데이터 중의 포지셔닝 포인트 수량을 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성하는 것은, 각 화소에 관련되는 포지셔닝 데이터 중의 포지셔닝 포인트 수량을 직접 통계하여 포지셔닝 포인트 통계값을 획득하고, 각 화소에 관련되는 포지셔닝 포인트 통계값을 원격 감지 이미지 데이터에서의 각 화소의 배열 순서에 따라 조합하여, 포지셔닝 포인트 차원 하에서의 새로운 채널 데이터를 생성하는 것일 수 있다.
선택적으로, 각 화소에 관련되는 포지셔닝 데이터 중의 포지셔닝 사용자 수량을 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성하는 것은, 각 화소에 관련되는 포지셔닝 데이터의 포지셔닝 사용자의 포지셔닝 사용자 수량을 통계하여 사용자 통계값을 획득하고, 각 화소에 관련되는 사용자 통계값을 원격 감지 이미지 데이터에서의 각 화소의 배열 순서에 따라 조합하여, 사용자 차원 하에서의 새로운 채널 데이터를 생성하는 것일 수 있다.
선택적으로, 각 화소에 관련되는 포지셔닝 데이터 중의 포지셔닝 사용자 수량을 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성하는 것은, 각 화소에 관련되는 포지셔닝 데이터의 포지셔닝 사용자를 결정하고, 각 포지셔닝 사용자의 사용자 카테고리를 결정하며, 각 화소에 관련되는 포지셔닝 사용자의 사용자 카테고리를 통계하여 사용자 카테고리 통계값을 획득하고, 각 사용자 카테고리에 대해, 상기 사용자 카테고리의 통계값을 원격 감지 이미지 데이터에서의 각 화소의 배열 순서에 따라 조합하여, 사용자 카테고리 차원 하에서의 새로운 채널 데이터를 생성하는 것일 수 있다. 새로운 채널 데이터의 채널 수는 사용자 카테고리 수에 대응된다.
또한, 새로운 채널 데이터의 정보량을 풍부하게 하기 위해, 시간대를 나누어 상이한 시간대 상이한 차원(포지셔닝 포인트 차원, 사용자 차원 및 사용자 카테고리 차원 등 중 적어도 하나) 하에서의 통계값의 결정을 진행하고, 통계값에 따라 대응되는 채널의 새로운 채널 데이터를 생성할 수도 있다. 새로운 채널 데이터의 채널 수량은 시간대 수량 및 차원 수량의 곱에 대응된다. 시간대 분할 방식은 수요 또는 경험에 따라 기술자에 의해 결정될 수 있으며, 예를 들어, 하루를 낮과 밤 두 시간대로 나눌 수 있다.
설명해야 할 것은, 새로운 채널 데이터의 정보량을 풍부하게 하기 위해, 상기 적어도 두 가지 새로운 채널 데이터를 조합하여 멀티 채널의 새로운 채널 데이터를 획득하여, 후속되는 건축물 추출을 위해 데이터 지원을 제공할 수 있다.
상이한 채널의 데이터가 차원이 상이함으로 인해 발생되는 영향을 제거하기 위해, 각 채널의 새로운 채널 데이터에 대해 정규화 처리를 진행할 수도 있음을 이해할 수 있다. 정규화 처리는 선형 함수 정규화, 제로 평균 표준화 및 다른 종래의 정규화 방법 중 하나 또는 적어도 두 가지 방법의 조합을 사용할 수 있다.
설명해야 할 것은, 새로운 채널 데이터와 원격 감지 이미지 데이터 중 각 채널 데이터의 차원이 상이함으로 인한 이미지를 제거하기 위해, 정규화 처리를 진행 시 새로운 채널 데이터를 [0, 255] 데이터 구간으로 정규화시킬 수 있다.
설명해야 할 것은, 포지셔닝 포인트 수량을 인입하여, 타겟 영역 내 사용자의 포지셔닝 상황을 반영할 수 있어, 포지셔닝 포인트 차원 또는 애플리케이션 사용 차원에서 사용자의 행위 활동을 특성화할 수 있다. 화소에 관련되는 포지셔닝 사용자 수량을 인입하여, 사용자 분포 상황을 결정할 수 있어, 타겟 영역에서의 사용자의 잠재적 활동 상황을 반영할 수 있다.
단계 S504, 원격 감지 이미지 데이터 및 새로운 채널 데이터에 따라, 타겟 영역 중의 건축물을 추출한다.
본 출원의 실시예는 새로운 채널 데이터의 생성 동작을 포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 원격 감지 이미지 데이터의 각 화소에 관련되는 포지셔닝 데이터를 결정하고, 각 화소에 관련되는 포지셔닝 데이터 중의 포지셔닝 포인트 수량 및 포지셔닝 사용자 수량 중 적어도 하나를 통계하며, 통계 결과에 따라 새로운 채널 데이터를 생성하는 것으로 세분화한다. 상기 기술적 해결책은 화소에 관련되는 포지셔닝 데이터 중 포지셔닝 포인트 수량 및 포지셔닝 사용자 수량 중 적어도 하나를 인입하여, 상기 화소 내 사용자의 사용자 활동 상황을 측면에서 특성화하고, 생성된 새로운 채널 데이터에 사용자 행위 활동에 관련되는 은닉 특징이 포함되도록 함으로써, 건축물 추출 과정에서 원격 감지 이미지 데이터를 보충하여, 건축물 추출의 참조 의거를 풍부하게 하여, 건축물 추출 결과 정확도의 향상을 위해 토대를 마련한다.
도 6은 본 출원의 실시예에서 제공되는 다른 건축물 추출 방법의 흐름도이다. 상기 방법은 상기 각 기술적 해결책을 토대로 최적화되고 개선된 것이다.
또한, 검색 데이터를 포함하는 것으로 사용자 행위 관련 데이터를 세분화하고, 상응하게, "사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성"하는 동작을 "검색 데이터의 포지셔닝 정보에 따라, 원격 감지 이미지 데이터의 각 화소에 관련되는 키워드 조합의 검색 횟수를 결정하며, 각 화소에 관련되는 검색 횟수에 따라, 새로운 채널 데이터를 생성"하는 것으로 세분화하여, 새로운 채널 데이터의 결정 매커니즘을 보완한다.
도 6에 도시된 건축물 추출 방법은 하기와 같은 단계를 포함한다.
단계 S601, 타겟 영역의 원격 감지 이미지 데이터 및 검색 데이터를 획득하되, 검색 데이터와 원격 감지 이미지 데이터는 시공간 상관 관계를 갖는다.
검색 데이터는 타겟 영역 중의 사용자가 검색 기능이 있는 애플리케이션을 사용하여 생성된 검색 데이터일 수 있으므로, 상기 검색 데이터는 사용자의 검색 행위를 특성화할 수 있다.
예시적으로, 검색 데이터는 원격 감지 이미지 데이터 수집 시각 이전의 설정된 과거 시간대 이내에 수집된 데이터일 수 있는바, 포지셔닝 데이터와 원격 감지 이미지 데이터 사이의 시간 관계를 구현하는 동시에, 포지셔닝 데이터의 시효성을 보장한다. 설정된 과거 시간대는 수요 또는 경험에 따라 기술자에 의해 결정될 수 있거나, 또는 대량의 시험을 반복하여 결정될 수 있다.
예시적으로, 검색 데이터는 타겟 영역 내의 사용자에 의해 생성된 데이터일 수 있어, 검색 데이터와 원격 감지 이미지 데이터 사이의 공간 관계를 구현하여, 후보 새로운 채널 데이터의 생성을 위해 토대를 마련한다.
단계 S602, 검색 데이터의 포지셔닝 정보에 따라, 원격 감지 이미지 데이터의 각 화소에 관련되는 키워드 조합의 검색 횟수를 결정한다.
검색 데이터의 포지셔닝 정보는 검색 행위가 발생되는 위치 정보를 특성화한다. 예시적으로, 검색 데이터의 포지셔닝 정보에 의해, 원격 감지 이미지 데이터의 각 화소의 위치 정보에 따라, 검색 데이터를 각 화소에 각각 매핑시켜 각 화소에 관련되는 검색 데이터를 획득하고, 각 화소에 관련되는 검색 데이터 중 키워드 조합의 검색 횟수를 각각 통계하여, 후속되는 새로운 채널 데이터의 생성을 위해 데이터 지원을 제공할 수 있다.
예시적으로, 키워드 조합은 미리 구축된 검색 어휘 데이터베이스를 검색하여 결정될 수 있다. 선택적으로, 검색 데이터 중의 후보 단어 조합에 따라, 미리 구축된 검색 어휘 데이터베이스를 검색하고, 검색 어휘 데이터베이스 중 각 단어 그룹과 후보 단어 조합의 매칭 상황에 따라, 검색 데이터 중의 키워드 조합을 결정하며, 결정된 키워드 조합의 검색 횟수에 대해 수량 통계를 진행한다. 구체적으로, 검색 어휘 데이터베이스에 후보 단어 조합에 매칭되는 단어 그룹이 존재하면, 상기 후보 단어 조합을 키워드 조합으로 결정하고, 그렇지 않으면, 상기 후보 단어 조합을 무관 단어 조합으로 결정한다.
단계 S603, 각 화소에 관련되는 검색 횟수에 따라, 새로운 채널 데이터를 생성한다.
예시적으로, 각 화소에 관련되는 검색 횟수를 원격 감지 이미지 데이터 중 각 화소의 배열 순서에 따라 조합하여, 검색 차원 하에서의 새로운 채널 데이터를 생성한다.
단계 S604, 원격 감지 이미지 데이터 및 새로운 채널 데이터에 따라, 타겟 영역 중의 건축물을 추출한다.
본 출원의 실시예는 새로운 채널 데이터의 생성 동작을 검색 데이터의 포지셔닝 정보에 따라, 원격 감지 이미지 데이터의 각 화소에 관련되는 키워드 조합의 검색 횟수를 결정하고, 각 화소에 관련되는 검색 횟수에 따라, 새로운 채널 데이터를 생성하는 것으로 세분화한다. 상기 기술적 해결책은 화소에 관련되는 검색 데이터 중 키워드 조합의 검색 횟수를 인입하여, 상기 화소 내 사용자의 검색 행위를 특성화하고, 생성된 새로운 채널 데이터에 사용자 검색 행위에 관련되는 은닉 특징이 포함되도록 함으로써, 건축물 추출 과정에서 원격 감지 이미지 데이터를 보충하여, 건축물 추출의 참조 의거를 풍부하게 하여, 건축물 추출 결과 정확도의 향상을 위해 토대를 마련한다.
도 7은 본 출원의 실시예에서 제공되는 건축물 추출 장치의 구조도이다. 상기 건축물 추출 장치(700)는 데이터 획득 모듈(701), 새로운 채널 데이터 생성 모듈(702) 및 건축물 추출 모듈(703)을 포함한다.
데이터 획득 모듈(701)은 타겟 영역의 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터를 획득하고, 상기 사용자 행위 관련 데이터와 상기 원격 감지 이미지 데이터는 시공간 상관 관계를 가지며,
새로운 채널 데이터 생성 모듈(702)은 사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성하고,
건축물 추출 모듈(703)은 원격 감지 이미지 데이터 및 새로운 채널 데이터에 따라, 타겟 영역 중의 건축물을 추출한다.
본 출원의 실시예는 데이터 획득 모듈을 통해 타겟 영역의 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터를 획득하고, 상기 사용자 행위 관련 데이터와 원격 감지 이미지 데이터는 시공간 상관 관계를 가지며, 새로운 채널 데이터 생성 모듈을 통해 사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성하고, 건축물 추출 모듈을 통해 원격 감지 이미지 데이터 및 새로운 채널 데이터에 따라, 타겟 영역 중의 건축물을 추출한다. 본 출원의 실시예는 사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 의해 생성된 새로운 채널 데이터를 인입하여, 타겟 영역 중 상이한 위치에서의 사용자의 활동 상황을 특성화하고, 상기 새로운 채널 데이터를 원격 감지 이미지 데이터의 보충 데이터로 하여, 타겟 영역 중 건축물의 추출을 진행함으로써, 건축물 추출 과정의 데이터 참조를 풍부하게 하여 건축물 추출 결과의 정확도를 향상시킨다. 아울러, 새로운 채널 데이터를 통해, 수집 환경 등 요소로 인해 원격 감지 이미지 데이터 품질이 떨어져 건축물 추출 결과에 미치는 영향을 보완할 수도 있어, 건축물 추출 결과의 안정성 및 건축물 추출 방식의 보편성을 향상시킨다.
또한, 새로운 채널 데이터 생성 모듈(702)은,
포지셔닝 정보에 따라, 사용자 행위 관련 데이터를 원격 감지 이미지 데이터의 화소에 매핑하고, 각 화소에 관련되는 사용자 행위 관련 데이터에 따라, 새로운 채널 데이터를 생성하는 화소 매핑 유닛;을 포함한다.
또한, 사용자 행위 관련 데이터는 관심점(POI) 데이터, 포지셔닝 데이터 및 검색 데이터 중 적어도 하나를 포함한다.
또한, 사용자 행위 관련 데이터에 POI 데이터가 포함될 경우, 화소 매핑 유닛은,
POI 데이터 중 각 후보 POI의 포지셔닝 정보에 따라, 원격 감지 이미지 데이터 중 각 화소의 주변 POI를 결정하는 주변 POI 결정 서브 유닛; 및,
주변 POI의 POI 데이터에 따라, 새로운 채널 데이터를 생성하는 새로운 채널 데이터 생성 서브 유닛;을 포함한다.
또한, 새로운 채널 데이터 생성 서브 유닛은,
각각의 화소에 대해, 주변 POI의 텍스트 데이터에 따라 POI 토픽 벡터를 생성하고, 각 화소의 POI 토픽 벡터에 따라 새로운 채널 데이터를 생성하는 POI 벡터 생성 슬레이브 유닛; 및,
각 화소의 주변 POI를 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성하는 POI 통계 슬레이브 유닛;을 포함한다.
또한, 사용자 행위 관련 데이터에 포지셔닝 데이터가 포함될 경우, 화소 매핑 유닛은,
포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 각 화소에 관련되는 포지셔닝 포인트의 체류 카테고리를 결정하되, 체류 카테고리는 상주 카테고리 및 비상주 카테고리를 포함하는 체류 카테고리 결정 슬레이브 유닛; 및,
각 화소에 관련되는 체류 카테고리에 따라, 새로운 채널 데이터를 생성하는 새로운 채널 데이터 생성 슬레이브 유닛;을 포함한다.
또한, 새로운 채널 데이터 생성 슬레이브 유닛은,
체류 카테고리에 따라, 각 화소에 관련되는 포지셔닝 포인트를 통계하고, 통계 결과에 따라 상기 새로운 채널 데이터를 생성하는 체류 카테고리 통계 서브 슬레이브 유닛;을 포함한다.
또한, 사용자 행위 관련 데이터에 포지셔닝 데이터가 포함될 경우, 화소 매핑 유닛은,
포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 원격 감지 이미지 데이터의 각 화소에 관련되는 포지셔닝 데이터를 결정하는 화소 관련 포지셔닝 데이터 결정 슬레이브 유닛; 및,
각 화소에 관련되는 포지셔닝 데이터 중의 포지셔닝 포인트 수량 및 포지셔닝 사용자 수량 중 적어도 하나를 통계하고, 통계 결과에 따라 새로운 채널 데이터를 생성하는 포지셔닝 데이터 통계 슬레이브 유닛;을 포함한다.
또한, 사용자 행위 관련 데이터에 검색 데이터가 포함될 경우, 화소 매핑 유닛은,
검색 데이터의 포지셔닝 정보에 따라, 상기 원격 감지 이미지 데이터의 각 화소에 관련되는 키워드 조합의 검색 횟수를 결정하는 검색 횟수 결정 슬레이브 유닛; 및,
각 화소에 관련되는 검색 횟수에 따라, 상기 새로운 채널 데이터를 생성하는 검색 카테고리 결정 슬레이브 유닛;을 포함한다.
또한, 건축물 추출 모듈(703)은,
원격 감지 이미지 데이터 및 새로운 채널 데이터를 미리 트레이닝된 건축물 추출 모델에 입력하여, 타겟 영역 중의 건축물을 추출하는 건축물 추출 유닛;을 포함한다.
상기 건축물 추출 장치는 본 발명의 임의의 실시예에 의해 제공된 건축물 추출 방법을 수행할 수 있고, 건축물 추출 방법을 수행하는 것에 대응되는 기능 모듈 및 유익한 효과를 갖는다.
본 출원의 실시예에 따르면, 본 출원은 또한 전자 기기 및 판독 가능 저장 매체를 제공한다. 본 출원의 실시예에 따르면, 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램을 더 제공한다. 당해 컴퓨터 프로그램중의 명령이 실행될 경우, 상기 건축물 추출 방법이 실행된다.
도 8은 본 출원의 실시예의 건축물 추출 방법을 구현하는 전자 기기의 블록도이다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 벤치, 개인용 정보 단말기, 서버, 블레이드 서버, 메인 프레임 컴퓨터 및 다른 적합한 컴퓨터 등의 다양한 형태의 디지털 컴퓨터를 가리킨다. 전자 기기는 또한 개인용 정보 단말기, 셀룰러 폰, 스마트 폰, 웨어러블 장치 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 모바일 장치를 나타낼 수 있다. 본 명세서에 도시된 구성 요소, 그들의 연결 및 관계 및 그 기능은 단지 예시에 불과하며, 본 명세서에 기술되거나 청구된 구현을 한정하도록 의도되지 않는다.
도 8에 도시된 바와 같이, 상기 전자 기기는 하나 이상의 프로세서(801), 메모리(802) 및 고속 인터페이스 및 저속 인터페이스를 포함하는 다양한 구성 요소를 연결하기 위한 인터페이스를 포함한다. 다양한 구성 요소는 서로 다른 버스를 사용하여 서로 연결되며 마더 보드에 설치되거나 필요에 따라 다른 방식으로 설치될 수 있다. 프로세서는 외부 입력/출력 장치(예를 들어, 인터페이스에 연결된 디스플레이 장치)에 GUI의 그래픽 정보를 표시하기 위해 메모리에 저장된 명령을 포함하여 전자 기기 내에서 실행되는 명령을 처리할 수 있다. 다른 실시 방식에서, 필요한 경우, 다수의 프로세서 및/또는 다수의 버스를 다수의 메모리와 함께 사용할 수 있다. 마찬가지로, 여러 전자 기기를 연결할 수 있고, 각 기기는 단지 몇가지 필요한 기능(예를 들어, 서버 배열, 블레이드 서버 그룹 또는 다중 프로세서 시스템)을 제공할 수 있다. 도 8은 프로세서(801)가 하나인 경우를 예를 들어 설명한다.
메모리(802)는 본 출원에 의해 제공된 비 일시적 컴퓨터 판독 가능 저장 매체이다. 적어도 하나의 프로세서에 의해 본 출원에 의해 제공된 건축물 추출 방법이 수행되도록, 상기 메모리에는 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장된다. 본 출원의 비 일시적 컴퓨터 판독 가능 저장 매체에는 컴퓨터로 하여금 본 출원에 의해 제공된 건축물 추출 방법을 실행하게 하는 컴퓨터 명령어가 저장된다.
메모리(802)는 비 일시적 컴퓨터 판독 가능 저장 매체로서, 비 일시적 소프트웨어 프로그램, 비 일시적 컴퓨터 실행 가능 프로그램, 본 출원의 실시예의 건축물 추출 방법에 대응하는 프로그램 명령/모듈과 같은 모듈(예를 들어, 도 7에 도시된 데이터 획득 모듈(701), 새로운 채널 데이터 생성 모듈(702) 및 건축물 추출 모듈(703))을 저장하기 위해 사용될 수 있다. 프로세서(801)는 메모리(802)에 저장된 비 일시적 소프트웨어 프로그램, 명령 및 모듈을 실행하여 서버의 다양한 기능적 애플리케이션 및 데이터 처리를 실행한다. 다시 말하면, 상기 방법 실시예의 건축물 추출 방법을 구현한다.
메모리(802)는 프로그램을 저장하기 위한 영역 및 데이터를 저장하기 위한 영역을 포함할 수 있고, 여기서 프로그램을 저장하기 위한 영역은 운영 체제 및 적어도 하나의 기능에 필요한 응용 프로그램이 저장될 수 있고; 데이터를 저장하기 위한 영역에는 건축물 추출 방법을 구현하는 전자 기기를 사용하여 생성된 데이터가 저장될 수 있다. 또한, 메모리(802)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 또한 자기 디스크 저장 장치, 플래시 메모리 장치 또는 다른 비 일시적 솔리드 스테이트 저장 장치와 같은 적어도 하나의 비 일시적 메모리를 포함할 수 있다. 일부 실시예에서, 메모리(802)는 프로세서(801)에 대해 원격으로 설정된 메모리를 선택적으로 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 건축물 추출 방법을 구현하는 전자 기기에 연결될 수 있다. 상기 네트워크의 사례는 인터넷, 인트라넷, 근거리 네트워크, 이동 통신 네트워크 및 이들의 조합을 포함하지만 이에 한정되지는 않는다.
건축물 추출 방법을 구현하는 전자 기기는 입력 장치(803) 및 출력 장치(804)를 더 포함할 수 있다. 프로세서(801), 메모리(802), 입력 장치(803) 및 출력 장치(804)는 버스를 통해 연결되거나 또는 다른 방식으로 연결될 수 있으며, 도 8은 버스를 통한 연결을 예시한 것이다.
입력 장치(803)는 입력된 숫자 또는 문자 정보를 수신할 수 있고, 건축물 추출 방법을 구현하는 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 생성할 수 있으며, 터치 스크린, 키패드, 마우스, 트랙 패드, 터치 패드, 포인팅 스틱, 하나 이상의 마우스 버튼, 트랙볼, 조이스틱 및 기타 입력 장치일 수 있다. 출력 장치(804)는 디스플레이 장치, 보조 조명 장치(예를 들어, LED), 촉각 피드백 장치(예를 들어, 진동 모터) 등을 포함할 수 있다. 상기 디스플레이 장치는 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이 및 플라즈마 디스플레이를 포함할 수 있지만, 이에 한정되지는 않는다. 일부 실시 방식에서, 디스플레이 장치는 터치 스크린일 수 있다.
본 명세서에 설명된 시스템 및 기술의 다양한 실시 방식은 디지털 전자 회로, 집적 회로 시스템, 전용 ASIC(애플리케이션 특정 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에 의해 구현될 수 있다. 이러한 다양한 실시 방식은 하나 이상의 컴퓨터 프로그램에 의해 실시될 수 있고, 상기 하나 이상의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로그램 가능 프로세서의 시스템에 의해 실행 및/또는 해석될 수으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신하며, 데이터 및 명령을 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치에 전송할 수 있다.
이러한 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 응용 프로그램 또는 코드라고도 함)에는 프로그램 가능 프로세서의 기계 명령어가 포함되고, 고급 프로세스 및/또는 객체 지향 프로그래밍 언어 및/또는 어셈블리 언어/기계어를 사용하여 이러한 컴퓨터 프로그램을 구현할 수 있다. 본 명세서에서 사용되는 용어 "기계 판독 가능 매체" 및 "컴퓨터 판독 가능 매체"는 프로그램 가능 프로세서에 기계 명령 및/또는 데이터를 제공하기 위해 사용되는 임의의 컴퓨터 프로그램 제품, 장비 및/또는 장치(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 논리 장치(PLD))를 가리키며, 기계 판독 가능 신호로서 기계 명령을 수신하는 기계 판독 가능 매체를 포함한다. 용어 "기계 판독 가능 신호"는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 지칭한다.
사용자와의 상호 작용을 제공하기 위해, 컴퓨터에서 여기에 설명된 시스템 및 기술을 구현할 수 있다. 컴퓨터는 사용자에게 정보를 표시하기 위한 디스플레이 장치(예를 들어, CRT(cathode ray tube) 또는 LCD(liquid crystal display) 모니터)와 키보드 및 포인팅 장치(예를 들어, 마우스 또는 트랙볼)를 포함하고, 사용자는 상기 키보드 및 상기 포인팅 장치를 통해 정보를 입력하여 컴퓨터에 제공할 수 있다. 다른 종류의 장치를 사용하여 사용자와의 상호 작용을 제공할 수도 있다. 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 감각 피드백(예를 들어, 시각적 피드백, 청각 피드백 또는 촉각 피드백) 일 수 있고, 임의의 형태(음성 입력, 스피치 입력 또는 촉각 입력 포함)로 사용자에 의해 발송된 정보를 수신할 수 있다.
본 명세서에 설명된 시스템 및 기술은 백엔드 구성 요소(예를 들어, 데이터 서버)를 포함하는 컴퓨팅 시스템 또는 미들웨어 구성 요소(예를 들어, 애플리케이션 서버)를 포함하는 컴퓨팅 시스템 또는 프론트 엔드 구성 요소(예를 들어, 그래픽 사용자 인터페이스 또는 웹 브라우저를 가진 사용자 컴퓨터일 수 있으며, 사용자는 그래픽 사용자 인터페이스 또는 웹 브라우저를 통해 여기에 설명된 시스템 및 기술의 구현과 상호 작용할 수 있음)를 포함하는 컴퓨팅 시스템 또는 이러한 백엔드 구성 요소, 미들웨어 구성 요소 또는 프론트 엔드 구성 요소의 임의의 조합을 포함하는 컴퓨팅 시스템에 의해 구현될 수 있다. 시스템의 구성 요소는 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)에 의해 상호 연결될 수 있다. 통신 네트워크의 예로는 LAN(Local Area Network), WAN(Wide Area Network), 인터넷 및 블록체인 네트워크가 포함될 수 있다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있으며, 일반적으로 통신 네트워크를 통해 상호 작용한다. 클라이언트와 서버 간의 관계는 해당 컴퓨터에서 실행되고 서로 클라이언트-서버 관계가 있는 컴퓨터 프로그램에 의해 발생된다. 서버는 클라우드 서버일 수 있고, 클라우드 컴퓨팅 서버 또는 클라우드 호스트라고도 하며, 기존 물리적 호스트와 VPS 서비스에 존재하는 관리 난이도가 높고, 비지니스 확장성이 약한 결함을 해결하기 위한 클라우드 컴퓨팅 서비스 체계의 호스트 제품이다.
본 출원의 실시예의 기술적 해결책에 따르면, 사용자 행위 관련 데이터 및 원격 감지 이미지 데이터에 의해 생성된 새로운 채널 데이터를 인입하여, 타겟 영역 중 상이한 위치에서의 사용자의 활동 상황을 특성화하고, 상기 새로운 채널 데이터를 원격 감지 이미지 데이터의 보충 데이터로 하여, 타겟 영역 중 건축물의 추출을 진행함으로써, 건축물 추출 과정의 데이터 참조를 풍부하게 하여 건축물 추출 결과의 정확도를 향상시킨다. 아울러, 새로운 채널 데이터를 통해, 수집 환경 등 요소로 인해 원격 감지 이미지 데이터 품질이 떨어져 건축물 추출 결과에 미치는 영향을 보완할 수도 있어, 건축물 추출 결과의 안정성 및 건축물 추출 방식의 보편성을 향상시킨다.
상기에 도시된 다양한 형태의 과정을 통해 단계를 재정렬, 추가 또는 삭제할 수 있다는 것을 이해해야 한다. 예를 들어, 본 출원에 설명된 각 단계들은 병렬, 순차적 또는 상이한 순서로 수행될 수 있으며, 본 출원에 개시된 기술적 해결책이 원하는 결과를 달성할 수만 있으면, 별도로 한정되지 않는다.
상기 구체적인 실시 방식은 본 출원의 보호 범위에 대한 제한을 구성하지 않는다. 당업자는 설계 요건 및 다른 요인에 따라 다양한 변형, 조합, 하위 조합 및 대체가 이루어질 수 있다는 것을 이해해야 한다. 본 출원의 원리와 원칙 내에서 이루어진 모든 수정, 동등한 대체 및 개선은 모두 본 출원의 보호 범위에 포함된다.

Claims (23)

  1. 건축물 추출 방법에 있어서,
    타겟 영역의 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터를 획득하는 단계 - 상기 사용자 행위 관련 데이터와 상기 원격 감지 이미지 데이터는 시공간 상관 관계를 가짐 -;
    상기 사용자 행위 관련 데이터 및 상기 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성하는 단계; 및,
    상기 원격 감지 이미지 데이터 및 상기 새로운 채널 데이터에 따라, 상기 타겟 영역 중의 건축물을 추출하는 단계;를 포함하는,
    것을 특징으로 하는 건축물 추출 방법.
  2. 제1항에 있어서,
    상기 사용자 행위 관련 데이터 및 상기 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성하는 단계는,
    포지셔닝 정보에 따라, 상기 사용자 행위 관련 데이터를 상기 원격 감지 이미지 데이터의 화소에 매핑하고, 각 화소에 관련되는 상기 사용자 행위 관련 데이터에 따라, 상기 새로운 채널 데이터를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 건축물 추출 방법.
  3. 제2항에 있어서,
    상기 사용자 행위 관련 데이터는 관심점(POI) 데이터, 포지셔닝 데이터 및 검색 데이터 중 적어도 하나를 포함하는,
    것을 특징으로 하는 건축물 추출 방법.
  4. 제3항에 있어서,
    상기 사용자 행위 관련 데이터에 상기 POI 데이터가 포함될 경우, 상기 포지셔닝 정보에 따라, 상기 사용자 행위 관련 데이터를 상기 원격 감지 이미지 데이터의 화소에 매핑하고, 각 화소에 관련되는 상기 사용자 행위 관련 데이터에 따라, 상기 새로운 채널 데이터를 생성하는 단계는,
    상기 POI 데이터 중 각 후보 POI의 포지셔닝 정보에 따라, 상기 원격 감지 이미지 데이터 중 각 화소의 주변 POI를 결정하는 단계; 및,
    상기 주변 POI의 POI 데이터에 따라, 상기 새로운 채널 데이터를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 건축물 추출 방법.
  5. 제4항에 있어서,
    상기 주변 POI의 POI 데이터에 따라, 상기 새로운 채널 데이터를 생성하는 단계는,
    각각의 화소에 대해, 상기 주변 POI의 텍스트 데이터에 따라 POI 토픽 벡터를 생성하고, 각 화소의 POI 토픽 벡터에 따라 상기 새로운 채널 데이터를 생성하는 단계; 또는,
    각 화소의 주변 POI를 통계하고, 통계 결과에 따라 상기 새로운 채널 데이터를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 건축물 추출 방법.
  6. 제3항에 있어서,
    상기 사용자 행위 관련 데이터에 상기 포지셔닝 데이터가 포함될 경우, 상기 포지셔닝 정보에 따라, 상기 사용자 행위 관련 데이터를 상기 원격 감지 이미지 데이터의 화소에 매핑하고, 각 화소에 관련되는 상기 사용자 행위 관련 데이터에 따라, 상기 새로운 채널 데이터를 생성하는 단계는,
    상기 포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 각 화소에 관련되는 포지셔닝 포인트의 체류 카테고리를 결정하는 단계 - 상기 체류 카테고리는 상주 카테고리 및 비상주 카테고리를 포함함 -; 및,
    각 화소에 관련되는 체류 카테고리에 따라, 상기 새로운 채널 데이터를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 건축물 추출 방법.
  7. 제6항에 있어서,
    상기 각 화소에 관련되는 체류 카테고리에 따라, 상기 새로운 채널 데이터를 생성하는 단계는,
    체류 카테고리에 따라, 각 화소에 관련되는 포지셔닝 포인트를 통계하고, 통계 결과에 따라 상기 새로운 채널 데이터를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 건축물 추출 방법.
  8. 제3항에 있어서,
    상기 사용자 행위 관련 데이터에 상기 포지셔닝 데이터가 포함될 경우, 상기 포지셔닝 정보에 따라, 상기 사용자 행위 관련 데이터를 상기 원격 감지 이미지 데이터의 화소에 매핑하고, 각 화소에 관련되는 상기 사용자 행위 관련 데이터에 따라, 상기 새로운 채널 데이터를 생성하는 단계는,
    상기 포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 상기 원격 감지 이미지 데이터의 각 화소에 관련되는 포지셔닝 데이터를 결정하는 단계; 및,
    각 화소에 관련되는 포지셔닝 데이터 중의 포지셔닝 포인트 수량 및 포지셔닝 사용자 수량 중 적어도 하나를 통계하고, 통계 결과에 따라 상기 새로운 채널 데이터를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 건축물 추출 방법.
  9. 제3항에 있어서,
    상기 사용자 행위 관련 데이터에 검색 데이터가 포함될 경우, 상기 포지셔닝 정보에 따라, 상기 사용자 행위 관련 데이터를 상기 원격 감지 이미지 데이터의 화소에 매핑하고, 각 화소에 관련되는 상기 사용자 행위 관련 데이터에 따라, 상기 새로운 채널 데이터를 생성하는 단계는,
    검색 데이터의 포지셔닝 정보에 따라, 상기 원격 감지 이미지 데이터의 각 화소에 관련되는 키워드 조합의 검색 횟수를 결정하는 단계; 및,
    각 화소에 관련되는 검색 횟수에 따라, 상기 새로운 채널 데이터를 생성하는 단계;를 포함하는,
    것을 특징으로 하는 건축물 추출 방법.
  10. 제1항에 있어서,
    상기 원격 감지 이미지 데이터 및 상기 새로운 채널 데이터에 따라, 상기 타겟 영역 중의 건축물을 추출하는 단계는,
    상기 원격 감지 이미지 데이터 및 상기 새로운 채널 데이터를 미리 트레이닝된 건축물 추출 모델에 입력하여, 상기 타겟 영역 중의 건축물을 추출하는 단계;를 포함하는,
    것을 특징으로 하는 건축물 추출 방법.
  11. 건축물 추출 장치에 있어서,
    타겟 영역의 원격 감지 이미지 데이터 및 사용자 행위 관련 데이터를 획득하되, 상기 사용자 행위 관련 데이터와 상기 원격 감지 이미지 데이터는 시공간 상관 관계를 갖는 데이터 획득 모듈;
    상기 사용자 행위 관련 데이터 및 상기 원격 감지 이미지 데이터에 따라, 새로운 채널 데이터를 생성하는 새로운 채널 데이터 생성 모듈; 및,
    상기 원격 감지 이미지 데이터 및 상기 새로운 채널 데이터에 따라, 상기 타겟 영역 중의 건축물을 추출하는 건축물 추출 모듈;을 포함하는,
    것을 특징으로 하는 건축물 추출 장치.
  12. 제11항에 있어서,
    상기 새로운 채널 데이터 생성 모듈은,
    포지셔닝 정보에 따라, 상기 사용자 행위 관련 데이터를 상기 원격 감지 이미지 데이터의 화소에 매핑하고, 각 화소에 관련되는 상기 사용자 행위 관련 데이터에 따라, 상기 새로운 채널 데이터를 생성하는 화소 매핑 유닛;을 포함하는,
    것을 특징으로 하는 건축물 추출 장치.
  13. 제12항에 있어서,
    상기 사용자 행위 관련 데이터는 관심점(POI) 데이터, 포지셔닝 데이터 및 검색 데이터 중 적어도 하나를 포함하는,
    것을 특징으로 하는 건축물 추출 장치.
  14. 제13항에 있어서,
    상기 사용자 행위 관련 데이터에 상기 POI 데이터가 포함될 경우, 상기 화소 매핑 유닛은,
    상기 POI 데이터 중 각 후보 POI의 포지셔닝 정보에 따라, 상기 원격 감지 이미지 데이터 중 각 화소의 주변 POI를 결정하는 주변 POI 결정 서브 유닛; 및,
    상기 주변 POI의 POI 데이터에 따라, 상기 새로운 채널 데이터를 생성하는 새로운 채널 데이터 생성 서브 유닛;을 포함하는,
    것을 특징으로 하는 건축물 추출 장치.
  15. 제14항에 있어서,
    상기 새로운 채널 데이터 생성 서브 유닛은,
    각각의 화소에 대해, 상기 주변 POI의 텍스트 데이터에 따라 POI 토픽 벡터를 생성하고, 각 화소의 POI 토픽 벡터에 따라 상기 새로운 채널 데이터를 생성하는 POI 벡터 생성 슬레이브 유닛; 및,
    각 화소의 주변 POI를 통계하고, 통계 결과에 따라 상기 새로운 채널 데이터를 생성하는 POI 통계 슬레이브 유닛;을 포함하는,
    것을 특징으로 하는 건축물 추출 장치.
  16. 제13항에 있어서,
    상기 사용자 행위 관련 데이터에 상기 포지셔닝 데이터가 포함될 경우, 상기 화소 매핑 유닛은,
    상기 포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 각 화소에 관련되는 포지셔닝 포인트의 체류 카테고리를 결정하되, 상기 체류 카테고리는 상주 카테고리 및 비상주 카테고리를 포함하는 체류 카테고리 결정 슬레이브 유닛; 및,
    각 화소에 관련되는 체류 카테고리에 따라, 상기 새로운 채널 데이터를 생성하는 새로운 채널 데이터 생성 슬레이브 유닛;을 포함하는,
    것을 특징으로 하는 건축물 추출 장치.
  17. 제16항에 있어서,
    상기 새로운 채널 데이터 생성 슬레이브 유닛은,
    체류 카테고리에 따라, 각 화소에 관련되는 포지셔닝 포인트를 통계하고, 통계 결과에 따라 상기 새로운 채널 데이터를 생성하는 체류 카테고리 통계 서브 슬레이브 유닛;을 포함하는,
    것을 특징으로 하는 건축물 추출 장치.
  18. 제13항에 있어서,
    상기 사용자 행위 관련 데이터에 상기 포지셔닝 데이터가 포함될 경우, 상기 화소 매핑 유닛은,
    상기 포지셔닝 데이터 중 각 포지셔닝 포인트의 분포 상황에 따라, 상기 원격 감지 이미지 데이터의 각 화소에 관련되는 포지셔닝 데이터를 결정하는 화소 관련 포지셔닝 데이터 결정 슬레이브 유닛; 및,
    각 화소에 관련되는 포지셔닝 데이터 중의 포지셔닝 포인트 수량 및 포지셔닝 사용자 수량 중 적어도 하나를 통계하고, 통계 결과에 따라 상기 새로운 채널 데이터를 생성하는 포지셔닝 데이터 통계 슬레이브 유닛;을 포함하는,
    것을 특징으로 하는 건축물 추출 장치.
  19. 제13항에 있어서,
    상기 사용자 행위 관련 데이터에 검색 데이터가 포함될 경우, 상기 화소 매핑 유닛은,
    검색 데이터의 포지셔닝 정보에 따라, 상기 원격 감지 이미지 데이터의 각 화소에 관련되는 키워드 조합의 검색 횟수를 결정하는 검색 횟수 결정 슬레이브 유닛; 및,
    각 화소에 관련되는 검색 횟수에 따라, 상기 새로운 채널 데이터를 생성하는 검색 카테고리 결정 슬레이브 유닛;을 포함하는,
    것을 특징으로 하는 건축물 추출 장치.
  20. 제11항에 있어서,
    상기 건축물 추출 모듈은,
    상기 원격 감지 이미지 데이터 및 상기 새로운 채널 데이터를 미리 트레이닝된 건축물 추출 모델에 입력하여, 상기 타겟 영역 중의 건축물을 추출하는 건축물 추출 유닛;을 포함하는,
    것을 특징으로 하는 건축물 추출 장치.
  21. 전자 기기에 있어서,
    적어도 하나의 프로세서; 및,
    상기 적어도 하나의 프로세서와 통신 가능하게 연결되는 메모리;를 포함하고,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행됨으로써 상기 적어도 하나의 프로세서에 의해 제1항 내지 제10항 중 어느 한 항의 건축물 추출 방법이 수행되도록 하는,
    것을 특징으로 하는 전자 기기.
  22. 컴퓨터 명령이 저장되어 있는 비 일시적 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제1항 내지 제10항 중 어느 한 항의 건축물 추출 방법을 수행하도록 하는,
    것을 특징으로 하는 컴퓨터 명령이 저장되어 있는 비 일시적 컴퓨터 판독 가능 저장 매체.
  23. 컴퓨터 판독 가능 저장 매체에 저장되어 있는 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램중의 명령이 실행될 경우, 제1항 내지 제10항 중 어느 한 항의 건축물 추출 방법이 실행되는,
    것을 특징으로 하는 컴퓨터 판독 가능 저장 매체에 저장되어 있는 컴퓨터 프로그램.
KR1020210104526A 2020-09-11 2021-08-09 건축물 추출 방법, 장치, 기기 및 저장 매체 KR20210106395A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010952905.4A CN111915608B (zh) 2020-09-11 2020-09-11 建筑物提取方法、装置、设备和存储介质
CN202010952905.4 2020-09-11

Publications (1)

Publication Number Publication Date
KR20210106395A true KR20210106395A (ko) 2021-08-30

Family

ID=73267076

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210104526A KR20210106395A (ko) 2020-09-11 2021-08-09 건축물 추출 방법, 장치, 기기 및 저장 매체

Country Status (5)

Country Link
US (1) US20210240983A1 (ko)
EP (1) EP3968224A1 (ko)
JP (1) JP7289337B2 (ko)
KR (1) KR20210106395A (ko)
CN (1) CN111915608B (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113076803B (zh) * 2021-03-03 2022-09-30 中山大学 一种基于高分辨率遥感影像的建筑物矢量提取方法及系统
CN116069436B (zh) * 2023-03-17 2023-07-21 阿里巴巴达摩院(杭州)科技有限公司 遥感图像的处理方法、电子设备以及存储介质
CN117115641B (zh) * 2023-07-20 2024-03-22 中国科学院空天信息创新研究院 建筑物信息提取方法、装置、电子设备及存储介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3568621B2 (ja) * 1995-04-20 2004-09-22 株式会社日立製作所 地図表示装置
US6553308B1 (en) * 1999-04-29 2003-04-22 Donnelly Corporation Vehicle-based navigation system with smart map filtering, portable unit home-base registration and multiple navigation system preferential use
WO2006078310A2 (en) * 2004-06-25 2006-07-27 Digitalglobe, Inc. Method and apparatus for determining a location associated with an image
JP4774816B2 (ja) * 2005-04-07 2011-09-14 ソニー株式会社 画像処理装置,画像処理方法,およびコンピュータプログラム。
US10872322B2 (en) * 2008-03-21 2020-12-22 Dressbot, Inc. System and method for collaborative shopping, business and entertainment
US8825387B2 (en) * 2008-07-25 2014-09-02 Navteq B.V. Positioning open area maps
US9836881B2 (en) * 2008-11-05 2017-12-05 Hover Inc. Heat maps for 3D maps
US9031971B2 (en) * 2010-07-23 2015-05-12 Qualcomm Incorporated Flexible data download models for augmented reality
US20130300740A1 (en) * 2010-09-13 2013-11-14 Alt Software (Us) Llc System and Method for Displaying Data Having Spatial Coordinates
US20150117796A1 (en) * 2011-03-28 2015-04-30 Google Inc. Method and system for prioritizing points of interest for display in a map
US9317921B2 (en) * 2014-07-10 2016-04-19 Qualcomm Incorporated Speed-up template matching using peripheral information
CN107667366B (zh) * 2015-03-24 2021-12-28 开利公司 用于捕获和分析多维建筑物信息的系统和方法
KR102407765B1 (ko) * 2015-06-24 2022-06-10 삼성전자 주식회사 전자 장치 및 전자 장치의 파노라마 영상 표시 제어 방법
KR101641672B1 (ko) * 2015-07-21 2016-07-21 (주)디자인비아트 휴대단말기를 이용한 건축 모형 실행의 증강 현실 시스템
CN105279372B (zh) * 2015-09-29 2018-12-14 百度在线网络技术(北京)有限公司 一种确定建筑物高度的方法和装置
WO2017220169A1 (en) * 2016-06-24 2017-12-28 Swiss Reinsurance Company Ltd. Autonomous or partially autonomous motor vehicles with automated risk-controlled systems and corresponding method thereof
US10275687B2 (en) * 2017-02-16 2019-04-30 International Business Machines Corporation Image recognition with filtering of image classification output distribution
WO2018197585A1 (en) * 2017-04-26 2018-11-01 Skansense S.L.U. Identifying targets within images
JP2019056956A (ja) * 2017-09-19 2019-04-11 株式会社ナビタイムジャパン 情報処理システム、情報処理プログラム、情報処理装置及び情報処理方法
CN107861938B (zh) * 2017-09-21 2020-09-25 北京三快在线科技有限公司 一种poi文案生成方法及装置,电子设备
JP2019101783A (ja) * 2017-12-04 2019-06-24 キヤノン株式会社 情報処理装置及び方法
JP6725718B2 (ja) * 2018-03-12 2020-07-22 ネイバー コーポレーションNAVER Corporation 位置基盤情報探索方法およびコンピュータ装置
US10462359B1 (en) * 2018-04-13 2019-10-29 Adobe Inc. Image composition instruction based on reference image perspective
US11280621B2 (en) * 2019-01-04 2022-03-22 International Business Machines Corporation Navigation using a device without global positioning system assistance
US11676344B2 (en) * 2019-11-12 2023-06-13 MFTB Holdco, Inc. Presenting building information using building models
CN111126482B (zh) * 2019-12-23 2020-11-13 自然资源部国土卫星遥感应用中心 一种基于多分类器级联模型的遥感影像自动分类方法
CN111563448B (zh) * 2020-04-30 2023-10-31 北京百度网讯科技有限公司 一种违章建筑物检测方法、装置、电子设备和存储介质
US11343636B2 (en) * 2020-06-24 2022-05-24 Here Global B.V. Automatic building detection and classification using elevator/escalator stairs modeling—smart cities

Also Published As

Publication number Publication date
CN111915608A (zh) 2020-11-10
CN111915608B (zh) 2023-08-15
JP7289337B2 (ja) 2023-06-09
EP3968224A1 (en) 2022-03-16
US20210240983A1 (en) 2021-08-05
JP2021192261A (ja) 2021-12-16

Similar Documents

Publication Publication Date Title
KR20210106395A (ko) 건축물 추출 방법, 장치, 기기 및 저장 매체
EP3819791A2 (en) Information search method and apparatus, device and storage medium
US20210312139A1 (en) Method and apparatus of generating semantic feature, method and apparatus of training model, electronic device, and storage medium
US20210200947A1 (en) Event argument extraction method and apparatus and electronic device
US20220019341A1 (en) Map information display method and apparatus, electronic device, and computer storage medium
CN111259671B (zh) 文本实体的语义描述处理方法、装置及设备
US20210356290A1 (en) Method and apparatus for recommending point of interest, device, and medium
KR20210038859A (ko) 검색 방법, 장치, 전자기기 및 저장매체
KR20220092624A (ko) 지리적 위치 포인트 공간 관계를 추출하는 방법, 추출 모델을 트레이닝하는 방법 및 장치
KR20210132578A (ko) 지식 그래프를 구축하는 방법, 장치, 기기 및 저장 매체
US20210390254A1 (en) Method, Apparatus and Device for Recognizing Word Slot, and Storage Medium
JP2021111334A (ja) 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器
JP7206514B2 (ja) 地理位置点のソート方法、ソートモデルの訓練方法及び対応装置
CN110019617A (zh) 地址标识的确定方法和装置、存储介质、电子装置
CN113127669B (zh) 广告配图方法、装置、设备和存储介质
JP7298090B2 (ja) 地理位置点の空間関係を抽出する方法及び装置
KR20230132350A (ko) 연합 감지 모델 트레이닝, 연합 감지 방법, 장치, 설비 및 매체
JP7241122B2 (ja) スマート応答方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
CN113160693A (zh) 一种道路路口的处理方法、装置、设备和存储介质
CN110781657A (zh) 导航播报的管理方法、装置及设备
WO2021104274A1 (zh) 图文联合表征的搜索方法、系统、服务器和存储介质
KR20190011176A (ko) 속성 언어를 이용한 검색 방법 및 장치
US20220172310A1 (en) House-renting recommendation method, electronic device and storage medium
CN112652298A (zh) 语音识别方法、装置、电子设备和存储介质
CN113255398A (zh) 兴趣点判重方法、装置、设备和存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal