KR20120100737A - 건물의 층수 결정 - Google Patents

건물의 층수 결정 Download PDF

Info

Publication number
KR20120100737A
KR20120100737A KR1020120016235A KR20120016235A KR20120100737A KR 20120100737 A KR20120100737 A KR 20120100737A KR 1020120016235 A KR1020120016235 A KR 1020120016235A KR 20120016235 A KR20120016235 A KR 20120016235A KR 20120100737 A KR20120100737 A KR 20120100737A
Authority
KR
South Korea
Prior art keywords
building
predefined
floors
deviations
deviation
Prior art date
Application number
KR1020120016235A
Other languages
English (en)
Inventor
마르크 스트라쎈 버그-플레시아크
Original Assignee
하만 베커 오토모티브 시스템즈 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 하만 베커 오토모티브 시스템즈 게엠베하 filed Critical 하만 베커 오토모티브 시스템즈 게엠베하
Publication of KR20120100737A publication Critical patent/KR20120100737A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Instructional Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 건물의 이미지 데이터에 근거하여 건물의 층수를 결정하기 위한 방법에 관한 것으로, 그 방법은, 이미지 데이터에 나타낸 건물 정면의 배경색을 결정하는 단계, 건물 정면의 배경색으로부터 미리 정의된 편차를 검출하는 단계, 건물 정면의 수직 방향에서 미리 정의된 편차의 평균 수를 결정하는 단계, 및 결정된 미리 정의된 편차의 평균 수에 근거하여, 결정된 평균 수에 대응하는 건물의 층수를 추정하는 단계를 포함한다.

Description

건물의 층수 결정{Floor Number Determination in Buildings}
본 발명은 건물의 층수 결정 방법과 층수 결정 모듈에 관한 것이다.
차량 운전자를 위해 운전 권고를 제공하는 네비게이션 시스템은 오래전에 알려졌다. 이들 네비게이션 시스템은 운전 방향을 지시하는 화살표를 단순히 표시함으로써 운전 권고를 제공할 수 있다. 또한, 도로망을 보여주는 맵 데이터는 운전자에게 조감도로 표시될 수 있다. 권고된 경로는 운전 권고와 함께 표시된 도로망 상에 하이라이트 표시될 수 있다.
최근에 표시되는 네비게이션 정보는 더욱 사용하기 쉬워지고, 운전자에게 보이도록 디스플레이 상에 3차원 장면을 표시하는 것이 알려져 있다. 이 맥락에서 도로 주변 건물은 도로에 부가하여 표시된다.
차량 주변을 포함한 도로망의 이미지 데이터를 포함하는 데이터베이스가 존재한다. 이러한 이미지 데이터에서 건물 또는 기념비적인 건축물들이 도로로부터 보이도록 나타낸다. 큰 지역에서의 주변 이미지를 제공하기 위하여 필요로 하는 데이터의 량은 매우 많고, 건물의 정면(facade)을 나타내는 빌딩의 묘사는 보통 약 2메가 픽셀을 포함한다. 이런 세부 이미지 데이터는 전체 국가 또는 전체 대륙의 맵 데이터를 포함하는 차량과 결합된 네비게이션 시스템과 관련하여 사용될 수 없다. 동시에 차량 주변의 3차원 표현은 3차원 표현이 보여 진 맵 데이터의 사용자가 표시된 건물이 윈도우 밖의 보이는 현실과 비교되는 때에 차량 주변의 보여지는 표시된 건물을 최소한 인식할 수 있게 하는데 필요하다. 이것은 표시된 건물의 층수가 실제 건물의 층수에 대응할 때 가능하다.
따라서, 이미지 데이터 상에 나타내는 건물의 층수를 현실성 있게 효율적으로 제공할 필요가 있다.
이 필요는 독립 청구항의 특징에 의해 접하게 된다. 종속항에 본 발명의 바람직한 실시예가 기술된다.
발명의 제1 관점에 따르면, 건물의 이미지 데이터에 근거하여 건물의 층수를 결정하기 위한 방법이 제공되고, 그 방법은 이미지 데이터에 나타낸 건물 정면의 배경색을 결정하는 단계를 포함한다. 또한, 배경색으로부터의 미리 정의된 편차가 건물의 정면에서 검출되고, 건물 정면의 수직 방향에서 미리 정의된 편차의 평균 수가 검출된 미리 정의된 편차에 근거하여 결정된다. 결정된 미리 정의된 편차의 평균 수에 근거하여 건물의 층수가 추정될 수 있고, 층수는 결정된 평균 수에 대응한다. 정면의 배경색, 텍스쳐(texture)는, 용이하게 결정될 수 있다. 정면의 창문 또는 도어는 정면에 비교하여 상이한 색을 갖는다. 정면의 배경색에 창문 또는 도어의 형태를 갖는 미리 정의된 편차가 검출될 때, 정면의 창문 또는 도어가 검출된다. 수직 방향 평균 수에서의 창문/도어의 수로부터, 평균 수는 층수에 대응하여 매우 유사하게 산출될 수 있다. 건물의 층수가 평면도와 함께 알려지는 때에, 건물의 개략도가 실제 건물의 모습과 유사하게 생성될 수 있다.
일 실시예에 의하면, 미리 정의된 편차는 건물의 정면을 복수의 수직 섹션으로 분할함으로써 결정될 수 있다. 배경색으로부터의 미리 정의된 편차는 각 수직 섹션에 대하여 결정될 수 있고, 미리 정의된 편차의 평균 수는 여러 수직 섹션에 대해 결정된 각각의 미리 정의된 편차에 근거하여 결정될 수 있다. 정면의 여러 섹션에서 미리 정의된 편차의 수를 결정함으로써, 결정된 평균 수가 층수에 대응할 가능성이 좀더 증가 된다.
미리 정의된 편차가 검출되지 않은 복수의 수직 섹션 내에서 미리 정의된 편차 없는 제1 수직 섹션들을 결정함으로써, 부가적으로 평균 수 결정을 할 가능성이 있다. 이러한 미리 정의된 편차 없는 제1 수직 섹션들은 평균 편차의 결정으로부터 제외될 수 있다. 창문 또는 도어 없는 제1 수직 섹션이 검출된다. 그러한 수직 섹션은 창문 없는 정면을 주로 나타낸다. 이 섹션의 미리 정의된 편차의 수가 평균 편차의 결정에 포함되면, 계산된 평균 수는 층수에 대응하지 않을 것이다.
복수의 수직 섹션 내에서의 제2 수직 섹션이, 미리 정의된 편차의 수가 다른 수직 섹션에서 결정된 미리 정의된 편차의 수와 임계치 이상으로 다른 경우에 결정됨으로써, 평균 수의 결정을 더욱 향상시킬 다른 가능성이 있다. 다른 수직 섹션에서 결정되는 미리 정의된 편차의 수를 결정하기 위하여, 편차 없는 제1 수직 섹션은 미리 제외될 수 있다. 이러한 제2 수직 섹션은 평균 수의 결정으로부터 제외될 수도 있다. 이 제2 수직 섹션의 제외는 층수 결정의 신뢰도를 좀더 향상시키는데 도움이 된다. 예를 들어, 정면은 1개의 창문만이 4층 또는 5층 건물 수직 방향에 제공된 섹션을 포함할 수 있다. 이 수직 섹션이 평균 수의 결정을 위하여 고려되면, 그 결과는 왜곡될 것이다. 그 결과, 이러한 제2 수직 섹션이 평균 수의 결정으로부터 제외될 때, 층수 결정의 정확도는 더 향상된다.
정면의 색에서의 편차가 검출된 창문에 대응하는지를 결정하기 위하여, 미리 정의된 형태가 결정되고, 검출된 편차는 미리 정의된 편차와 비교될 수 있다. 예를 들어, 편차가 미리 정의된 범위 이내인 높이 대 폭의 비율을 갖는 직사각형 일 때 편차는 미리 정의된 편차인 것으로 간주된다. 범위를 결정함으로써, 상이한 창문 포맷이 창문의 검출에 포함될 수 있다.
층수가 결정된 때에, 층수를, 생성된 건물의 그래픽 표현을 허용하는 건물의 다른 정보와 함께, 저장하는 것이 가능하다. 그래픽 표현의 층수가 실제에 대응하는 때에, 그래픽 표현이 보여진 사용자는 표시된 건물을 용이하게 인식할 수 있다.
층수가 건물의 평면도와 함께 연관되어 저장되는 때에 건물의 사실적인 표현을 허용하는 건물 데이터를 감소 된 저장용량으로 저장할 가능성이 있다. 평면도와 층수에 근거하여 건물의 현실적인 표현이 생성될 수 있다.
또한, 그것은, 층수를 알고서, 층수가 수직 인접한 미리 정의된 편차 간의 거리와 층수에 근거하여 건물 정면의 상이한 층수를 결정하는 경우에, 가능하다. 이 지식을 이용하여, 이 건물의 표시 이미지는 건물의 각 층을 위한 상이한 텍스쳐(textures)로 생성될 수 있다. 표시된 정보가 네비게이션 목적으로 이용될 때, 그리고 사용자에 의해 지시된 목적지가 어떤 층에 위치하는 때에, 목적지 위치가 위치된 곳에서 디스플레이에 층을 표시하는 것이 가능하다.
2개의 수직 인접 편차 간의 거리를 결정하여 두 층간의 경계를 결정함으로써 상이한 층을 결정할 가능성이 있고, 경계는 2개의 수직 인접 편차 간의 절반 거리에서 결정된다.
발명은 건물의 이미지 데이터에 근거하여 건물의 층수를 결정하기 위한 모듈에도 관련되며, 모듈은 이미지 데이터에 나타낸 건물 정면의 배경색을 결정하도록 구성된 프로세싱 유닛을 포함한다. 프로세싱 유닛은 건물 정면의 배경색으로부터 미리 정의된 편차를 검출하도록 더 구성되고, 건물 정면의 수직방향에서 미리 정의된 편차의 평균 수를 결정하도록 구성된다. 또한, 프로세싱 유닛은 결정된 평균 수에 근거하여 건물의 층수를 추정하도록 설계되고, 층수는 결정된 평균 수에 대응한다. 프로세싱 유닛은 이상 및 이하에서 좀더 상세히 논의된 바와 같이 평균 수를 결정할 수 있다.
본 발명은 이미지 데이터 상에 나타내는 건물의 층수를 현실성 있게 효율적으로 제공할 수 있게 된다.
도 1은 건물의 이미지 데이터를 사용한 층수의 결정을 허용하는 모듈의 개략도를 도시하고,
도 2는 층수를 결정하기 위하여 도 1의 모듈에 의해 수행되는 주요 단계를 포함하는 흐름도를 도시하고,
도 3은 건물 정면의 개략도를 도시하고, 정면의 배경색으로부터 평균 편차가 어떻게 결정되는 지를 보여주고,
도 4는 상이한 층이 도시된 표시 건물의 개략도이고,
도 5는 정면의 이미지가 어떻게 배경색과 창문을 알 수 있도록 생성되는지를 개략적으로 도시한 것이다.
도 1에, 이미지 데이터에 나타낸 건물의 층수가 고 정확도로 결정될 수 있는 모듈(10)을 개략적으로 도시하였다. 모듈은 건물의 이미지 데이터를 포함하는 데이터베이스(12)에 연결된다. 이 이미지 데이터는 주변으로부터 이미지를 획득하는 반면 도로망 상의 차량 운전에 의해 생성될 수 있다. 이미지 데이터는 비행기 또는 비행체를 사용하여 더 생성될 수 있다. 이미지 데이터를 포함하는 데이터베이스는 모듈(10)에 직접 연결될 수 있다. 다른 실시예에서, 데이터베이스(12)는 모듈(10)로부터 이격되어 위치될 수 있고 모듈(10)에 일부 전송될 수 있다.
모듈은 사용자를 미리 정한 목적지로 안내하기 위한 네비게이션 시스템용으로 사용되는 바와 같은 맵 정보를 포함하는 맵 데이터(13)에 더 연결된다. 맵 데이터는 도로망을 포함하고, 그 중에서도 건물을 포함하는 도로 주변에 관한 정보를 부가적으로 포함할 수 있다. 예를 들어, 데이터베이스(13)는 도로망에 부가하여 건물의 평면도를 포함할 수 있다. 모듈(10)은 데이터베이스(12)에 포함된 이미지 데이터를 이용하여 건물의 층수를 결정하도록 구성된 프로세싱 유닛(11)을 포함한다. 건물의 층수 결정은 도 2 내지 도 5를 참조하여 좀더 상세히 논의될 것이다. 층수가 프로세싱 유닛에 의해 결정될 때, 건물의 층수는 데이터베이스(13)에 포함된 맵 데이터에 추가될 수 있다. 도로망, 건물의 층수 및, 대응하는 층수를 포함하는 맵 데이터는 네비게이션 시스템과 연관되어 사용될 수 있다. 도 1에 나타낸 시스템은 네비게이션 시스템의 부분일 수 있다. 그러나, 맵 데이터 또는 모듈(10)에 의해 결정된 층 데이터는 추가 사용을 위하여 네비게이션 시스템에 제공될 가능성도 있다.
층수의 결정을 위한 방법은 아래에서 도 2 및 도 3을 참조하여 좀더 상세히 논의된다. 도 3에, 데이터베이스(12)에 저장된 이미지의 일 예가 좀더 상세히 도시되었다. 그 이미지는 정면(31)을 갖는 주택(300)을 나타낸다. 실시예에서 나타낸 건물은 상이한 3개 층을 구비하고 직사각형 평면도를 구비한다.
도 2와 관련되어, 이미지 데이터에 근거하여 층수를 결정하기 위하여 수행되는 단계가 좀더 상세히 논의된다. 방법은 단계 S20에서 시작하고, 제1 단계에서 정면이 건물에서 확인된다. 도 3으로부터 알 수 있는 바와 같이, 주택의 정면(31)은 이미지 데이터에서 모서리를 검출 가능한 알려진 후처리 알고리즘(예를 들어, 캐니필터(Canny filter) 또는 가우시안 필터(Gaussian filter))을 이용하여 이미지에서 결정될 수 있다. 예를 들어, 전면 정면(31)은 보통 수평선인 처마홈통(33)에 의해 지붕(32)에 대한 범위가 결정된다. 해당 기술분야에서 알려진 모서리 검출 알고리즘을 이용하여, 이미지는 좌측 및 우측 경계(34),(35) 같은 정면의 경계가 검출될 수 있는 방식으로 처리될 수 있다. 이러한 경계들은 처마홈통과 함께 정면을 형성한다(단계 S21). 다음 단계에서 정면의 배경색이 정면의 텍스쳐에 대응하는 정면의 RGB 값을 결정함으로써 결정된다(단계 S22). 그러므로, 정면은 직사각형 경계에서 단일색 표면을 검출함으로써 이미지에서 검출될 수 있다. 다른 실시예에서, 균일 텍스쳐는 정면이 균일 색을 가질 필요없이 상이한 색의 균일 패턴을 가질 수 있기 때문에 검출된다. 도시 지역에서 인접 건물은 흔히 각각 연결된다. 2개의 인접 건물을 구별할 수 있게 하기 위하여, 다음의 사실들이 고려될 수 있되, 건물의 높이, 정면의 상이한 색, 상이한 형태 및 청문의 배열, 및/또는 도로에 대한 건물의 상이한 거리가 고려될 수 있다.
도 3에서 알 수 있는 바와 같이, 정면은 상이한 섹션(36a~36h)과 같은 상이한 수직 섹션(36)으로 분할된다(단계 S23). 상이한 섹션은 배경색으로부터 편차를 검출하기 위하여 더 처리된다. 이미지에 나타낸 창문(37) 또는 도어(38)는 배경보다 상이한 색을 가질 것이다. 정육면체 형태를 갖는 암호화된 공간을 사용하면 색을 결정할 가능성이 있다. 이 공간에서의 색은 3개 파라메터 L, a, b에 의해 묘사된다. L은 점의 밝기를 묘사하되, 최대값(Lmax)은 흰색을 표현하고, 최소값(Lmin)은 검정색을 묘사한다. 파라메터 a, b는 경계를 갖지 않되, 양수(positive)의 a는 적색을 표시하는 반면, 음수(negative)의 a는 녹색을 표현한다. 양수의 b는 황색을 표시하고, 음수의 b는 파란색을 표시한다. 섹션(36a)에서 단속 선을 갖는 것으로 표시된 표면이 검출될 것이다. 검출된 편차는 그때 분류되고, 검출된 편차가 미리 정의된 형태에 대응하는 형태를 가지면, 편차는 건물의 층수를 결정하기 위해 사용되는 미리 정의된 편차로서 분류된다. 예를 들어, 편차가 대체로 직사각형 형태를 가지면 정면에서 발견된 편차는 미리 정의된 편차로 간주 된다. 또한, 높이 대 폭의 비율에 대한 어떤 범위가 결정될 수 있다. 예를 들어, 직사각형이고 2:1과 1:8 사이의 높이 대 폭의 비율을 갖는 모든 편차는 창문 또는 도어로서 분류될 수 있다. 그러나, 편차는 둥근 형태 또는 도 3에 나타낸 바와 같은 도어에 대한 경우처럼(여기서, 도어(38)는 상부에서 직사각형이 아님) 상부를 제외하고 직사각형인 형태 같은 다른 형태가 검출될 때 미리 정의된 편차로 간주 될 수 있다(단계 S24). 편차의 수가 각 수직 섹션(36a~36h)에 대해 검출된다. 도 3에서 알 수 있는 바와 같이, 섹션(36c, 36g)에서 미리 정의된 편차의 해상도 이하로 떨어진 편차를 발견할 수 없다.
실시예에서 보여 진 각 섹션에 대해 발견된 미리 정의된 편차의 수는 다음과 같다.
Figure pat00001
3개의 미리 정의된 편차가 섹션(36a, 36b, 36f)에 대한 수직 방향에서 검출되고, 미리 정의된 편차가 섹션(36c, 36g)에서 검출되지 않고, 4개의 미리 정의된 편차가 섹션(36d)에서 검출되고, 1개의 미리 정의된 편차가 섹션(36e, 36h)에서 검출된다. 각 섹션에서 발견되는 미리 정의된 편차의 수에 근거하여 층수가 추정될 수 있다. 이를 위하여, 미리 정의된 편차가 검출되지 않은 수직 섹션이 확인되고(실시예에서 보인 섹션(36c, 36g)), 이러한 섹션들은 계산으로부터 제외된다(단계 S25). 또한, 오직 1개의 편차가 발견된 2개의 섹션(36e, 36h)이 발견되는 반면, 3개 또는 4개의 편차가 다른 나머지 섹션에서 발견된다. 단계 S25에서 편차 없는 섹션을 제외한 후에, 편차의 수가 다른 섹션에서 발견된 편차의 수와 크게 다른 섹션은 제외된다. 이 비교를 위하여, 편차가 발견되지 않은 섹션은 미리 제외된다. 그러므로, 미리 정의된 편차가 발견된 수직 섹션은 각각 비교되고, 발견된 편차의 수가 다른 섹션에서 발견된 편차의 수와 미리 정의된 임계치(여기서, 2개) 이상으로 상이하면, 해당 섹션은 역시 제외된다(단계 S26). 그러므로, 실시예에서 보인 섹션(36e, 36h)은 계산으로부터 제외된다. 나머지 섹션(섹션 36a, 36b, 36d, 36f)은 미리 정의된 편차의 평균 수를 결정하기 위하여 사용될 수 있다. 실시예에서 보인 나머지 섹션에서의 미리 정의된 편차의 수는 3, 3, 4, 3과 같다. 나머지 섹션에 대한 편차의 수는 나타낸 실시예에서 3.25이다. 평균 수는 다음 정수(실시예에서 나타낸 3)를 취함으로써 평균에 근거하여 계산된다. 계산된 평균이 3.8 또는 3.9이면 수 4가 평균 편차로서 결정될 것이다. 그러므로, 결정된 평균에 근접하여 위치한 다음 정수가 평균 수로서 사용된다(단계 S27). 예에서 나타낸 미리 정의된 편차(창문 또는 도어)의 계산된 수는 3이다. 다음 단계에서 층수는 결정된 평균 수로부터 추정될 수 있는데, 층수는 단순히 평균 수에 대응하고, 실시예에서 3으로 나타내었다(단계 S28). 단계 S28에서 결정된 계산이 도 3에 나타낸 도면과 비교될 때, 정확한 층수가 이미지 처리로부터 추정될 수 있다. 단계 S29에서, 층수는 다른 정보와 함께(예를 들어, 평면도와 함께) 맵 데이터베이스(13)에 저장될 수 있다. 방법은 단계 S30에서 종료된다. 실시예에서 보인 평균 편차는 결정된 평균을 다음 정수로 반올림함으로써 결정된다.
도 4와 관련된 실시예는 알려진 평면도(41)를 갖고 있는 건물(40)이 표시된 경우를 도시하고 있다. 층수가 도 2 및 도 3과 관련하여 상술한 바와 같이 결정된 것으로 가정한다. 실시예에서 나타낸 결정된 층수는 4이다. 도 1에 나타낸 프로세싱 유닛은 1층 정보와 층수 관련 정보를 이용하여 이미지 데이터를 생성하도록 더 구성될 수 있다. 이들 두 정보를 이용하여 건물이 어떤 모습인지의 사실적인 표현이 얻어진다.
또한, 프로세싱 유닛(11)은 결정된 층수의 지식과 검출된 미리 정의된 편차를 이용하여 건물의 상이한 층을 결정하도록 구성될 수 있다. 도 4에 나타낸 실시예에서 2개의 창문(42, 43)이 도시되었다. 이들 2개의 창문은 상술한 바와 같이 미리 정의된 편차로서 검출된다. 수직 방향에서의 2개의 인접 창문이 확인되는 때, 2개의 인접 창문 간의 거리가 이미지 데이터에서 결정될 수 있다. 이 지식을 이용하여, 2개 층간 경계가 2개 창문(42, 43) 간 거리의 절반을 취함으로써 결정될 수 있다. 이 2개 층간 경계의 결정을 위하여, 수직 섹션은 미리 정의된 편차의 수가 결정되는 층수 또는 평균 편차에 대응하는 경우에 사용될 수 있다. 이것은 하나의 건물에 대하여 상이한 경계 또는 잘못된 경계가 결정되는 것을 회피하는데 도움을 준다. 2개 층간 경계를 앎으로써, 상이한 층을 상이한 텍스쳐로 표시하는 것이 가능하다. 이것은 사용자가 상이한 층을 구별하는 것을 용이케 한다. 건물의 표시된 이미지가 네비게이션 시스템과 관련하여 사용되고, 원하는 목적지의 층수가 알려지면, 원하는 목적지가 위치된 층수를 상세히 표시하는 것이 가능하다.
결정된 층수 관련 정보와 배경색 정보는 다음의 방식으로 이미지 데이터를 저장하기 위하여 사용될 수도 있는데, 배경색, 정면의 색을 알고, 정면의 크기를 갖는 제1 계층이 결정된 배경색을 갖게 생성될 수 있다. 도 5에 나타낸 실시예에서 이 계층, 배경 텍스쳐가 참조 숫자 51로 표시되었다. 또한, 창문 또는 도어는 미리 정의된 편차의 검출을 이용하여 결정되었다. 제2 데이터 계층은 검출된 창문을 포함하여 생성될 수 있다. 도 5의 상부 오른쪽 부분에 창문 계층이 참조 숫자 52로 표시되었다. 이들 2개 계층은 도 5의 하부에 나타낸 이미지(53)와 같이 채색 표현을 발생하기 위해 결합 될 수 있다. 이 표현은 사용자에게 표시될 수 있다.
미리 정의된 편차가 정면에서 검출될 때, 창문 및 도어의 상이한 형태가 검출될 가능성이 있다. 상이한 형태는 라이브러리에 저장될 수 있고, 이 라이브러리는 정면에서 발견된 편차를 라이브러리에 저장된 알려진 미리 정의된 편차와 비교함에 의해 미리 정의된 편차를 구별하기 위하여 사용될 수 있다. 만일 검출된 형태가 미리 정의된 편차 이내로 떨어지지만 형태의 라이브러리에 아직 포함되어 있지 않으면, 새로이 발견된 편차의 형태가 라이브러리에 부가될 수 있고, 미리 정의된 편차인 것으로서 분류된다.
요약하면, 본 발명은 고 신뢰도 및 정확도로 이미지에 나타낸 건물의 층수를 결정할 수 있게 한다.
10; 모듈
11; 프로세싱 유닛
12; 이미지 데이터
13; 맵 데이터

Claims (11)

  1. 이미지 데이터에 나타낸 건물 정면의 배경색을 결정하는 단계,
    상기 건물 정면의 배경색으로부터 미리 정의된 편차를 검출하는 단계,
    상기 검출된 미리 정의된 편차에 근거하여 상기 건물 정면의 수직 방향에서 미리 정의된 편차의 평균 수를 결정하는 단계, 및
    상기 결정된 미리 정의된 편차의 평균 수에 근거하여 상기 건물의 층수를 추정하며, 상기 건물의 층수는 상기 결정된 미리 정의된 편차의 평균 수에 대응하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
  2. 제1항에 있어서,
    상기 미리 정의된 편차는 복수의 수직 섹션에서 상기 건물의 정면을 분할하여 결정되고, 상기 배경색으로부터의 상기 미리 정의된 편차는 각 수직 섹션에 대하여 결정되며, 상기 미리 정의된 편차의 평균 수는 여러 수직 섹션에 대해 결정된 각각의 상기 미리 정의된 편차에 근거하여 결정되는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
  3. 제2항에 있어서,
    상기 미리 정의된 편차의 평균 수를 결정하는 단계를 위해,
    상기 미리 정의된 편차가 검출되지 않은 복수의 수직 섹션 내에서 상기 미리 정의된 편차를 갖지 않는 제1 수직 섹션을 결정하는 단계, 및
    상기 미리 정의된 편차의 평균 수 결정으로부터 상기 미리 정의된 편차를 갖지 않는 제1 수직 섹션을 제외하는 단계를 수행하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
  4. 제2항 또는 제3항에 있어서,
    상기 미리 결정된 편차의 평균 수를 결정하는 단계를 위해,
    복수의 수직 섹션 내에서, 미리 정의된 편차의 수가 다른 수직 섹션에서 결정된 미리 정의된 편차의 수와 임계치 이상으로 상이한 제2 수직 섹션을 결정하는 단계, 및
    상기 미리 정의된 편차의 평균 수 결정으로부터 상기 제2 수직 섹션을 제외하는 단계를 수행하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
  5. 제1항 내지 제4항 중의 어느 한 항에 있어서,
    상기 정면에서의 편차는 상기 편차가 미리 정의된 범위 이내인 높이 대 폭 비율을 갖는 직사각형 일 때 미리 정의된 편차인 것으로 간주 되는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
  6. 제1항 내지 제5항 중의 어느 한 항에 있어서,
    상기 건물의 층수는 상기 건물의 그래픽 표현이 생성되도록 허용하는 상기 건물의 다른 정보와 연관되어 저장되는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
  7. 제6항에 있어서,
    상기 건물의 층수는 상기 건물의 평면도와 연관되어 저장되는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
  8. 제1항 내지 제7항 중의 어느 한 항에 있어서,
    상기 건물의 평면도 및 추정된 건물의 층수를 이용하여 상기 건물의 표시 이미지를 생성하는 단계를 더 포함하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
  9. 제1항 내지 제8항 중의 어느 한 항에 있어서,
    수직 인접한 미리 정의된 편차 간의 수직 거리 및 상기 추정된 건물의 층수에 근거하여 상기 건물 정면의 상이한 층을 결정하는 단계, 및
    상기 건물의 상이한 층 각각에 대하여 상이한 텍스쳐로 상기 건물의 표시 이미지를 생성하는 단계를 더 포함하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
  10. 제9항에 있어서,
    2개 층간의 경계는 2개의 수직 인접된 미리 정의된 편차 간의 거리를 결정함으로써 결정되며, 상기 경계는 2개의 수직 인접된 편차 간의 절반 거리가 되도록 결정되는, 건물의 이미지 데이터에 근거하여 건물의 층수를 결정하기 위한 방법.
  11. 이미지 데이터에 나타낸 건물 정면의 배경색을 결정하고, 상기 건물 정면의 배경색으로부터 미리 정의된 편차를 검출하도록 구성된 프로세싱 유닛을 포함하되,
    상기 프로세싱 유닛은 상기 건물 정면의 수직 방향에서 미리 정의된 편차의 평균 수를 결정하며, 상기 결정된 미리 정의된 편차의 평균 수에 근거하여 상기 건물의 층수를 추정하도록 더 구성되며, 상기 건물의 층수는 상기 결정된 미리 정의된 편차의 평균 수에 대응하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 모듈.
KR1020120016235A 2011-03-02 2012-02-17 건물의 층수 결정 KR20120100737A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP11156653A EP2495688A1 (en) 2011-03-02 2011-03-02 Floor Number Determination in Buildings
EP11156653.5 2011-03-02

Publications (1)

Publication Number Publication Date
KR20120100737A true KR20120100737A (ko) 2012-09-12

Family

ID=44721175

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120016235A KR20120100737A (ko) 2011-03-02 2012-02-17 건물의 층수 결정

Country Status (6)

Country Link
US (1) US8666158B2 (ko)
EP (1) EP2495688A1 (ko)
JP (1) JP2012181829A (ko)
KR (1) KR20120100737A (ko)
CN (1) CN102654918A (ko)
CA (1) CA2765326A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210137843A (ko) * 2020-05-11 2021-11-18 아주대학교산학협력단 건물 이미지를 이용한 창문 검출 방법 및 장치
KR102328105B1 (ko) * 2021-03-17 2021-11-18 주식회사 텐일레븐 건축물의 설계 방법
US11867495B2 (en) 2018-10-30 2024-01-09 Samsung Electronics Co., Ltd. Electronic device for providing image data using augmented reality and control method for same

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8078436B2 (en) 2007-04-17 2011-12-13 Eagle View Technologies, Inc. Aerial roof estimation systems and methods
US8145578B2 (en) 2007-04-17 2012-03-27 Eagel View Technologies, Inc. Aerial roof estimation system and method
US8170840B2 (en) 2008-10-31 2012-05-01 Eagle View Technologies, Inc. Pitch determination systems and methods for aerial roof estimation
US8209152B2 (en) 2008-10-31 2012-06-26 Eagleview Technologies, Inc. Concurrent display systems and methods for aerial roof estimation
US9911228B2 (en) 2010-02-01 2018-03-06 Eagle View Technologies, Inc. Geometric correction of rough wireframe models derived from photographs
EP2495688A1 (en) * 2011-03-02 2012-09-05 Harman Becker Automotive Systems GmbH Floor Number Determination in Buildings
US9599466B2 (en) 2012-02-03 2017-03-21 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US9933257B2 (en) 2012-02-03 2018-04-03 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US8774525B2 (en) * 2012-02-03 2014-07-08 Eagle View Technologies, Inc. Systems and methods for estimation of building floor area
US10663294B2 (en) 2012-02-03 2020-05-26 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area and producing a wall estimation report
US10515414B2 (en) 2012-02-03 2019-12-24 Eagle View Technologies, Inc. Systems and methods for performing a risk management assessment of a property
JP2013231634A (ja) * 2012-04-27 2013-11-14 Hitachi Consumer Electronics Co Ltd 位置情報提供システム、ナビゲーションシステム、及び端末装置
US10909482B2 (en) 2013-03-15 2021-02-02 Pictometry International Corp. Building materials estimation
US9959581B2 (en) 2013-03-15 2018-05-01 Eagle View Technologies, Inc. Property management on a smartphone
US11670046B2 (en) 2013-07-23 2023-06-06 Hover Inc. 3D building analyzer
US10861224B2 (en) 2013-07-23 2020-12-08 Hover Inc. 3D building analyzer
US10127721B2 (en) 2013-07-25 2018-11-13 Hover Inc. Method and system for displaying and navigating an optimal multi-dimensional building model
US9830681B2 (en) * 2014-01-31 2017-11-28 Hover Inc. Multi-dimensional model dimensioning and scale error correction
US9235775B2 (en) 2014-06-08 2016-01-12 Uber Technologies, Inc. Entrance detection from street-level imagery
US10133830B2 (en) * 2015-01-30 2018-11-20 Hover Inc. Scaling in a multi-dimensional building model
US10068336B1 (en) 2015-04-20 2018-09-04 Hrl Laboratories, Llc Generic frontal and side doorway detection with line tracking and vanishing point based verification
US9978149B1 (en) * 2015-04-20 2018-05-22 Hrl Laboratories, Llc System and method for door detection for corridor exploration
US11248908B2 (en) * 2017-02-24 2022-02-15 Here Global B.V. Precise altitude estimation for indoor positioning
US10503843B2 (en) 2017-12-19 2019-12-10 Eagle View Technologies, Inc. Supervised automatic roof modeling
US11496860B2 (en) 2020-04-22 2022-11-08 T-Mobile Usa, Inc. Developing a fingerprint map for determining an indoor location of a wireless device
US11832147B2 (en) 2020-04-22 2023-11-28 T-Mobile Usa, Inc. Profiling location information and network traffic density from telemetry data
US11758361B2 (en) * 2020-04-22 2023-09-12 T-Mobile Usa, Inc. Indoor localization based on acceleration events
CN111783211B (zh) * 2020-07-08 2024-04-30 武汉市测绘研究院 一种竣工单体建筑分层平面图自动化生成方法及生成系统
CN112183301B (zh) * 2020-09-23 2023-06-16 武汉大势智慧科技有限公司 一种建筑物楼层智能识别方法及装置
CN113590859A (zh) * 2021-08-05 2021-11-02 深圳须弥云图空间科技有限公司 用于建筑平面图展示的方法及相关设备
CN117332102B (zh) * 2023-11-30 2024-02-06 陕西建一建设有限公司 一种基于bim的建筑数据优化存储方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3547947B2 (ja) * 1997-08-11 2004-07-28 アルパイン株式会社 ナビゲーション装置における所在階数表示方法
JP4486175B2 (ja) * 1999-01-29 2010-06-23 株式会社日立製作所 立体地図表示装置および方法
JP4559555B2 (ja) * 1999-03-16 2010-10-06 株式会社日立製作所 立体地図表示方法およびナビゲーション装置
JP4094219B2 (ja) * 2000-09-19 2008-06-04 アルパイン株式会社 車載用ナビゲーション装置の立体地図表示方法
EP1855263B1 (en) * 2005-03-02 2012-08-15 Navitime Japan Co., Ltd. Map display device
JP2009511965A (ja) * 2005-10-17 2009-03-19 テレ アトラス ノース アメリカ インコーポレイテッド 強化地図を生成する方法
DE102007030781A1 (de) * 2006-10-11 2008-04-17 Gta Geoinformatik Gmbh Verfahren zur Texturierung virtueller dreidimensionaler Objekte
WO2008044913A1 (en) * 2006-10-13 2008-04-17 Tele Atlas B.V. System for and method of processing laser scan samples and digital photographic images relating to building façade
US8970579B2 (en) * 2007-07-27 2015-03-03 Procedural Ag Computer system and method for generating a 3D geometric model
US8531472B2 (en) * 2007-12-03 2013-09-10 Pictometry International Corp. Systems and methods for rapid three-dimensional modeling with real façade texture
WO2009080034A2 (en) * 2007-12-20 2009-07-02 3Djam Aps System and method for conversion and distribution of graphical objects
US9098926B2 (en) * 2009-02-06 2015-08-04 The Hong Kong University Of Science And Technology Generating three-dimensional façade models from images
US8798965B2 (en) * 2009-02-06 2014-08-05 The Hong Kong University Of Science And Technology Generating three-dimensional models from images
US9129432B2 (en) * 2010-01-28 2015-09-08 The Hong Kong University Of Science And Technology Image-based procedural remodeling of buildings
US9036915B2 (en) * 2010-01-29 2015-05-19 The Hong Kong University Of Science And Technology Architectural pattern detection and modeling in images
US8990049B2 (en) * 2010-05-03 2015-03-24 Honeywell International Inc. Building structure discovery and display from various data artifacts at scene
US9317133B2 (en) * 2010-10-08 2016-04-19 Nokia Technologies Oy Method and apparatus for generating augmented reality content
EP2495688A1 (en) * 2011-03-02 2012-09-05 Harman Becker Automotive Systems GmbH Floor Number Determination in Buildings

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11867495B2 (en) 2018-10-30 2024-01-09 Samsung Electronics Co., Ltd. Electronic device for providing image data using augmented reality and control method for same
KR20210137843A (ko) * 2020-05-11 2021-11-18 아주대학교산학협력단 건물 이미지를 이용한 창문 검출 방법 및 장치
KR102328105B1 (ko) * 2021-03-17 2021-11-18 주식회사 텐일레븐 건축물의 설계 방법

Also Published As

Publication number Publication date
CN102654918A (zh) 2012-09-05
CA2765326A1 (en) 2012-09-02
JP2012181829A (ja) 2012-09-20
EP2495688A1 (en) 2012-09-05
US20120224770A1 (en) 2012-09-06
US8666158B2 (en) 2014-03-04

Similar Documents

Publication Publication Date Title
KR20120100737A (ko) 건물의 층수 결정
US10235787B2 (en) Path side image in map overlay
US20230304823A1 (en) Navigation Method, Apparatus, and System
Moazzam et al. Metrology and visualization of potholes using the microsoft kinect sensor
US10102433B2 (en) Traveling road surface detection apparatus and traveling road surface detection method
Zhang Towards an operational system for automated updating of road databases by integration of imagery and geodata
CN104021388B (zh) 基于双目视觉的倒车障碍物自动检测及预警方法
CN102222236B (zh) 图像处理系统及位置测量系统
EP2074378B1 (en) System for and method of processing laser scan samples and digital photographic images relating to building facades
JP5936792B2 (ja) 建築限界測定図の作成装置、建築限界測定図データの作成装置および建築限界測定図の作成方法
JP6131704B2 (ja) 連続型道路分割体の検知方法及び連続型道路分割体の検知装置
EP2659458B1 (en) System and method for generating textured map object images
WO2008130219A1 (en) Method of and apparatus for producing road information
CA2678156A1 (en) Measurement apparatus, measurement method, and feature identification apparatus
Chen et al. Detection of building changes from aerial images and light detection and ranging (LIDAR) data
CN104349136A (zh) 三维侦测装置侦测影像的方法
JP5188429B2 (ja) 環境認識装置
JP2011170599A (ja) 屋外構造物計測装置及び屋外構造物計測方法
CN108573215A (zh) 道路反光区域检测方法、装置和终端
CN110346799A (zh) 一种障碍物检测方法及设备
CN109791607A (zh) 借助单应矩阵从摄像机的一系列图像中探测和验证对象
Janda et al. Road boundary detection for run-off road prevention based on the fusion of video and radar
CN112418081B (zh) 一种空地联合快速勘察交通事故的方法及系统
CN109115232A (zh) 导航的方法和装置
CN111192283A (zh) 一种限高杆检测和高度计算方法

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid