KR20120100737A - 건물의 층수 결정 - Google Patents
건물의 층수 결정 Download PDFInfo
- Publication number
- KR20120100737A KR20120100737A KR1020120016235A KR20120016235A KR20120100737A KR 20120100737 A KR20120100737 A KR 20120100737A KR 1020120016235 A KR1020120016235 A KR 1020120016235A KR 20120016235 A KR20120016235 A KR 20120016235A KR 20120100737 A KR20120100737 A KR 20120100737A
- Authority
- KR
- South Korea
- Prior art keywords
- building
- predefined
- floors
- deviations
- deviation
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Instructional Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
본 발명은 건물의 이미지 데이터에 근거하여 건물의 층수를 결정하기 위한 방법에 관한 것으로, 그 방법은, 이미지 데이터에 나타낸 건물 정면의 배경색을 결정하는 단계, 건물 정면의 배경색으로부터 미리 정의된 편차를 검출하는 단계, 건물 정면의 수직 방향에서 미리 정의된 편차의 평균 수를 결정하는 단계, 및 결정된 미리 정의된 편차의 평균 수에 근거하여, 결정된 평균 수에 대응하는 건물의 층수를 추정하는 단계를 포함한다.
Description
본 발명은 건물의 층수 결정 방법과 층수 결정 모듈에 관한 것이다.
차량 운전자를 위해 운전 권고를 제공하는 네비게이션 시스템은 오래전에 알려졌다. 이들 네비게이션 시스템은 운전 방향을 지시하는 화살표를 단순히 표시함으로써 운전 권고를 제공할 수 있다. 또한, 도로망을 보여주는 맵 데이터는 운전자에게 조감도로 표시될 수 있다. 권고된 경로는 운전 권고와 함께 표시된 도로망 상에 하이라이트 표시될 수 있다.
최근에 표시되는 네비게이션 정보는 더욱 사용하기 쉬워지고, 운전자에게 보이도록 디스플레이 상에 3차원 장면을 표시하는 것이 알려져 있다. 이 맥락에서 도로 주변 건물은 도로에 부가하여 표시된다.
차량 주변을 포함한 도로망의 이미지 데이터를 포함하는 데이터베이스가 존재한다. 이러한 이미지 데이터에서 건물 또는 기념비적인 건축물들이 도로로부터 보이도록 나타낸다. 큰 지역에서의 주변 이미지를 제공하기 위하여 필요로 하는 데이터의 량은 매우 많고, 건물의 정면(facade)을 나타내는 빌딩의 묘사는 보통 약 2메가 픽셀을 포함한다. 이런 세부 이미지 데이터는 전체 국가 또는 전체 대륙의 맵 데이터를 포함하는 차량과 결합된 네비게이션 시스템과 관련하여 사용될 수 없다. 동시에 차량 주변의 3차원 표현은 3차원 표현이 보여 진 맵 데이터의 사용자가 표시된 건물이 윈도우 밖의 보이는 현실과 비교되는 때에 차량 주변의 보여지는 표시된 건물을 최소한 인식할 수 있게 하는데 필요하다. 이것은 표시된 건물의 층수가 실제 건물의 층수에 대응할 때 가능하다.
따라서, 이미지 데이터 상에 나타내는 건물의 층수를 현실성 있게 효율적으로 제공할 필요가 있다.
이 필요는 독립 청구항의 특징에 의해 접하게 된다. 종속항에 본 발명의 바람직한 실시예가 기술된다.
발명의 제1 관점에 따르면, 건물의 이미지 데이터에 근거하여 건물의 층수를 결정하기 위한 방법이 제공되고, 그 방법은 이미지 데이터에 나타낸 건물 정면의 배경색을 결정하는 단계를 포함한다. 또한, 배경색으로부터의 미리 정의된 편차가 건물의 정면에서 검출되고, 건물 정면의 수직 방향에서 미리 정의된 편차의 평균 수가 검출된 미리 정의된 편차에 근거하여 결정된다. 결정된 미리 정의된 편차의 평균 수에 근거하여 건물의 층수가 추정될 수 있고, 층수는 결정된 평균 수에 대응한다. 정면의 배경색, 텍스쳐(texture)는, 용이하게 결정될 수 있다. 정면의 창문 또는 도어는 정면에 비교하여 상이한 색을 갖는다. 정면의 배경색에 창문 또는 도어의 형태를 갖는 미리 정의된 편차가 검출될 때, 정면의 창문 또는 도어가 검출된다. 수직 방향 평균 수에서의 창문/도어의 수로부터, 평균 수는 층수에 대응하여 매우 유사하게 산출될 수 있다. 건물의 층수가 평면도와 함께 알려지는 때에, 건물의 개략도가 실제 건물의 모습과 유사하게 생성될 수 있다.
일 실시예에 의하면, 미리 정의된 편차는 건물의 정면을 복수의 수직 섹션으로 분할함으로써 결정될 수 있다. 배경색으로부터의 미리 정의된 편차는 각 수직 섹션에 대하여 결정될 수 있고, 미리 정의된 편차의 평균 수는 여러 수직 섹션에 대해 결정된 각각의 미리 정의된 편차에 근거하여 결정될 수 있다. 정면의 여러 섹션에서 미리 정의된 편차의 수를 결정함으로써, 결정된 평균 수가 층수에 대응할 가능성이 좀더 증가 된다.
미리 정의된 편차가 검출되지 않은 복수의 수직 섹션 내에서 미리 정의된 편차 없는 제1 수직 섹션들을 결정함으로써, 부가적으로 평균 수 결정을 할 가능성이 있다. 이러한 미리 정의된 편차 없는 제1 수직 섹션들은 평균 편차의 결정으로부터 제외될 수 있다. 창문 또는 도어 없는 제1 수직 섹션이 검출된다. 그러한 수직 섹션은 창문 없는 정면을 주로 나타낸다. 이 섹션의 미리 정의된 편차의 수가 평균 편차의 결정에 포함되면, 계산된 평균 수는 층수에 대응하지 않을 것이다.
복수의 수직 섹션 내에서의 제2 수직 섹션이, 미리 정의된 편차의 수가 다른 수직 섹션에서 결정된 미리 정의된 편차의 수와 임계치 이상으로 다른 경우에 결정됨으로써, 평균 수의 결정을 더욱 향상시킬 다른 가능성이 있다. 다른 수직 섹션에서 결정되는 미리 정의된 편차의 수를 결정하기 위하여, 편차 없는 제1 수직 섹션은 미리 제외될 수 있다. 이러한 제2 수직 섹션은 평균 수의 결정으로부터 제외될 수도 있다. 이 제2 수직 섹션의 제외는 층수 결정의 신뢰도를 좀더 향상시키는데 도움이 된다. 예를 들어, 정면은 1개의 창문만이 4층 또는 5층 건물 수직 방향에 제공된 섹션을 포함할 수 있다. 이 수직 섹션이 평균 수의 결정을 위하여 고려되면, 그 결과는 왜곡될 것이다. 그 결과, 이러한 제2 수직 섹션이 평균 수의 결정으로부터 제외될 때, 층수 결정의 정확도는 더 향상된다.
정면의 색에서의 편차가 검출된 창문에 대응하는지를 결정하기 위하여, 미리 정의된 형태가 결정되고, 검출된 편차는 미리 정의된 편차와 비교될 수 있다. 예를 들어, 편차가 미리 정의된 범위 이내인 높이 대 폭의 비율을 갖는 직사각형 일 때 편차는 미리 정의된 편차인 것으로 간주된다. 범위를 결정함으로써, 상이한 창문 포맷이 창문의 검출에 포함될 수 있다.
층수가 결정된 때에, 층수를, 생성된 건물의 그래픽 표현을 허용하는 건물의 다른 정보와 함께, 저장하는 것이 가능하다. 그래픽 표현의 층수가 실제에 대응하는 때에, 그래픽 표현이 보여진 사용자는 표시된 건물을 용이하게 인식할 수 있다.
층수가 건물의 평면도와 함께 연관되어 저장되는 때에 건물의 사실적인 표현을 허용하는 건물 데이터를 감소 된 저장용량으로 저장할 가능성이 있다. 평면도와 층수에 근거하여 건물의 현실적인 표현이 생성될 수 있다.
또한, 그것은, 층수를 알고서, 층수가 수직 인접한 미리 정의된 편차 간의 거리와 층수에 근거하여 건물 정면의 상이한 층수를 결정하는 경우에, 가능하다. 이 지식을 이용하여, 이 건물의 표시 이미지는 건물의 각 층을 위한 상이한 텍스쳐(textures)로 생성될 수 있다. 표시된 정보가 네비게이션 목적으로 이용될 때, 그리고 사용자에 의해 지시된 목적지가 어떤 층에 위치하는 때에, 목적지 위치가 위치된 곳에서 디스플레이에 층을 표시하는 것이 가능하다.
2개의 수직 인접 편차 간의 거리를 결정하여 두 층간의 경계를 결정함으로써 상이한 층을 결정할 가능성이 있고, 경계는 2개의 수직 인접 편차 간의 절반 거리에서 결정된다.
발명은 건물의 이미지 데이터에 근거하여 건물의 층수를 결정하기 위한 모듈에도 관련되며, 모듈은 이미지 데이터에 나타낸 건물 정면의 배경색을 결정하도록 구성된 프로세싱 유닛을 포함한다. 프로세싱 유닛은 건물 정면의 배경색으로부터 미리 정의된 편차를 검출하도록 더 구성되고, 건물 정면의 수직방향에서 미리 정의된 편차의 평균 수를 결정하도록 구성된다. 또한, 프로세싱 유닛은 결정된 평균 수에 근거하여 건물의 층수를 추정하도록 설계되고, 층수는 결정된 평균 수에 대응한다. 프로세싱 유닛은 이상 및 이하에서 좀더 상세히 논의된 바와 같이 평균 수를 결정할 수 있다.
본 발명은 이미지 데이터 상에 나타내는 건물의 층수를 현실성 있게 효율적으로 제공할 수 있게 된다.
도 1은 건물의 이미지 데이터를 사용한 층수의 결정을 허용하는 모듈의 개략도를 도시하고,
도 2는 층수를 결정하기 위하여 도 1의 모듈에 의해 수행되는 주요 단계를 포함하는 흐름도를 도시하고,
도 3은 건물 정면의 개략도를 도시하고, 정면의 배경색으로부터 평균 편차가 어떻게 결정되는 지를 보여주고,
도 4는 상이한 층이 도시된 표시 건물의 개략도이고,
도 5는 정면의 이미지가 어떻게 배경색과 창문을 알 수 있도록 생성되는지를 개략적으로 도시한 것이다.
도 2는 층수를 결정하기 위하여 도 1의 모듈에 의해 수행되는 주요 단계를 포함하는 흐름도를 도시하고,
도 3은 건물 정면의 개략도를 도시하고, 정면의 배경색으로부터 평균 편차가 어떻게 결정되는 지를 보여주고,
도 4는 상이한 층이 도시된 표시 건물의 개략도이고,
도 5는 정면의 이미지가 어떻게 배경색과 창문을 알 수 있도록 생성되는지를 개략적으로 도시한 것이다.
도 1에, 이미지 데이터에 나타낸 건물의 층수가 고 정확도로 결정될 수 있는 모듈(10)을 개략적으로 도시하였다. 모듈은 건물의 이미지 데이터를 포함하는 데이터베이스(12)에 연결된다. 이 이미지 데이터는 주변으로부터 이미지를 획득하는 반면 도로망 상의 차량 운전에 의해 생성될 수 있다. 이미지 데이터는 비행기 또는 비행체를 사용하여 더 생성될 수 있다. 이미지 데이터를 포함하는 데이터베이스는 모듈(10)에 직접 연결될 수 있다. 다른 실시예에서, 데이터베이스(12)는 모듈(10)로부터 이격되어 위치될 수 있고 모듈(10)에 일부 전송될 수 있다.
모듈은 사용자를 미리 정한 목적지로 안내하기 위한 네비게이션 시스템용으로 사용되는 바와 같은 맵 정보를 포함하는 맵 데이터(13)에 더 연결된다. 맵 데이터는 도로망을 포함하고, 그 중에서도 건물을 포함하는 도로 주변에 관한 정보를 부가적으로 포함할 수 있다. 예를 들어, 데이터베이스(13)는 도로망에 부가하여 건물의 평면도를 포함할 수 있다. 모듈(10)은 데이터베이스(12)에 포함된 이미지 데이터를 이용하여 건물의 층수를 결정하도록 구성된 프로세싱 유닛(11)을 포함한다. 건물의 층수 결정은 도 2 내지 도 5를 참조하여 좀더 상세히 논의될 것이다. 층수가 프로세싱 유닛에 의해 결정될 때, 건물의 층수는 데이터베이스(13)에 포함된 맵 데이터에 추가될 수 있다. 도로망, 건물의 층수 및, 대응하는 층수를 포함하는 맵 데이터는 네비게이션 시스템과 연관되어 사용될 수 있다. 도 1에 나타낸 시스템은 네비게이션 시스템의 부분일 수 있다. 그러나, 맵 데이터 또는 모듈(10)에 의해 결정된 층 데이터는 추가 사용을 위하여 네비게이션 시스템에 제공될 가능성도 있다.
층수의 결정을 위한 방법은 아래에서 도 2 및 도 3을 참조하여 좀더 상세히 논의된다. 도 3에, 데이터베이스(12)에 저장된 이미지의 일 예가 좀더 상세히 도시되었다. 그 이미지는 정면(31)을 갖는 주택(300)을 나타낸다. 실시예에서 나타낸 건물은 상이한 3개 층을 구비하고 직사각형 평면도를 구비한다.
도 2와 관련되어, 이미지 데이터에 근거하여 층수를 결정하기 위하여 수행되는 단계가 좀더 상세히 논의된다. 방법은 단계 S20에서 시작하고, 제1 단계에서 정면이 건물에서 확인된다. 도 3으로부터 알 수 있는 바와 같이, 주택의 정면(31)은 이미지 데이터에서 모서리를 검출 가능한 알려진 후처리 알고리즘(예를 들어, 캐니필터(Canny filter) 또는 가우시안 필터(Gaussian filter))을 이용하여 이미지에서 결정될 수 있다. 예를 들어, 전면 정면(31)은 보통 수평선인 처마홈통(33)에 의해 지붕(32)에 대한 범위가 결정된다. 해당 기술분야에서 알려진 모서리 검출 알고리즘을 이용하여, 이미지는 좌측 및 우측 경계(34),(35) 같은 정면의 경계가 검출될 수 있는 방식으로 처리될 수 있다. 이러한 경계들은 처마홈통과 함께 정면을 형성한다(단계 S21). 다음 단계에서 정면의 배경색이 정면의 텍스쳐에 대응하는 정면의 RGB 값을 결정함으로써 결정된다(단계 S22). 그러므로, 정면은 직사각형 경계에서 단일색 표면을 검출함으로써 이미지에서 검출될 수 있다. 다른 실시예에서, 균일 텍스쳐는 정면이 균일 색을 가질 필요없이 상이한 색의 균일 패턴을 가질 수 있기 때문에 검출된다. 도시 지역에서 인접 건물은 흔히 각각 연결된다. 2개의 인접 건물을 구별할 수 있게 하기 위하여, 다음의 사실들이 고려될 수 있되, 건물의 높이, 정면의 상이한 색, 상이한 형태 및 청문의 배열, 및/또는 도로에 대한 건물의 상이한 거리가 고려될 수 있다.
도 3에서 알 수 있는 바와 같이, 정면은 상이한 섹션(36a~36h)과 같은 상이한 수직 섹션(36)으로 분할된다(단계 S23). 상이한 섹션은 배경색으로부터 편차를 검출하기 위하여 더 처리된다. 이미지에 나타낸 창문(37) 또는 도어(38)는 배경보다 상이한 색을 가질 것이다. 정육면체 형태를 갖는 암호화된 공간을 사용하면 색을 결정할 가능성이 있다. 이 공간에서의 색은 3개 파라메터 L, a, b에 의해 묘사된다. L은 점의 밝기를 묘사하되, 최대값(Lmax)은 흰색을 표현하고, 최소값(Lmin)은 검정색을 묘사한다. 파라메터 a, b는 경계를 갖지 않되, 양수(positive)의 a는 적색을 표시하는 반면, 음수(negative)의 a는 녹색을 표현한다. 양수의 b는 황색을 표시하고, 음수의 b는 파란색을 표시한다. 섹션(36a)에서 단속 선을 갖는 것으로 표시된 표면이 검출될 것이다. 검출된 편차는 그때 분류되고, 검출된 편차가 미리 정의된 형태에 대응하는 형태를 가지면, 편차는 건물의 층수를 결정하기 위해 사용되는 미리 정의된 편차로서 분류된다. 예를 들어, 편차가 대체로 직사각형 형태를 가지면 정면에서 발견된 편차는 미리 정의된 편차로 간주 된다. 또한, 높이 대 폭의 비율에 대한 어떤 범위가 결정될 수 있다. 예를 들어, 직사각형이고 2:1과 1:8 사이의 높이 대 폭의 비율을 갖는 모든 편차는 창문 또는 도어로서 분류될 수 있다. 그러나, 편차는 둥근 형태 또는 도 3에 나타낸 바와 같은 도어에 대한 경우처럼(여기서, 도어(38)는 상부에서 직사각형이 아님) 상부를 제외하고 직사각형인 형태 같은 다른 형태가 검출될 때 미리 정의된 편차로 간주 될 수 있다(단계 S24). 편차의 수가 각 수직 섹션(36a~36h)에 대해 검출된다. 도 3에서 알 수 있는 바와 같이, 섹션(36c, 36g)에서 미리 정의된 편차의 해상도 이하로 떨어진 편차를 발견할 수 없다.
실시예에서 보여 진 각 섹션에 대해 발견된 미리 정의된 편차의 수는 다음과 같다.
3개의 미리 정의된 편차가 섹션(36a, 36b, 36f)에 대한 수직 방향에서 검출되고, 미리 정의된 편차가 섹션(36c, 36g)에서 검출되지 않고, 4개의 미리 정의된 편차가 섹션(36d)에서 검출되고, 1개의 미리 정의된 편차가 섹션(36e, 36h)에서 검출된다. 각 섹션에서 발견되는 미리 정의된 편차의 수에 근거하여 층수가 추정될 수 있다. 이를 위하여, 미리 정의된 편차가 검출되지 않은 수직 섹션이 확인되고(실시예에서 보인 섹션(36c, 36g)), 이러한 섹션들은 계산으로부터 제외된다(단계 S25). 또한, 오직 1개의 편차가 발견된 2개의 섹션(36e, 36h)이 발견되는 반면, 3개 또는 4개의 편차가 다른 나머지 섹션에서 발견된다. 단계 S25에서 편차 없는 섹션을 제외한 후에, 편차의 수가 다른 섹션에서 발견된 편차의 수와 크게 다른 섹션은 제외된다. 이 비교를 위하여, 편차가 발견되지 않은 섹션은 미리 제외된다. 그러므로, 미리 정의된 편차가 발견된 수직 섹션은 각각 비교되고, 발견된 편차의 수가 다른 섹션에서 발견된 편차의 수와 미리 정의된 임계치(여기서, 2개) 이상으로 상이하면, 해당 섹션은 역시 제외된다(단계 S26). 그러므로, 실시예에서 보인 섹션(36e, 36h)은 계산으로부터 제외된다. 나머지 섹션(섹션 36a, 36b, 36d, 36f)은 미리 정의된 편차의 평균 수를 결정하기 위하여 사용될 수 있다. 실시예에서 보인 나머지 섹션에서의 미리 정의된 편차의 수는 3, 3, 4, 3과 같다. 나머지 섹션에 대한 편차의 수는 나타낸 실시예에서 3.25이다. 평균 수는 다음 정수(실시예에서 나타낸 3)를 취함으로써 평균에 근거하여 계산된다. 계산된 평균이 3.8 또는 3.9이면 수 4가 평균 편차로서 결정될 것이다. 그러므로, 결정된 평균에 근접하여 위치한 다음 정수가 평균 수로서 사용된다(단계 S27). 예에서 나타낸 미리 정의된 편차(창문 또는 도어)의 계산된 수는 3이다. 다음 단계에서 층수는 결정된 평균 수로부터 추정될 수 있는데, 층수는 단순히 평균 수에 대응하고, 실시예에서 3으로 나타내었다(단계 S28). 단계 S28에서 결정된 계산이 도 3에 나타낸 도면과 비교될 때, 정확한 층수가 이미지 처리로부터 추정될 수 있다. 단계 S29에서, 층수는 다른 정보와 함께(예를 들어, 평면도와 함께) 맵 데이터베이스(13)에 저장될 수 있다. 방법은 단계 S30에서 종료된다. 실시예에서 보인 평균 편차는 결정된 평균을 다음 정수로 반올림함으로써 결정된다.
도 4와 관련된 실시예는 알려진 평면도(41)를 갖고 있는 건물(40)이 표시된 경우를 도시하고 있다. 층수가 도 2 및 도 3과 관련하여 상술한 바와 같이 결정된 것으로 가정한다. 실시예에서 나타낸 결정된 층수는 4이다. 도 1에 나타낸 프로세싱 유닛은 1층 정보와 층수 관련 정보를 이용하여 이미지 데이터를 생성하도록 더 구성될 수 있다. 이들 두 정보를 이용하여 건물이 어떤 모습인지의 사실적인 표현이 얻어진다.
또한, 프로세싱 유닛(11)은 결정된 층수의 지식과 검출된 미리 정의된 편차를 이용하여 건물의 상이한 층을 결정하도록 구성될 수 있다. 도 4에 나타낸 실시예에서 2개의 창문(42, 43)이 도시되었다. 이들 2개의 창문은 상술한 바와 같이 미리 정의된 편차로서 검출된다. 수직 방향에서의 2개의 인접 창문이 확인되는 때, 2개의 인접 창문 간의 거리가 이미지 데이터에서 결정될 수 있다. 이 지식을 이용하여, 2개 층간 경계가 2개 창문(42, 43) 간 거리의 절반을 취함으로써 결정될 수 있다. 이 2개 층간 경계의 결정을 위하여, 수직 섹션은 미리 정의된 편차의 수가 결정되는 층수 또는 평균 편차에 대응하는 경우에 사용될 수 있다. 이것은 하나의 건물에 대하여 상이한 경계 또는 잘못된 경계가 결정되는 것을 회피하는데 도움을 준다. 2개 층간 경계를 앎으로써, 상이한 층을 상이한 텍스쳐로 표시하는 것이 가능하다. 이것은 사용자가 상이한 층을 구별하는 것을 용이케 한다. 건물의 표시된 이미지가 네비게이션 시스템과 관련하여 사용되고, 원하는 목적지의 층수가 알려지면, 원하는 목적지가 위치된 층수를 상세히 표시하는 것이 가능하다.
결정된 층수 관련 정보와 배경색 정보는 다음의 방식으로 이미지 데이터를 저장하기 위하여 사용될 수도 있는데, 배경색, 정면의 색을 알고, 정면의 크기를 갖는 제1 계층이 결정된 배경색을 갖게 생성될 수 있다. 도 5에 나타낸 실시예에서 이 계층, 배경 텍스쳐가 참조 숫자 51로 표시되었다. 또한, 창문 또는 도어는 미리 정의된 편차의 검출을 이용하여 결정되었다. 제2 데이터 계층은 검출된 창문을 포함하여 생성될 수 있다. 도 5의 상부 오른쪽 부분에 창문 계층이 참조 숫자 52로 표시되었다. 이들 2개 계층은 도 5의 하부에 나타낸 이미지(53)와 같이 채색 표현을 발생하기 위해 결합 될 수 있다. 이 표현은 사용자에게 표시될 수 있다.
미리 정의된 편차가 정면에서 검출될 때, 창문 및 도어의 상이한 형태가 검출될 가능성이 있다. 상이한 형태는 라이브러리에 저장될 수 있고, 이 라이브러리는 정면에서 발견된 편차를 라이브러리에 저장된 알려진 미리 정의된 편차와 비교함에 의해 미리 정의된 편차를 구별하기 위하여 사용될 수 있다. 만일 검출된 형태가 미리 정의된 편차 이내로 떨어지지만 형태의 라이브러리에 아직 포함되어 있지 않으면, 새로이 발견된 편차의 형태가 라이브러리에 부가될 수 있고, 미리 정의된 편차인 것으로서 분류된다.
요약하면, 본 발명은 고 신뢰도 및 정확도로 이미지에 나타낸 건물의 층수를 결정할 수 있게 한다.
10; 모듈
11; 프로세싱 유닛
12; 이미지 데이터
13; 맵 데이터
11; 프로세싱 유닛
12; 이미지 데이터
13; 맵 데이터
Claims (11)
- 이미지 데이터에 나타낸 건물 정면의 배경색을 결정하는 단계,
상기 건물 정면의 배경색으로부터 미리 정의된 편차를 검출하는 단계,
상기 검출된 미리 정의된 편차에 근거하여 상기 건물 정면의 수직 방향에서 미리 정의된 편차의 평균 수를 결정하는 단계, 및
상기 결정된 미리 정의된 편차의 평균 수에 근거하여 상기 건물의 층수를 추정하며, 상기 건물의 층수는 상기 결정된 미리 정의된 편차의 평균 수에 대응하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
- 제1항에 있어서,
상기 미리 정의된 편차는 복수의 수직 섹션에서 상기 건물의 정면을 분할하여 결정되고, 상기 배경색으로부터의 상기 미리 정의된 편차는 각 수직 섹션에 대하여 결정되며, 상기 미리 정의된 편차의 평균 수는 여러 수직 섹션에 대해 결정된 각각의 상기 미리 정의된 편차에 근거하여 결정되는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
- 제2항에 있어서,
상기 미리 정의된 편차의 평균 수를 결정하는 단계를 위해,
상기 미리 정의된 편차가 검출되지 않은 복수의 수직 섹션 내에서 상기 미리 정의된 편차를 갖지 않는 제1 수직 섹션을 결정하는 단계, 및
상기 미리 정의된 편차의 평균 수 결정으로부터 상기 미리 정의된 편차를 갖지 않는 제1 수직 섹션을 제외하는 단계를 수행하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
- 제2항 또는 제3항에 있어서,
상기 미리 결정된 편차의 평균 수를 결정하는 단계를 위해,
복수의 수직 섹션 내에서, 미리 정의된 편차의 수가 다른 수직 섹션에서 결정된 미리 정의된 편차의 수와 임계치 이상으로 상이한 제2 수직 섹션을 결정하는 단계, 및
상기 미리 정의된 편차의 평균 수 결정으로부터 상기 제2 수직 섹션을 제외하는 단계를 수행하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
- 제1항 내지 제4항 중의 어느 한 항에 있어서,
상기 정면에서의 편차는 상기 편차가 미리 정의된 범위 이내인 높이 대 폭 비율을 갖는 직사각형 일 때 미리 정의된 편차인 것으로 간주 되는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
- 제1항 내지 제5항 중의 어느 한 항에 있어서,
상기 건물의 층수는 상기 건물의 그래픽 표현이 생성되도록 허용하는 상기 건물의 다른 정보와 연관되어 저장되는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
- 제6항에 있어서,
상기 건물의 층수는 상기 건물의 평면도와 연관되어 저장되는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
- 제1항 내지 제7항 중의 어느 한 항에 있어서,
상기 건물의 평면도 및 추정된 건물의 층수를 이용하여 상기 건물의 표시 이미지를 생성하는 단계를 더 포함하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
- 제1항 내지 제8항 중의 어느 한 항에 있어서,
수직 인접한 미리 정의된 편차 간의 수직 거리 및 상기 추정된 건물의 층수에 근거하여 상기 건물 정면의 상이한 층을 결정하는 단계, 및
상기 건물의 상이한 층 각각에 대하여 상이한 텍스쳐로 상기 건물의 표시 이미지를 생성하는 단계를 더 포함하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 방법.
- 제9항에 있어서,
2개 층간의 경계는 2개의 수직 인접된 미리 정의된 편차 간의 거리를 결정함으로써 결정되며, 상기 경계는 2개의 수직 인접된 편차 간의 절반 거리가 되도록 결정되는, 건물의 이미지 데이터에 근거하여 건물의 층수를 결정하기 위한 방법.
- 이미지 데이터에 나타낸 건물 정면의 배경색을 결정하고, 상기 건물 정면의 배경색으로부터 미리 정의된 편차를 검출하도록 구성된 프로세싱 유닛을 포함하되,
상기 프로세싱 유닛은 상기 건물 정면의 수직 방향에서 미리 정의된 편차의 평균 수를 결정하며, 상기 결정된 미리 정의된 편차의 평균 수에 근거하여 상기 건물의 층수를 추정하도록 더 구성되며, 상기 건물의 층수는 상기 결정된 미리 정의된 편차의 평균 수에 대응하는, 건물의 이미지 데이터에 근거한 건물의 층수 결정 모듈.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP11156653A EP2495688A1 (en) | 2011-03-02 | 2011-03-02 | Floor Number Determination in Buildings |
EP11156653.5 | 2011-03-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120100737A true KR20120100737A (ko) | 2012-09-12 |
Family
ID=44721175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120016235A KR20120100737A (ko) | 2011-03-02 | 2012-02-17 | 건물의 층수 결정 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8666158B2 (ko) |
EP (1) | EP2495688A1 (ko) |
JP (1) | JP2012181829A (ko) |
KR (1) | KR20120100737A (ko) |
CN (1) | CN102654918A (ko) |
CA (1) | CA2765326A1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210137843A (ko) * | 2020-05-11 | 2021-11-18 | 아주대학교산학협력단 | 건물 이미지를 이용한 창문 검출 방법 및 장치 |
KR102328105B1 (ko) * | 2021-03-17 | 2021-11-18 | 주식회사 텐일레븐 | 건축물의 설계 방법 |
US11867495B2 (en) | 2018-10-30 | 2024-01-09 | Samsung Electronics Co., Ltd. | Electronic device for providing image data using augmented reality and control method for same |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8078436B2 (en) | 2007-04-17 | 2011-12-13 | Eagle View Technologies, Inc. | Aerial roof estimation systems and methods |
US8145578B2 (en) | 2007-04-17 | 2012-03-27 | Eagel View Technologies, Inc. | Aerial roof estimation system and method |
US8170840B2 (en) | 2008-10-31 | 2012-05-01 | Eagle View Technologies, Inc. | Pitch determination systems and methods for aerial roof estimation |
US8209152B2 (en) | 2008-10-31 | 2012-06-26 | Eagleview Technologies, Inc. | Concurrent display systems and methods for aerial roof estimation |
US9911228B2 (en) | 2010-02-01 | 2018-03-06 | Eagle View Technologies, Inc. | Geometric correction of rough wireframe models derived from photographs |
EP2495688A1 (en) * | 2011-03-02 | 2012-09-05 | Harman Becker Automotive Systems GmbH | Floor Number Determination in Buildings |
US9599466B2 (en) | 2012-02-03 | 2017-03-21 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area |
US9933257B2 (en) | 2012-02-03 | 2018-04-03 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area |
US8774525B2 (en) * | 2012-02-03 | 2014-07-08 | Eagle View Technologies, Inc. | Systems and methods for estimation of building floor area |
US10663294B2 (en) | 2012-02-03 | 2020-05-26 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area and producing a wall estimation report |
US10515414B2 (en) | 2012-02-03 | 2019-12-24 | Eagle View Technologies, Inc. | Systems and methods for performing a risk management assessment of a property |
JP2013231634A (ja) * | 2012-04-27 | 2013-11-14 | Hitachi Consumer Electronics Co Ltd | 位置情報提供システム、ナビゲーションシステム、及び端末装置 |
US10909482B2 (en) | 2013-03-15 | 2021-02-02 | Pictometry International Corp. | Building materials estimation |
US9959581B2 (en) | 2013-03-15 | 2018-05-01 | Eagle View Technologies, Inc. | Property management on a smartphone |
US11670046B2 (en) | 2013-07-23 | 2023-06-06 | Hover Inc. | 3D building analyzer |
US10861224B2 (en) | 2013-07-23 | 2020-12-08 | Hover Inc. | 3D building analyzer |
US10127721B2 (en) | 2013-07-25 | 2018-11-13 | Hover Inc. | Method and system for displaying and navigating an optimal multi-dimensional building model |
US9830681B2 (en) * | 2014-01-31 | 2017-11-28 | Hover Inc. | Multi-dimensional model dimensioning and scale error correction |
US9235775B2 (en) | 2014-06-08 | 2016-01-12 | Uber Technologies, Inc. | Entrance detection from street-level imagery |
US10133830B2 (en) * | 2015-01-30 | 2018-11-20 | Hover Inc. | Scaling in a multi-dimensional building model |
US10068336B1 (en) | 2015-04-20 | 2018-09-04 | Hrl Laboratories, Llc | Generic frontal and side doorway detection with line tracking and vanishing point based verification |
US9978149B1 (en) * | 2015-04-20 | 2018-05-22 | Hrl Laboratories, Llc | System and method for door detection for corridor exploration |
US11248908B2 (en) * | 2017-02-24 | 2022-02-15 | Here Global B.V. | Precise altitude estimation for indoor positioning |
US10503843B2 (en) | 2017-12-19 | 2019-12-10 | Eagle View Technologies, Inc. | Supervised automatic roof modeling |
US11496860B2 (en) | 2020-04-22 | 2022-11-08 | T-Mobile Usa, Inc. | Developing a fingerprint map for determining an indoor location of a wireless device |
US11832147B2 (en) | 2020-04-22 | 2023-11-28 | T-Mobile Usa, Inc. | Profiling location information and network traffic density from telemetry data |
US11758361B2 (en) * | 2020-04-22 | 2023-09-12 | T-Mobile Usa, Inc. | Indoor localization based on acceleration events |
CN111783211B (zh) * | 2020-07-08 | 2024-04-30 | 武汉市测绘研究院 | 一种竣工单体建筑分层平面图自动化生成方法及生成系统 |
CN112183301B (zh) * | 2020-09-23 | 2023-06-16 | 武汉大势智慧科技有限公司 | 一种建筑物楼层智能识别方法及装置 |
CN113590859A (zh) * | 2021-08-05 | 2021-11-02 | 深圳须弥云图空间科技有限公司 | 用于建筑平面图展示的方法及相关设备 |
CN117332102B (zh) * | 2023-11-30 | 2024-02-06 | 陕西建一建设有限公司 | 一种基于bim的建筑数据优化存储方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3547947B2 (ja) * | 1997-08-11 | 2004-07-28 | アルパイン株式会社 | ナビゲーション装置における所在階数表示方法 |
JP4486175B2 (ja) * | 1999-01-29 | 2010-06-23 | 株式会社日立製作所 | 立体地図表示装置および方法 |
JP4559555B2 (ja) * | 1999-03-16 | 2010-10-06 | 株式会社日立製作所 | 立体地図表示方法およびナビゲーション装置 |
JP4094219B2 (ja) * | 2000-09-19 | 2008-06-04 | アルパイン株式会社 | 車載用ナビゲーション装置の立体地図表示方法 |
EP1855263B1 (en) * | 2005-03-02 | 2012-08-15 | Navitime Japan Co., Ltd. | Map display device |
JP2009511965A (ja) * | 2005-10-17 | 2009-03-19 | テレ アトラス ノース アメリカ インコーポレイテッド | 強化地図を生成する方法 |
DE102007030781A1 (de) * | 2006-10-11 | 2008-04-17 | Gta Geoinformatik Gmbh | Verfahren zur Texturierung virtueller dreidimensionaler Objekte |
WO2008044913A1 (en) * | 2006-10-13 | 2008-04-17 | Tele Atlas B.V. | System for and method of processing laser scan samples and digital photographic images relating to building façade |
US8970579B2 (en) * | 2007-07-27 | 2015-03-03 | Procedural Ag | Computer system and method for generating a 3D geometric model |
US8531472B2 (en) * | 2007-12-03 | 2013-09-10 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real façade texture |
WO2009080034A2 (en) * | 2007-12-20 | 2009-07-02 | 3Djam Aps | System and method for conversion and distribution of graphical objects |
US9098926B2 (en) * | 2009-02-06 | 2015-08-04 | The Hong Kong University Of Science And Technology | Generating three-dimensional façade models from images |
US8798965B2 (en) * | 2009-02-06 | 2014-08-05 | The Hong Kong University Of Science And Technology | Generating three-dimensional models from images |
US9129432B2 (en) * | 2010-01-28 | 2015-09-08 | The Hong Kong University Of Science And Technology | Image-based procedural remodeling of buildings |
US9036915B2 (en) * | 2010-01-29 | 2015-05-19 | The Hong Kong University Of Science And Technology | Architectural pattern detection and modeling in images |
US8990049B2 (en) * | 2010-05-03 | 2015-03-24 | Honeywell International Inc. | Building structure discovery and display from various data artifacts at scene |
US9317133B2 (en) * | 2010-10-08 | 2016-04-19 | Nokia Technologies Oy | Method and apparatus for generating augmented reality content |
EP2495688A1 (en) * | 2011-03-02 | 2012-09-05 | Harman Becker Automotive Systems GmbH | Floor Number Determination in Buildings |
-
2011
- 2011-03-02 EP EP11156653A patent/EP2495688A1/en not_active Withdrawn
-
2012
- 2012-01-23 CA CA2765326A patent/CA2765326A1/en not_active Abandoned
- 2012-01-30 JP JP2012016366A patent/JP2012181829A/ja active Pending
- 2012-02-17 KR KR1020120016235A patent/KR20120100737A/ko not_active Application Discontinuation
- 2012-02-28 US US13/407,092 patent/US8666158B2/en active Active
- 2012-03-02 CN CN2012100525180A patent/CN102654918A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11867495B2 (en) | 2018-10-30 | 2024-01-09 | Samsung Electronics Co., Ltd. | Electronic device for providing image data using augmented reality and control method for same |
KR20210137843A (ko) * | 2020-05-11 | 2021-11-18 | 아주대학교산학협력단 | 건물 이미지를 이용한 창문 검출 방법 및 장치 |
KR102328105B1 (ko) * | 2021-03-17 | 2021-11-18 | 주식회사 텐일레븐 | 건축물의 설계 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN102654918A (zh) | 2012-09-05 |
CA2765326A1 (en) | 2012-09-02 |
JP2012181829A (ja) | 2012-09-20 |
EP2495688A1 (en) | 2012-09-05 |
US20120224770A1 (en) | 2012-09-06 |
US8666158B2 (en) | 2014-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20120100737A (ko) | 건물의 층수 결정 | |
US10235787B2 (en) | Path side image in map overlay | |
US20230304823A1 (en) | Navigation Method, Apparatus, and System | |
Moazzam et al. | Metrology and visualization of potholes using the microsoft kinect sensor | |
US10102433B2 (en) | Traveling road surface detection apparatus and traveling road surface detection method | |
Zhang | Towards an operational system for automated updating of road databases by integration of imagery and geodata | |
CN104021388B (zh) | 基于双目视觉的倒车障碍物自动检测及预警方法 | |
CN102222236B (zh) | 图像处理系统及位置测量系统 | |
EP2074378B1 (en) | System for and method of processing laser scan samples and digital photographic images relating to building facades | |
JP5936792B2 (ja) | 建築限界測定図の作成装置、建築限界測定図データの作成装置および建築限界測定図の作成方法 | |
JP6131704B2 (ja) | 連続型道路分割体の検知方法及び連続型道路分割体の検知装置 | |
EP2659458B1 (en) | System and method for generating textured map object images | |
WO2008130219A1 (en) | Method of and apparatus for producing road information | |
CA2678156A1 (en) | Measurement apparatus, measurement method, and feature identification apparatus | |
Chen et al. | Detection of building changes from aerial images and light detection and ranging (LIDAR) data | |
CN104349136A (zh) | 三维侦测装置侦测影像的方法 | |
JP5188429B2 (ja) | 環境認識装置 | |
JP2011170599A (ja) | 屋外構造物計測装置及び屋外構造物計測方法 | |
CN108573215A (zh) | 道路反光区域检测方法、装置和终端 | |
CN110346799A (zh) | 一种障碍物检测方法及设备 | |
CN109791607A (zh) | 借助单应矩阵从摄像机的一系列图像中探测和验证对象 | |
Janda et al. | Road boundary detection for run-off road prevention based on the fusion of video and radar | |
CN112418081B (zh) | 一种空地联合快速勘察交通事故的方法及系统 | |
CN109115232A (zh) | 导航的方法和装置 | |
CN111192283A (zh) | 一种限高杆检测和高度计算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |