KR20130065281A - 위치 정보 제공 장치 및 방법 - Google Patents
위치 정보 제공 장치 및 방법 Download PDFInfo
- Publication number
- KR20130065281A KR20130065281A KR1020110132074A KR20110132074A KR20130065281A KR 20130065281 A KR20130065281 A KR 20130065281A KR 1020110132074 A KR1020110132074 A KR 1020110132074A KR 20110132074 A KR20110132074 A KR 20110132074A KR 20130065281 A KR20130065281 A KR 20130065281A
- Authority
- KR
- South Korea
- Prior art keywords
- area
- divided
- image
- horizontal
- distance
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 위치 정보 제공 장치 및 방법에 관한 것으로서, 촬영된 영상 내에서 물체가 인식되는 경우 복수 개로 분할된 가상의 영역 중 물체가 오버레이된 영역을 통하여 물체의 위치를 확인하는 위치 정보 제공 장치 및 방법에 관한 것이다.
본 발명의 실시예에 따른 위치 정보 제공 장치는 촬영된 물체가 포함된 영상을 생성하는 카메라부와, 상기 영상을 복수 개의 영역으로 구분하는 분할 영역 중 상기 물체에 대응하는 분할 영역을 추출하는 영역 추출부 및 상기 추출된 분할 영역을 출력하는 출력부를 포함한다.
본 발명의 실시예에 따른 위치 정보 제공 장치는 촬영된 물체가 포함된 영상을 생성하는 카메라부와, 상기 영상을 복수 개의 영역으로 구분하는 분할 영역 중 상기 물체에 대응하는 분할 영역을 추출하는 영역 추출부 및 상기 추출된 분할 영역을 출력하는 출력부를 포함한다.
Description
본 발명은 위치 정보 제공 장치 및 방법에 관한 것으로서, 더욱 상세하게는 촬영된 영상 내에서 물체가 인식되는 경우 복수 개로 분할된 가상의 영역 중 물체가 오버레이된 영역을 확인하여 물체의 위치를 판단하는 위치 정보 제공 장치 및 방법에 관한 것이다.
기술 발달로 인하여 일반 사용자도 다양한 디지털 영상을 생성할 수 있게 되었다. 특히, PC(Personal Computer)의 보급과 아날로그 카메라에서 디지털 카메라로의 세대 교체를 통하여 디지털 정지 영상을 생성하는 사용자의 수가 급속도로 늘고 있으며, 캠코더(Camcorder)의 등장으로 인하여 디지털 동영상을 생성하는 사용자도 생겨나게 되었다. 이러한 디지털 카메라 및 캠코더의 기능은 휴대 전화에도 적용되어 그 수는 더욱 증가하고 있다.
카메라 모듈은 일반적으로 렌즈 및 영상 센서를 포함하여 구성된다. 여기서, 렌즈는 물체에서 반사된 빛을 모으는 역할을 하며, 영상 센서는 렌즈에 의해 모아진 빛을 감지하여 전기적인 영상 신호로 변환하는 역할을 한다. 영상 센서는 크게 촬상관과 고체 영상 센서로 구성될 수 있는데, 고체 영상 센서는 대표적인 예로써 전하 결합 소자(Charge Coupled Device; CCD), 금속 산화물 반도체(Metal Oxide Silicon; MOS)를 예로 들 수 있다.
한편, 자동차 운행 중 동물 등의 물체가 차도로 갑작스럽게 진입하여 물체뿐만 아니라 자동차 운전자에게도 피해를 주는 사례가 발생하고 있다.
이를 위하여 영상 처리를 통한 전방 물체 감지 기술이 등장하고 있는데, 물체를 감지하고 그 위치를 판단하기 위해서는 고성능의 프로세서가 적용되어야 함에도 불구하고, 비용 절감 차원에서 부득이 낮은 성능의 프로세서를 이용하여 영상 처리를 해야 하는 문제점이 있다.
따라서, 낮은 성능의 프로세서를 이용하면서도 빠른 영상 처리를 수행하고, 더 나아가 높은 정밀도로 물체의 위치 판단을 위한 효과적인 영상 처리를 수행할 수 있는 발명의 등장이 요구된다.
본 발명은 촬영된 영상 내에서 물체가 인식되는 경우 복수 개로 분할된 가상의 영역 중 물체가 오버레이된 영역을 확인하여 물체의 위치를 판단하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 위치 정보 제공 장치는 촬영된 물체가 포함된 영상을 생성하는 카메라부와, 상기 영상을 복수 개의 영역으로 구분하는 분할 영역 중 상기 물체에 대응하는 분할 영역을 추출하는 영역 추출부 및 상기 추출된 분할 영역을 출력하는 출력부를 포함한다.
본 발명의 실시예에 따른 위치 정보 제공 방법은 카메라를 이용하여 촬영된 물체가 포함된 영상을 생성하는 단계와, 상기 영상을 복수 개의 영역으로 구분하는 분할 영역 중 상기 물체에 대응하는 분할 영역을 추출하는 단계 및 상기 추출된 분할 영역을 출력하는 단계를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
상기한 바와 같은 본 발명의 위치 정보 제공 장치 및 방법에 따르면 촬영된 영상 내에서 물체가 인식되는 경우 복수 개로 분할된 가상의 영역 중 물체가 오버레이된 영역을 확인하여 물체의 위치를 판단함으로써 비교적 단순한 영상 처리 알고리즘만으로 정밀도가 향상된 물체의 상대 위치를 파악할 수 있는 장점이 있다.
도 1은 본 발명의 실시예에 따른 위치 정보 제공 장치를 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따라 촬영된 영상 내에서 물체가 포함되어 있는 것을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 가상 플레이트가 가로 방향으로 분할된 수평 분할 영역을 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 가상 플레이트가 세로 방향으로 분할된 수직 분할 영역을 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 가상 플레이트가 가로 방향 및 세로 방향으로 분할되어 형성된 격자 분할 영역을 나타낸 도면이다.
도 6는 도 4의 수직 분할 영역 중 일부에 대상 물체가 오버레이된 것을 나타낸 도면이다.
도 7은 도 3의 수평 분할 영역 중 일부에 대상 물체가 오버레이된 것을 나타낸 도면이다.
도 8은 도 5의 격자 분할 영역 중 일부에 대상 물체가 오버레이된 것을 나타낸 도면이다.
도 9는 도 8에서 오버레이된 격자 분할 영역 중 하나와 소실점간의 거리를 나타낸 도면이다.
도 10은 본 발명의 실시예에 따라 특정 포인트와의 거리에 따라 수평 분할 영역의 크기가 다르게 형성되는 것을 나타낸 도면이다.
도 11은 본 발명의 실시예에 따라 특정 포인트와의 거리에 따라 수직 분할 영역의 크기가 다르게 형성되는 것을 나타낸 도면이다.
도 12는 본 발명의 실시예에 따라 특정 포인트와의 거리에 따라 격자 분할 영역의 형태 및 크기가 다르게 형성되는 것을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따라 촬영된 영상 내에서 물체가 포함되어 있는 것을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 가상 플레이트가 가로 방향으로 분할된 수평 분할 영역을 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 가상 플레이트가 세로 방향으로 분할된 수직 분할 영역을 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 가상 플레이트가 가로 방향 및 세로 방향으로 분할되어 형성된 격자 분할 영역을 나타낸 도면이다.
도 6는 도 4의 수직 분할 영역 중 일부에 대상 물체가 오버레이된 것을 나타낸 도면이다.
도 7은 도 3의 수평 분할 영역 중 일부에 대상 물체가 오버레이된 것을 나타낸 도면이다.
도 8은 도 5의 격자 분할 영역 중 일부에 대상 물체가 오버레이된 것을 나타낸 도면이다.
도 9는 도 8에서 오버레이된 격자 분할 영역 중 하나와 소실점간의 거리를 나타낸 도면이다.
도 10은 본 발명의 실시예에 따라 특정 포인트와의 거리에 따라 수평 분할 영역의 크기가 다르게 형성되는 것을 나타낸 도면이다.
도 11은 본 발명의 실시예에 따라 특정 포인트와의 거리에 따라 수직 분할 영역의 크기가 다르게 형성되는 것을 나타낸 도면이다.
도 12는 본 발명의 실시예에 따라 특정 포인트와의 거리에 따라 격자 분할 영역의 형태 및 크기가 다르게 형성되는 것을 나타낸 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 위치 정보 제공 장치를 나타낸 블록도로서, 위치 정보 제공 장치(100)는 카메라부(110), 저장부(120), 제어부(130), 위치 정보 생성부(140), 영역 추출부(150) 및 출력부(160)를 포함하여 구성된다.
차량을 운전하는 운전자는 운행함에 있어서 전방을 주시하여야 할 뿐만 아니라 다양한 외적 요인들에도 주의를 기울여야 한다. 그럼에도 불구하고, 갑작스럽게 등장하는 외부 물체를 회피하는 것은 매우 어렵다.
예를 들어, 차량이 저속으로 운행 중이거나 물체가 차량의 전방 멀리에서 등장하는 경우 운전자에게는 물체의 등장을 인식하고 이에 대처하기 위한 후속 동작을 할 수 있는 시간이 확보되지만, 차량이 고속으로 운행 중이거나 물체가 차량의 전방 가까이에서 등장하는 경우 운전자가 이에 대처하기 위한 시간이 확보되지 않을 수 있는 것이다.
더욱이, 야간에 차량을 운행 중이라면 이와 같은 상황은 더욱 빈번히 발생될 가능성이 있다. 즉, 야간에는 가로등이 있는 도로라고 하더라도 주간에 비하여 시야의 확보가 부족할 수 있으며, 가로등이 없는 도로라면 단순히 차량의 전조등만으로 전방을 확인할 수 있기 때문에 시야 확보는 더욱 악화된다. 이러한 경우 운전자에게 물체를 회피할 수 있는 충분한 시간이 주어짐에도 불구하고, 운전자는 전방에 물체가 등장한 것을 인식하지 못할 수 있는 것이다.
특히, 고속도로나 교외의 도로를 주행하게 되면 고속으로 주행하게 되는 경우가 많은데, 동물 등의 출현으로 인하여 동물뿐만 아니라 차량 및 차량의 운전자에게까지 피해가 발생할 수도 있다.
이와 같은 피해를 방지하기 위하여 차량의 전방에 카메라를 설치하고, 카메라를 통하여 생성된 영상에 대한 영상 처리를 수행할 수 있다. 즉, 영상 처리된 결과를 기초로 운전자에게 경고를 주거나, 차량의 운행을 제어할 수 있는 것이다.
영상 처리를 이용하여 물체를 감지하는 기술로는 윤곽 감지(edge detection), 패턴 인식(pattern recognition) 또는 움직임 감지(movement recognition)등의 알고리즘이 이용될 수 있는데, 이와 같은 영상 처리 알고리즘에 따르면 사람, 동물, 물건 및 그림 등에 대한 개략적인 구별도 가능하다.
본 발명은 물체의 위치를 확인하는 것을 목적으로 하는데, 본 발명은 위의 영상 처리 알고리즘을 이용하여 사람 또는 동물과 같이 살아있는 물체를 그 대상으로 한다.
차량의 전방에 갑작스럽게 등장하는 물체로는 크게 보행자와 동물로 구분될 수 있고, 실제로 주행 경로상에 등장하는 물체로는 다른 차량이 포함될 수도 있으나, 본 발명에서 이는 고려하지 않는 것이다. 그러나, 제조자 또는 사용자의 선택에 따라 살아있지 않는 물체(자동차 및 나무 등) 또는 그림(중앙 차선 및 주행 차선 등)과 같은 물체가 본 발명에서의 대상 물체가 될 수도 있음은 물론이다.
전술한 보행자와 동물은 행동 패턴이 서로 상이한데, 이에 따라 그 대처 방법도 달라지는 것이 바람직하다. 예를 들어, 주행 경로상에 등장하는 방식 및 주행 경로상에서 차량이 다가오는 것을 감지하고 그에 따라 반응하는 방식이 보행자와 동물간에 차이가 존재할 수 있는 것인데, 이와 같은 행동 패턴을 고려하여 운전자에게 경고를 주거나 차량의 운행을 제어하는 것이 바람직한 것이다.
이를 위하여, 전방의 물체가 보행자인지 동물인지를 판단하고, 그 물체의 거리와 같은 위치 정보를 확보하는 것이 필요하다.
그러나, 카메라를 통하여 확보된 영상만으로 전방의 물체가 보행자인지 또는 동물인지를 판단하거나 그 위치 정보를 확인하는 것은 매우 어렵다. 고속으로 주행 중인 차량에서 전방에 대한 영상을 얻는 경우 차량의 흔들림으로 인하여 물체의 형체를 분간하기 어려울 수 있는 것이다. 또한, 영상 처리 및 물체 인식 기술을 통하여 물체의 형체를 분간하고 물체의 종류를 판단하며 위치 정보를 확인할 수 있다고 하더라도, 그러한 기술을 차량에 적용시키기에는 제조상의 단가 낭비로 연결될 수 있다.
더욱이, 차량을 운행 중인 시간이 야간인 경우 이러한 정보를 확보하는 것은 더욱 어려워지게 된다.
본 발명은 영상 처리를 통하여 물체의 위치 정보를 확보하는 것을 목적으로 하는 것으로서 이하 이에 대해서만 자세히 설명하며, 물체의 종류를 판단하는 것은 본 발명의 기술 범위를 벗어나는 것이기 때문에 이에 대한 자세한 설명은 생략하기로 한다.
영상 처리를 수행하는 프로세서는 운전자에게 충분한 대처 시간을 확보해 주기 위하여 빠른 처리 속도를 가지고 있어야 한다. 만일, 프로세서의 처리 속도가 느리게 되면 물체를 인식함에 있어서 오류가 발생할 수도 있으며, 운전자에게 경고를 전달하는 시간도 늦어질 수 있는 것이다.
그러나, 전술한 바와 같이 단순히 이와 같은 용도만을 위하여 높은 사양의 프로세서를 사용하는 것은 제조상의 단가 낭비로 연결될 수 있다.
이를 위하여, 본 발명은 차량의 전방에 대한 영상을 복수 개의 영역으로 구분하고, 구분된 각 영역 중 대상이 되는 물체에 대응하는 영역이 어떤 영역인지를 확인함으로써 물체의 위치 정보를 판단한다.
즉, 영상에 포함된 복수의 물체 중 대상 물체를 선정하고, 선정된 대상 물체와의 거리를 판단함에 있어서 초음파 센서와 같은 별도의 센서를 이용하지 않고, 가상의 화면 영역(이하, 가상 플레이트라 한다) 을 복수 개로 분할하고 가상 플레이트를 영상에 중첩시킨 후에 대상 물체가 분할된 영역 중 어디에 있는지를 확인하거나, 영상을 분할하고 대상 물체가 분할된 영역 중 어디에 있는지를 확인함으로써 물체와의 거리를 판단하는 것이다.
카메라부(110)는 특정 방향을 촬영하여 촬영된 물체가 포함된 영상을 생성하는 역할을 수행한다. 이를 위하여, 카메라부(110)는 램프부(111) 및 센서부(112)를 포함하여 구성될 수 있다.
램프부(111)는 물체를 향하여 빛을 비추는 역할을 수행한다. 즉, 야간에도 물체를 식별할 수 있도록 전방으로 빛을 비추는 것으로서, 차량의 전조등이 이의 역할을 수행할 수 있으며, 이를 위한 별도의 수단이 구비될 수도 있다.
센서부(112)는 물체에 대한 빛을 입력받아 이에 대한 디지털 영상을 생성하는 역할을 수행한다. 즉, 센서부(112)는 아날로그 영상 신호를 입력 받는 것으로서, 영상 신호을 입력 받기 위하여 센서부(112)에는 촬상 소자가 구비되어 있을 수 있는데, 촬상 소자로는 CCD(Charge-Coupled Device) 또는 CMOS(Complementary Metal-Oxide Semiconductor)가 사용될 수 있다.
그리고, 센서부(112)는 입력된 영상 신호의 이득을 제어하여 입력된 영상 신호를 일정량만큼 증폭시킴으로써 이후 단계에서의 영상 신호 처리가 용이하도록 할 수 있고, 별도의 변환부(미도시)를 구비함으로써 증폭된 아날로그 영상 신호를 디지털 영상으로 변환할 수 있게 된다.
한편, 본 발명의 실시예에 따른 위치 정보 제공 장치(100)는 야간에도 전방의 물체 인식 효율을 향상시키기 위하여, 센서부(112)는 가시광선을 입력받는 센서뿐만 아니라 적외선을 입력받는 센서(이하, 적외선 센서라 한다)를 포함할 수도 있다.
또한, 적외선 센서의 효율을 향상시키기 위하여 램프부(111)도 가시광선의 빛뿐만 아니라 적외선 빛을 조사할 수도 있는데, 이에 따라 적외선 센서에 의하여 감지되는 적외선은 보행자 또는 동물과 같은 물체에 의하여 반사된 근적외선일 수 있다.
여기서, 램프부(111) 및 센서부(112)는 하나의 모듈로 구성될 수도 있으며, 별도의 모듈로 구성될 수도 있다. 예를 들어, 센서부(112)의 렌즈 주변에 램프를 구비함으로써 램프부(111)와 센서부(112)가 일체형으로 구성될 수도 있고, 램프부(111)와 센서부(112)가 서로 다른 위치에 배치될 수도 있는 것이다. 또한, 램프부(111)와 센서부(112)는 각각 적어도 하나 이상이 구비될 수도 있다.
도 2는 본 발명의 실시예에 따라 촬영된 영상 내에서 물체가 포함되어 있는 것을 나타낸 도면이다.
카메라부(110)에 의해 생성된 디지털 영상(200)에는 도시된 바와 같이 다양한 물체(211, 212, 213, 220, 230)가 포함되어 있을 수 있다. 물체 중에는 사람(211, 212, 213)과 같이 살아있는 물체, 나무(220)와 같이 살아있지 않은 물체 및 주행 차선(230)과 같은 그림이 포함될 수 있는데, 본 발명에서 그 위치 정보를 확보하고자 하는 주요 대상은 사람 또는 동물과 같이 살아있는 물체이나, 이에 한정되지 않는다.
한편, 카메라부(110)에 의해 생성된 디지털 영상(200)은 2차원 정보만을 포함하고 있기 때문에 영상 처리를 통하여 각 물체(211, 212, 213, 220, 230)의 종류를 판단하는 것은 가능하지만 그 거리를 판단하는 것은 용이하지 않다.
이를 위하여, 본 발명의 실시예에 따른 위치 정보 제공 장치(100)는 가상 플레이트를 분할하고 그 분할 영역에 대상 물체가 오버레이되어 있는지 여부를 확인하거나, 영상(200)을 분할하고 대상 물체가 분할된 영역 중 어디에 있는지를 확인함으로써 그 거리를 판단하는데, 이는 영상(200)에서의 소실점(vanishing point)(10)과 물체와의 거리를 이용한 것으로 이해될 수 있다.
즉, 영상(200)에서 소실점(10)과 가까울수록 관찰자와는 멀어지고 영상의 소실점(10)과 멀수록 관찰자와는 가까워진다는 원리를 이용한 것이다.
다시 도 2를 설명하면, 제어부(130)는 영상을 복수 개의 구분 영상으로 구분하는 역할을 수행한다. 또한, 제어부(130)는 카메라부(110), 저장부(120), 위치 정보 생성부(140), 영역 추출부(150) 및 출력부(160)에 대한 전반적인 제어를 수행하며, 각 모듈간 데이터 전달을 중계하는 역할을 수행한다.
전술한 바와 같이, 본 발명에서 영상을 복수 개의 구분 영상으로 구분하는 것은 두 가지 방식으로 수행될 수 있다. 하나는 카메라부(110)로부터 전달받은 영상을 분할하는 것이고, 다른 하나는 영상을 분할하는 것이 아니라 분할을 위한 구분선만을 구비하고 있다가 카메라부(110)로부터 영상이 전달되면 전달된 영상에 구분선을 매핑하는 것이다. 구분선을 매핑하는 방식은 전술한 가상 플레이트를 이용한 방식에 대응하는 것으로 이해될 수 있다.
어느 방식을 따르더라도 영상의 특정 부분이 분할 영역 중 어느 영역에 포함되어 있는지 확인이 가능하게 되는데, 둘 중 하나의 방식에 따르거나 두 가지 방식의 조합에 따라 영상에 대한 구분이 수행될 수 있다. 이하, 구분선을 매핑하는 방식 즉, 가상 플레이트를 이용한 방식을 위주로 설명하기로 한다.
제어부(130)에 의해 분할되는 분할 영역은 가상 플레이트가 가로 방향으로 분할되어 형성되는 수평 분할 영역, 가상 플레이트가 세로 방향으로 분할되어 형성되는 수직 분할 영역 및 가상 플레이트가 가로 방향 및 세로 방향으로 분할되어 형성되는 격자 분할 영역 중 적어도 하나를 포함한다.
한편, 제어부(130)에 의해 분할되는 분할 영역은 영상(200)이 가로 방향으로 분할되어 형성되는 수평 분할 영역, 영상(200)이 세로 방향으로 분할되어 형성되는 수직 분할 영역 및 영상(200)이 가로 방향 및 세로 방향으로 분할되어 형성되는 격자 분할 영역 중 적어도 하나를 포함할 수도 있음은 전술한 바와 같다.
도 3 내지 도 5는 본 발명의 실시예에 따른 수평 분할 영역이 도시된 가상 플레이트(300), 수직 분할 영역이 도시된 가상 플레이트(400) 및 격자 분할 영역이 도시된 가상 플레이트(500)을 나타내고 있다.
전술한 바와 같이, 소실점(10)과의 거리를 이용하여 관찰자와 물체와의 거리를 판단할 수 있는데, 도 3에 도시된 수평 분할 영역에 따르는 경우 각 수평 분할 영역과 소실점(10)간의 수직 거리만을 이용하여 관찰자와 물체와의 거리를 판단할 수 있다. 즉, 소실점(10)과 인접한 수평 분할 영역에 포함된 물체가 인접하지 않은 수평 분할 영역에 포함된 물체보다 멀리 있는 것이다.
이에 반하여, 도 4에 도시된 수직 분할 영역에 따르는 경우 각 수직 분할 영역과 소실점(10)간의 수평 거리만을 이용하여 관찰자와 물체와의 거리를 판단할 수 있다. 즉, 소실점(10)에 인접한 수직 분할 영역에 포함된 물체가 인접하지 않은 수직 분할 영역에 포함된 물체보다 멀리 있는 것이다.
수평 분할 영역 또는 수직 분할 영역 단독으로 물체와의 세밀한 거리를 판단하는 것은 용이하지 않다. 예를 들어, 특정 수평 분할 영역에 물체가 포함되어 있다고 하더라도 그 물체와 소실점(10)간의 수평 거리에 따라 물체와 관찰자와의 거리가 달라지기 때문이다. 이와 마찬가지로, 특정 수직 분할 영역에 물체가 포함되어 있다고 하더라도 그 물체와 소실점(10)간의 수직 거리에 따라 물체와 관찰자와의 거리가 달라진다.
따라서, 제어부(130)에 의하여 가상 플레이트가 수평 분할 영역 및 수직 분할 영역으로 분할되는 경우, 수평 분할 영역 및 수직 분할 영역 모두에 의하여 물체의 포함 여부가 판단되는 것이 바람직하다.
한편, 도 5에 도시된 바와 같이 격자 분할 영역에 따르는 경우 각 격자 분할 영역과 소실점(10)간의 직선 거리를 이용하여 관찰자와 물체와의 거리를 판단할 수 있는데, 제어부(130)에 의하여 가상 플레이트가 격자 분할 영역으로 분할되는 경우 격자 분할 영역만으로 관찰자와 물체와의 거리를 판단할 수 있다.
실제로, 수평 분할 영역과 수직 분할 영역을 모두 이용하여 물체와의 거리를 판단하기 위한 정보와 격자 분할 영역만을 이용하여 물체와의 거리를 판단하기 위한 정보는 동일한 것으로 이해될 수 있다.
물체가 특정 수평 분할 영역 및 특정 수직 분할 영역에 포함되어 있는 경우 그 수평 분할 영역과 수직 분할 영역의 교차 영역이 격자 분할 영역에 대응하기 때문이다.
따라서, 물체와의 개략적인 거리를 판단하기 위해서는 수평 분할 영역 및 수직 분할 영역 중 하나만을 이용할 수 있으며, 세밀한 거리를 판단하기 위해서는 수평 분할 영역 및 수직 분할 영역을 모두 이용하거나 격자 분할 영역을 이용할 수 있다.
가상 플레이트에 포함된 분할 영역의 개수를 나타내는 분할 해상도가 높을수록 물체와의 거리가 보다 세밀하게 검출될 수 있으나, 연산량이 증가할 수 있게 된다. 따라서, 제조자는 시스템의 가용한 연산량을 고려하여 분할 해상도를 결정할 수 있다.
다시 도 2를 설명하면, 영역 추출부(150)는 영상(200)을 복수 개의 영역으로 구분하는 분할 영역 중 물체에 대응하는 분할 영역을 추출하는 역할을 수행한다.
분할 영역을 추출함에 있어서, 영역 추출부(150)는 복수 개의 분할 영역으로 구성된 가상 플레이트를 영상(200)에 적용시켜 물체가 오버레이된 분할 영역을 추출하거나, 영상(200)을 복수 개의 분할 영역으로 분할하여 물체에 대응하는 분할 영역을 추출할 수 있다.
여기서, 가상 플레이트를 영상(200)에 적용시킨다는 것은 가상 플레이트를 영상(200)에 중첩시키는 것으로 이해될 수 있다.
카메라부(110)에 의하여 생성된 디지털 영상(200)에는 다수의 물체(211, 212, 213, 220, 230)가 포함될 수 있는데, 그 중 거리를 판단하기 위한 대상을 선정하는 과정이 수반될 수 있다. 또한, 대상을 선정하기 위하여 물체의 종류를 판단하는 과정이 수반될 수도 있는데, 전술한 바와 같이 이와 같은 사항은 본 발명의 기술적 범위를 넘어서는 것이기 때문에 자세한 설명은 생략하기로 한다.
다만, 물체의 종류를 판단하고 대상을 선정하는 과정에서 영상에 포함된 물체의 영역 범위를 판단하는 것이 가능하다. 즉, 영상의 2차원 좌표 영역이 결정되어 영역 추출부(150)로 전달될 수 있는 것인데, 영역 추출부(150)는 전달받은 좌표 영역이 구비된 분할 영역 중 어디에 해당하는지 확인할 수 있게 된다.
도 6는 도 4의 수직 분할 영역 중 일부에 대상 물체가 오버레이된 것을 나타낸 도면으로서, 도 2의 영상(200) 중 오른쪽 말단에 위치하고 있는 사람(213)을 대상 물체로 하고 있고, 그 대상 물체(213)를 포함하고 있는 수직 분할 영역(610, 620)을 나타내고 있다.
여기서, 수직 분할 영역(610, 620)과 소실점(10)과의 거리는 수직 거리에 대한 고려 없이 수평 거리만을 고려한다는 것은 전술한 바와 같다. 다시 말해, 소실점(10)을 포함하는 가상의 수직선(630)과 수직 분할 영역(610, 620)과의 거리를 수직 분할 영역(610, 620)과 소실점(10)과의 수평 거리로 이해할 수 있는 것이다.
한편, 영역 추출부(150)가 전달받는 좌표 영역은 직사각형, 원형, 타원형, 또는 다각형의 형태일 수 있는데, 그 형태가 분할 영역의 형태와 일치하지 않을 수 있다.
이러한 경우 영역 추출부(150)는 좌표 영역이 모두 포함되도록 분할 영역을 추출할 수 있으며, 좌표 영역 중 미세한 일부가 분할 영역을 벗어난 경우 해당 부분은 추출되는 분할 영역에 포함시키지 않을 수도 있다.
도 6은 사람의 팔 일부가 수직 분할 영역을 벗어난 것을 도시하고 있는데, 이는 영역 추출부(150)가 사람의 몸통만이 포함되도록 하고 팔의 일부는 포함되지 않도록 수직 분할 영역(610, 620)을 추출한 것을 나타내고 있다.
도 7은 도 3의 수평 분할 영역 중 일부에 대상 물체가 오버레이된 것을 나타낸 도면으로서, 도 2의 영상(200) 중 오른쪽 말단에 위치하고 있는 사람(213)을 대상 물체로 하고 있고, 그 대상 물체(213)를 포함하고 있는 수평 분할 영역(710, 720, 730, 740, 750)을 나타내고 있다.
여기서, 수평 분할 영역(710, 720, 730, 740, 750)과 소실점(10)과의 거리는 수평 거리에 대한 고려 없이 수직 거리만을 고려한다는 것은 전술한 바와 같다. 다시 말해, 소실점(10)을 포함하는 가상의 수평선(760)과 수평 분할 영역(710, 720, 730, 740, 750)과의 거리를 수평 분할 영역(710, 720, 730, 740, 750)과 소실점(10)과의 수직 거리로 이해할 수 있는 것이다.
도 8은 도 5의 격자 분할 영역 중 일부에 대상 물체가 오버레이된 것을 나타낸 도면으로서, 도 2의 영상(200) 중 오른쪽 말단에 위치하고 있는 사람(213)을 대상 물체로 하고 있고, 그 대상 물체(213)를 포함하고 있는 격자 분할 영역(811, 812, 813, 814, 815, 821, 822, 823, 824, 825)을 나타내고 있다.
전술한 바와 같이, 물체가 특정 수평 분할 영역 및 특정 수직 분할 영역에 포함되어 있는 경우 그 교차 영역이 격자 분할 영역에 대응한다. 따라서, 도 6 내지 도 8은 도 2에 도시된 물체(211, 212, 213, 220, 230) 중 동일 물체(213)를 대상으로 하고 있기 때문에 도 6에서 추출된 수직 분할 영역(610, 620)과 도 7에서 추출된 수평 분할 영역(710, 720, 730, 740, 750)을 교차시키는 경우 그 교차 영역은 도 8에서 추출된 격자 분할 영역(811, 812, 813, 814, 815, 821, 822, 823, 824, 825)에 대응한다.
즉, 도 6 내지 도 8의 경우 영역 추출부(150)는 2개의 수직 분할 영역(610, 620)과 5개의 수평 분할 영역(710, 720, 730, 740, 750)을 추출하거나, 10개의 격자 분할 영역(811, 812, 813, 814, 815, 821, 822, 823, 824, 825)을 추출할 수 있는 것이다.
결국, 수평 분할 영역 및 수직 분할 영역의 교차 영역이 격자 분할 영역에 대응하기는 하나, 적용하는 분할 영역 방식의 종류에 따라 추출되는 값의 개수가 달라질 수 있는 것으로서, 격자 분할 영역을 적용하는 방식의 경우보다 수평 분할 영역과 수직 분할 영역을 모두 적용하는 방식의 경우 추출되는 값의 개수가 적다.
따라서, 데이터를 임시로 저장할 수 있는 저장부(120)의 저장 공간에 제한이 있는지 여부와 영역 추출부(150)에 의하여 추출된 값을 이용하여 처리하는 과정에서의 연산량을 고려하여 수평 분할 영역 및 수직 분할 영역을 모두 이용하는 방식 또는 격자 분할 영역만을 이용하는 방식 중 하나를 선택하여 분할 영역이 추출되도록 할 수 있다.
이와 같이 적용하고자 하는 분할 영역의 방식은 사용자에 의하여 결정될 수 있으며, 영역 추출부(150)는 선택된 분할 영역 방식을 적용하여 물체에 오버레이된 분할 영역을 추출한다.
출력부(160)는 영역 추출부(150)에 의하여 추출된 분할 영역을 출력하는 역할을 수행한다. 즉, 도 6의 경우 2개의 수직 분할 영역이 출력되고, 도 7의 경우 5개의 수평 분할 영역이 출력되며, 도 8의 경우 10개의 격자 분할 영역이 출력될 수 있는 것이다.
여기서, 출력부(160)에 의하여 출력되는 분할 영역은 해당 분할 영역을 나타내는 고유 정보를 의미하는 것으로서, 식별자 또는 주소 등일 수 있는데, 출력된 분할 영역 정보는 별도의 장치(미도시)에 의하여 활용되어 관찰자와 물체와의 거리 판단에 이용될 수 있다.
또한, 관찰자와 물체와의 거리를 판단하는 수단이 위치 정보 제공 수단(100)에 구비될 수 있는데, 위치 정보 생성부(140)는 출력부(160)에 의하여 출력된 분할 영역을 이용하여 물체에 대한 위치 정보를 생성할 수 있다.
여기서, 위치 정보는 관찰자와 물체와의 거리를 나타내는 것인데, 구체적으로 카메라부(110)와 물체와의 거리인 것으로 이해할 수 있다. 또한, 카메라부(110)의 조준에 의해 형성되는 가상의 기준선에 대한 물체의 수평각이 위치 정보에 포함될 수도 있다.
또한, 본 발명에서 위치 정보는 관찰자와 물체와의 거리가 아닌 절대 좌표를 의미하는 것일 수도 있다. 예를 들어, GPS(Global Positioning System) 수신기와 같이 지표면상에서 자신의 위치를 판단할 수 있는 수단(미도시)이 구비된 경우 위치 정보 생성부(140)는 자신의 위치에 물체의 수평각과 물체와의 거리를 적용함으로써 해당 물체의 절대 좌표를 산출할 수 있는 것이다.
전술한 바와 같이, 본 발명에서 거리를 판단하기 위한 주요 대상인 물체는 사람 또는 동물이다. 여기서, 동물은 육상 동물인 것으로 한정한다. 다시 말해, 새 또는 벌레와 같이 날아다니는 동물은 본 발명에서 고려하지 않기로 한다.
이와 같이, 사람 또는 육상 동물과 같이 육상에서 생활하는 물체는 반드시 지면과 접촉하고 있는 것으로 이해될 수 있다. 그리고, 그러한 물체와의 거리는 수평 분할 영역상에서 그 물체의 하부 말단이 어디에 포함되어 있는지 여부에 따라 판단될 수 있다.
예를 들어, 물체의 크기가 크더라도 그 하부 말단이 포함되어 있는 수평 분할 영역이 소실점(10)과 가깝다면 관찰자로부터 멀리 떨어져 있고, 물체의 크기가 작더라도 그 하부 말단이 포함되어 있는 수평 분할 영역이 소실점(10)과 멀다면 관찰자와 가깝게 있는 것이다.
이에 따라, 본 발명의 위치 정보 생성부(140)는 추출된 분할 영역이 수평 분할 영역 또는 격자 분할 영역인 경우, 물체의 하부 말단에 대응하는 분할 영역을 참조하여 물체와의 거리를 판단할 수 있다.
즉, 위치 정보 생성부(140)는 물체를 구성하는 좌표 영역 중 지면과 가장 가깝다고 판단되는 영역을 기준으로 그 물체와의 거리를 판단하는 것으로서, 도 7의 경우 하부 말단에 위치하고 있는 수평 분할 영역(750)과 도 8의 경우 하부 말단에 위치하고 있는 격자 분할 영역(815, 825)이 위치 정보 생성부(140)가 물체와의 거리를 판단할 때 고려되는 분할 영역인 것으로 이해될 수 있다.
위치 정보 생성부(140)에 의한 물체와의 거리 판단은 소실점(10)과 분할 영역간의 거리를 고려하여 수행될 수 있다.
도 9는 도 8에서 오버레이된 격자 분할 영역 중 하나와 소실점(10)간의 거리를 나타낸 도면으로서, 도 8에서 오버레이된 10개의 격자 분할 영역 중 왼쪽 하부 말단에 위치하고 있는 격자 분할 영역(815)과 소실점(10)간의 거리(900)를 나타낸 도면이다.
전술한 바와 같이, 추출된 분할 영역이 수평 분할 영역이거나 격자 분할 영역인 경우 오버레이된 분할 영역 중 하부 말단에 위치하고 있는 분할 영역을 기준으로 삼을 수 있는데, 만일 하부 말단에 위치하고 있는 분할 영역이 복수 개인 경우 위치 정보 생성부(140)는 소실점(10)과 가장 가까운 분할 영역을 기준으로 소실점(10)과의 거리를 산출할 수 있다.
또한, 하부 말단에 위치하고 있는 분할 영역이 복수 개인 경우 위치 정보 생성부(140)는 복수 개의 분할 영역 중 중간 지점과 소실점(10)간의 거리를 산출할 수 있으며, 소실점(10)과 가장 먼 분할 영역을 기준으로 소실점(10)과의 거리를 산출할 수도 있음은 물론이다.
한편, 위치 정보 생성부(140)는 소실점(10)과 분할 영역간의 거리를 이용하여 물체의 위치 정보를 생성할 수 있으나, 저장부(120)에 저장된 매핑 테이블(미도시)을 이용하여 물체의 위치 정보를 추출할 수도 있다. 즉, 저장부(120)는 각 분할 영역 또는 분할 영역의 조합별로 수평각 및 거리가 매핑되어 저장될 수 있는 것이다.
예를 들어, 한 쌍의 수평 분할 영역 및 수직 분할 영역에 적용되는 수평각 및 거리가 저장부(120)에 저장되어 있거나, 격자 분할 영역 각각에 수평각 및 거리가 매핑될 수 있는 것이다.
도 6 내지 도 7를 이용하여 이에 대한 예를 설명하면, 영역 추출부(150)로부터 수직 분할 영역(610, 620) 및 수평 분할 영역(710, 720, 730, 740, 750)을 전달받는 경우 위치 정보 생성부(140)는 수직 분할 영역(610, 620) 중 소실점(10)과 가장 가까운 수직 분할 영역(610)과 수평 분할 영역(710, 720, 730, 740, 750) 중 하부 말단에 위치하고 있는 수평 분할 영역(750)을 추출한다.
그리고, 위치 정보 생성부(140)는 추출된 수직 분할 영역(610) 및 수평 분할 영역(750)을 매핑 테이블에 적용하는데, 한 쌍의 수평 분할 영역과 수직 분할 영역에 대응하는 수평각 및 거리는 유일하기 때문에 위치 정보 생성부(140)는 해당 값을 위치 정보로서 생성할 수 있게 된다.
저장부(120)는 하드 디스크, 플래시 메모리, CF 카드(Compact Flash Card), SD 카드(Secure Digital Card), SM 카드(Smart Media Card), MMC(Multimedia Card) 또는 메모리 스틱(Memory Stick) 등 정보의 입출력이 가능한 모듈로서 위치 정보 제공 장치(100)의 내부에 구비되어 있을 수도 있고, 별도의 시스템에 구비되어 있을 수도 있다.
한편, 단순히 소실점(10)과 분할 영역간의 거리만으로는 물체와의 정확한 거리를 판단하기 어렵다. 이는 소실점(10)과 가까운 분할 영역에 물체가 오버레이된 경우 미세한 위치 차이에 불과하더라도 실제 위치 차이는 크기 때문이다.
이를 보완하기 위하여, 분할 해상도를 높일 수 있으나 분할 해상도를 높일수록 연산량이 증가할 수 있다.
따라서, 본 발명의 실시예에 따른 분할 영역은 도 3 내지 도 8에 도시된 바와 같이 가상 플레이트 또는 영상(200)에 포함된 적어도 하나 이상의 특정 포인트 즉, 소실점(10)과의 거리와 무관하게 그 크기가 동일하게 형성될 수 있을 뿐만 아니라, 가상 플레이트 또는 영상(200)에 포함된 적어도 하나 이상의 특정 포인트와의 거리에 따라 그 크기가 다르게 형성될 수도 있다.
도 10 내지 도 12는 소실점(10)과의 거리에 비례하여 분할 영역의 크기가 다르게 형성된 것을 나타낸 도면으로서, 도 10은 수평 분할 영역이 도시된 가상 플레이트(1000)를 나타내고, 도 11은 수직 분할 영역이 도시된 가상 플레이트(1100)를 나타내며, 도 12는 격자 분할 영역이 도시된 가상 플레이트(1200)를 나타내고 있다.
이와 같이, 소실점(10)과의 거리에 따라 분할 영역의 크기를 다르게 형성함으로써 분할 해상도는 늘리지 않는 상태로 물체와의 보다 정확한 거리를 판단할 수 있게 된다.
한편, 도 10 내지 도 12는 하나의 소실점이 가상 플레이트(1000, 1100, 1200)의 중앙에 존재하는 것을 나타내고 있으나, 복수의 소실점이 가상 플레이트에 포함될 수도 있으며 이에 따라 분할 영역의 패턴이 다르게 형성될 수 있다.
예를 들어, 가상 플레이트의 중심을 지나는 수평선의 양쪽 말단에 소실점(미도시)이 존재하고 분할 영역의 형태가 수직 분할인 경우 양쪽 소실점에 가깝게 존재하는 수직 분할 영역은 그 크기가 작게 형성되고 가상 플레이트의 중심에 존재하는 수직 분할 영역은 소실점과의 거리가 멀기 때문에 그 크기가 크게 형성되는 것이다.
분할 영역의 패턴을 결정하기 위해서는 소실점의 위치를 사전에 파악하는 것이 중요한데, 이는 영상에 포함된 물체의 형태 및 물체간의 관계를 분석함으로써 확인될 수 있다. 그러나, 이에 대한 자세한 설명은 본 발명의 범위를 벗어나므로 자세한 설명은 생략하기로 한다.
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
110: 카메라부 120: 저장부
130: 제어부 140: 위치 정보 생성부
150: 영역 추출부 160: 출력부
130: 제어부 140: 위치 정보 생성부
150: 영역 추출부 160: 출력부
Claims (26)
- 촬영된 물체가 포함된 영상을 생성하는 카메라부;
상기 영상을 복수 개의 영역으로 구분하는 분할 영역 중 상기 물체에 대응하는 분할 영역을 추출하는 영역 추출부; 및
상기 추출된 분할 영역을 출력하는 출력부를 포함하는 위치 정보 제공 장치. - 제 1항에 있어서,
상기 영역 추출부는 복수 개의 상기 분할 영역으로 구성된 가상 플레이트를 상기 영상에 적용시켜 상기 물체가 오버레이된 분할 영역을 추출하는 위치 정보 제공 장치. - 제 2항에 있어서,
상기 분할 영역은 상기 가상 플레이트가 가로 방향으로 분할되어 형성되는 수평 분할 영역, 상기 가상 플레이트가 세로 방향으로 분할되어 형성되는 수직 분할 영역 및 상기 가상 플레이트가 가로 방향 및 세로 방향으로 분할되어 형성되는 격자 분할 영역 중 적어도 하나를 포함하는 위치 정보 제공 장치. - 제 3항에 있어서,
상기 분할 영역은 상기 가상 플레이트에 포함된 적어도 하나 이상의 특정 포인트와의 거리에 따라 그 크기가 같거나 다르게 형성되는 위치 정보 제공 장치. - 제 3항에 있어서,
상기 추출된 분할 영역을 참조하여 상기 물체에 대한 위치 정보를 생성하는 위치 정보 생성부를 더 포함하는 위치 정보 제공 장치. - 제 5항에 있어서,
상기 물체에 대한 위치 정보는 상기 카메라부의 조준에 의해 형성되는 가상의 기준선에 대한 상기 물체의 수평각 및 상기 물체와의 거리 중 적어도 하나를 포함하는 위치 정보 제공 장치. - 제 6항에 있어서,
상기 위치 정보 생성부는 상기 추출된 분할 영역이 상기 수평 분할 영역 또는 상기 격자 분할 영역인 경우, 상기 물체의 하부 말단이 오버레이된 분할 영역을 참조하여 상기 물체와의 거리를 판단하는 위치 정보 제공 장치. - 제 1항에 있어서,
상기 영역 추출부는 상기 영상을 복수 개의 상기 분할 영역으로 분할하여 상기 물체에 대응하는 분할 영역을 추출하는 위치 정보 제공 장치. - 제 8항에 있어서,
상기 분할 영역은 상기 영상이 가로 방향으로 분할되어 형성되는 수평 분할 영역, 상기 영상이 세로 방향으로 분할되어 형성되는 수직 분할 영역 및 상기 영상이 가로 방향 및 세로 방향으로 분할되어 형성되는 격자 분할 영역 중 적어도 하나를 포함하는 위치 정보 제공 장치. - 제 9항에 있어서,
상기 분할 영역은 상기 영역에 포함된 적어도 하나 이상의 특정 포인트와의 거리에 따라 그 크기가 같거나 다르게 형성되는 위치 정보 제공 장치. - 제 9항에 있어서,
상기 추출된 분할 영역을 참조하여 상기 물체에 대한 위치 정보를 생성하는 위치 정보 생성부를 더 포함하는 위치 정보 제공 장치. - 제 11항에 있어서,
상기 물체에 대한 위치 정보는 상기 카메라부의 조준에 의해 형성되는 가상의 기준선에 대한 상기 물체의 수평각 및 상기 물체와의 거리 중 적어도 하나를 포함하는 위치 정보 제공 장치. - 제 12항에 있어서,
상기 위치 정보 생성부는 상기 추출된 분할 영역이 상기 수평 분할 영역 또는 상기 격자 분할 영역인 경우, 상기 물체의 하부 말단에 대응하는 분할 영역을 참조하여 상기 물체와의 거리를 판단하는 위치 정보 제공 장치. - 카메라를 이용하여 촬영된 물체가 포함된 영상을 생성하는 단계;
상기 영상을 복수 개의 영역으로 구분하는 분할 영역 중 상기 물체에 대응하는 분할 영역을 추출하는 단계; 및
상기 추출된 분할 영역을 출력하는 단계를 포함하는 위치 정보 제공 방법. - 제 14항에 있어서,
상기 분할 영역을 추출하는 단계는 복수 개의 상기 분할 영역으로 구성된 가상 플레이트를 상기 영상에 적용시켜 상기 물체가 오버레이된 분할 영역을 추출하는 단계를 포함하는 위치 정보 제공 방법. - 제 15항에 있어서,
상기 분할 영역은 상기 가상 플레이트가 가로 방향으로 분할되어 형성되는 수평 분할 영역, 상기 가상 플레이트가 세로 방향으로 분할되어 형성되는 수직 분할 영역 및 상기 가상 플레이트가 가로 방향 및 세로 방향으로 분할되어 형성되는 격자 분할 영역 중 적어도 하나를 포함하는 위치 정보 제공 방법. - 제 16항에 있어서,
상기 분할 영역은 상기 가상 플레이트에 포함된 적어도 하나 이상의 특정 포인트와의 거리에 따라 그 크기가 같거나 다르게 형성되는 위치 정보 제공 방법. - 제 16항에 있어서,
상기 추출된 분할 영역을 참조하여 상기 물체에 대한 위치 정보를 생성하는 단계를 더 포함하는 위치 정보 제공 방법. - 제 18항에 있어서,
상기 물체에 대한 위치 정보는 상기 카메라의 조준에 의해 형성되는 가상의 기준선에 대한 상기 물체의 수평각 및 상기 물체와의 거리 중 적어도 하나를 포함하는 위치 정보 제공 방법. - 제 19항에 있어서,
상기 물체에 대한 위치 정보를 생성하는 단계는 상기 추출된 분할 영역이 상기 수평 분할 영역 또는 상기 격자 분할 영역인 경우, 상기 물체의 하부 말단이 오버레이된 분할 영역을 참조하여 상기 물체와의 거리를 판단하는 단계를 포함하는 위치 정보 제공 방법. - 제 14항에 있어서,
상기 분할 영역을 추출하는 단계는 상기 영상을 복수 개의 상기 분할 영역으로 분할하여 상기 물체에 대응하는 분할 영역을 추출하는 단계를 포함하는 위치 정보 제공 방법. - 제 21항에 있어서,
상기 분할 영역은 상기 영상이 가로 방향으로 분할되어 형성되는 수평 분할 영역, 상기 영상이 세로 방향으로 분할되어 형성되는 수직 분할 영역 및 상기 영상이 가로 방향 및 세로 방향으로 분할되어 형성되는 격자 분할 영역 중 적어도 하나를 포함하는 위치 정보 제공 방법. - 제 22항에 있어서,
상기 분할 영역은 상기 영상에 포함된 적어도 하나 이상의 특정 포인트와의 거리에 따라 그 크기가 같거나 다르게 형성되는 위치 정보 제공 방법. - 제 22항에 있어서,
상기 추출된 분할 영역을 참조하여 상기 물체에 대한 위치 정보를 생성하는 단계를 더 포함하는 위치 정보 제공 방법. - 제 24항에 있어서,
상기 물체에 대한 위치 정보는 상기 카메라부의 조준에 의해 형성되는 가상의 기준선에 대한 상기 물체의 수평각 및 상기 물체와의 거리 중 적어도 하나를 포함하는 위치 정보 제공 방법. - 제 25항에 있어서,
상기 물체에 대한 위치 정보를 생성하는 단계는 상기 추출된 분할 영역이 상기 수평 분할 영역 또는 상기 격자 분할 영역인 경우, 상기 물체의 하부 말단에 대응하는 분할 영역을 참조하여 상기 물체와의 거리를 판단하는 단계를 포함하는 위치 정보 제공 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110132074A KR101340014B1 (ko) | 2011-12-09 | 2011-12-09 | 위치 정보 제공 장치 및 방법 |
US13/690,852 US20130147983A1 (en) | 2011-12-09 | 2012-11-30 | Apparatus and method for providing location information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110132074A KR101340014B1 (ko) | 2011-12-09 | 2011-12-09 | 위치 정보 제공 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130065281A true KR20130065281A (ko) | 2013-06-19 |
KR101340014B1 KR101340014B1 (ko) | 2013-12-10 |
Family
ID=48571657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110132074A KR101340014B1 (ko) | 2011-12-09 | 2011-12-09 | 위치 정보 제공 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20130147983A1 (ko) |
KR (1) | KR101340014B1 (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8666656B2 (en) * | 2011-03-04 | 2014-03-04 | Mitsubishi Electric Corporation | Object detection device and navigation device |
KR101593484B1 (ko) * | 2014-07-10 | 2016-02-15 | 경북대학교 산학협력단 | 동등-높이 주변영역 정합 영상을 이용하여 측면에서 접근하는 일부분만 보이는 물체를 검출하기 위한 영상 처리 장치 및 방법, 그리고 그를 이용한 차량 운전 보조 시스템 |
US11572014B1 (en) * | 2021-11-18 | 2023-02-07 | GM Global Technology Operations LLC | Reducing animal vehicle collisions |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4819169A (en) * | 1986-09-24 | 1989-04-04 | Nissan Motor Company, Limited | System and method for calculating movement direction and position of an unmanned vehicle |
US5291563A (en) * | 1990-12-17 | 1994-03-01 | Nippon Telegraph And Telephone Corporation | Method and apparatus for detection of target object with improved robustness |
JPH05265547A (ja) * | 1992-03-23 | 1993-10-15 | Fuji Heavy Ind Ltd | 車輌用車外監視装置 |
DE69407188T2 (de) * | 1993-07-22 | 1998-07-09 | Minnesota Mining & Mfg | Verfahren und gerät zur kalibrierung eines dreidimensionalen raumes für anwendung in maschinenvision |
JP3522317B2 (ja) * | 1993-12-27 | 2004-04-26 | 富士重工業株式会社 | 車輌用走行案内装置 |
JP3807583B2 (ja) * | 1999-04-19 | 2006-08-09 | 本田技研工業株式会社 | 道路領域判定装置 |
JP4100823B2 (ja) | 1999-05-27 | 2008-06-11 | 本田技研工業株式会社 | 物体判定装置 |
JP4118452B2 (ja) | 1999-06-16 | 2008-07-16 | 本田技研工業株式会社 | 物体認識装置 |
JP4391624B2 (ja) * | 1999-06-16 | 2009-12-24 | 本田技研工業株式会社 | 物体認識装置 |
JP3300340B2 (ja) * | 1999-09-20 | 2002-07-08 | 松下電器産業株式会社 | 運転支援装置 |
JP3995846B2 (ja) * | 1999-09-24 | 2007-10-24 | 本田技研工業株式会社 | 物体認識装置 |
JP2002319091A (ja) * | 2001-04-20 | 2002-10-31 | Fuji Heavy Ind Ltd | 後続車両認識装置 |
US7982772B2 (en) * | 2004-03-30 | 2011-07-19 | Fujifilm Corporation | Image correction apparatus and image correction method for correcting image blur using a mobile vector |
KR20090092153A (ko) * | 2008-02-26 | 2009-08-31 | 삼성전자주식회사 | 이미지 처리 장치 및 방법 |
JP5073548B2 (ja) * | 2008-03-27 | 2012-11-14 | 富士重工業株式会社 | 車両用環境認識装置および先行車追従制御システム |
DE102009015824B4 (de) * | 2008-04-02 | 2022-03-24 | Denso Corporation | Blendfreibereich-Kartenprodukt und dieses verwendende System zur Bestimmung, ob eine Person geblendet wird |
JPWO2011064831A1 (ja) * | 2009-11-30 | 2013-04-11 | 富士通株式会社 | 診断装置及び診断方法 |
WO2012066999A1 (ja) * | 2010-11-16 | 2012-05-24 | 本田技研工業株式会社 | 車載カメラの変位量検出装置 |
TW201227606A (en) * | 2010-12-30 | 2012-07-01 | Hon Hai Prec Ind Co Ltd | Electronic device and method for designing a specified scene using the electronic device |
-
2011
- 2011-12-09 KR KR1020110132074A patent/KR101340014B1/ko active IP Right Grant
-
2012
- 2012-11-30 US US13/690,852 patent/US20130147983A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20130147983A1 (en) | 2013-06-13 |
KR101340014B1 (ko) | 2013-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10274598B2 (en) | Navigation based on radar-cued visual imaging | |
JP6795027B2 (ja) | 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム | |
CN107273788B (zh) | 在车辆中执行车道检测的成像系统与车辆成像系统 | |
JP6313646B2 (ja) | 外界認識装置 | |
KR101891460B1 (ko) | 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치 | |
US20200082182A1 (en) | Training data generating method for image processing, image processing method, and devices thereof | |
US9460343B2 (en) | Method and system for proactively recognizing an action of a road user | |
JP6358552B2 (ja) | 画像認識装置および画像認識方法 | |
JP6457278B2 (ja) | 物体検出装置及び物体検出方法 | |
US11443151B2 (en) | Driving assistant system, electronic device, and operation method thereof | |
EP3324359B1 (en) | Image processing device and image processing method | |
JP6038422B1 (ja) | 車両判定装置、車両判定方法及び車両判定プログラム | |
EP3545464A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP6677474B2 (ja) | 周辺認識装置 | |
JP2017159884A (ja) | 運転制御装置、運転制御方法及び運転制御プログラム | |
KR101340014B1 (ko) | 위치 정보 제공 장치 및 방법 | |
JP2018073275A (ja) | 画像認識装置 | |
US10789727B2 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
KR102003387B1 (ko) | 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체 | |
KR101044728B1 (ko) | 차선 이탈 경고 시스템 및 방법 | |
JP4788399B2 (ja) | 歩行者検出方法、装置、およびプログラム | |
Ganesan et al. | An Image Processing Approach to Detect Obstacles on Road | |
WO2018097269A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP6943092B2 (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム | |
JP2018194538A (ja) | 情報処理装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160926 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170925 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180921 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190925 Year of fee payment: 7 |