KR102153581B1 - 주변 영상 모니터링 장치 - Google Patents

주변 영상 모니터링 장치 Download PDF

Info

Publication number
KR102153581B1
KR102153581B1 KR1020160023347A KR20160023347A KR102153581B1 KR 102153581 B1 KR102153581 B1 KR 102153581B1 KR 1020160023347 A KR1020160023347 A KR 1020160023347A KR 20160023347 A KR20160023347 A KR 20160023347A KR 102153581 B1 KR102153581 B1 KR 102153581B1
Authority
KR
South Korea
Prior art keywords
obstacle
image
height
top view
control unit
Prior art date
Application number
KR1020160023347A
Other languages
English (en)
Other versions
KR20170100897A (ko
Inventor
김배진
김민수
Original Assignee
한화디펜스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화디펜스 주식회사 filed Critical 한화디펜스 주식회사
Priority to KR1020160023347A priority Critical patent/KR102153581B1/ko
Publication of KR20170100897A publication Critical patent/KR20170100897A/ko
Application granted granted Critical
Publication of KR102153581B1 publication Critical patent/KR102153581B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • B60R1/081Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors avoiding blind spots, e.g. by using a side-by-side association of mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

상기 과제를 해결하기 위한 본 발명의 실시예에 따른 주변 영상 모니터링 장치는 상기 디스플레이 장치는, 상기 전자 제어 유닛이 상기 물체를 장애물로 판단한다면, 상기 물체를 장애물인 것으로 표시하고, 상기 전자 제어 유닛이 상기 물체를 장애물이 아닌 것으로 판단한다면, 상기 물체를 장애물이 아닌 것으로 표시하는, 이동체의 주변 영상을 촬영하는 복수의 카메라; 상기 이동체의 주위에 있는 물체의 높이 또는 물체의 위치를 감지하는 적어도 하나의 스캐닝 센서; 상기 촬영된 영상의 처리를 제어하고, 상기 이동체의 구동을 제어하며, 상기 물체가 장애물인지 판단하는 전자 제어 유닛(ECU); 상기 복수의 카메라에 의해 촬영된 복수의 영상 각각을 변환 및 합성하여 하나의 합성 탑 뷰를 생성하는 탑 뷰 생성부; 상기 이동체와 통신하여 상기 이동체를 컨트롤하고, 상기 촬영된 영상 또는 상기 생성된 하나의 합성 탑 뷰를 디스플레이하는 디스플레이 장치를 포함하는 컨트롤러를 포함하되, 상기 디스플레이 장치는, 상기 전자 제어 유닛이 상기 물체를 장애물로 판단한다면, 상기 물체를 장애물인 것으로 표시하고, 상기 전자 제어 유닛이 상기 물체를 장애물이 아닌 것으로 판단한다면, 상기 물체를 장애물이 아닌 것으로 표시한다.

Description

주변 영상 모니터링 장치{The Apparatus For Around View Monitoring}
본 발명은 주변 영상 모니터링 장치에 관한 것으로서, 보다 상세하게는 탑 뷰(Top View)를 통하여 보여지는 영상의 사각지대를 제거함으로써, 탑 뷰(Top View)를 통해 장애물로 보여지더라도 실제 장애물인지 여부를 판단할 수 있는 주변 영상 모니터링 장치에 관한 것이다.
일반적으로 주차공간에 무인 이동체를 주차하기 위해서는, 현재 무인 이동체의 위치, 주변의 장애물이나 다른 무인 이동체의 위치 및 거리, 조향 각도, 무인 이동체의 예상 진로 등을 운전자가 자신의 감각 및 경험에 의존하여 판단해야 한다. 그러나 초보 운전자들은 이러한 감각 및 경험이 부족하여 주차할 때 상당한 어려움을 겪는다. 특히, 좁은 공간 또는 사각지대가 많은 장소에서 무인 이동체를 주차할 경우에는, 운전자의 위치 판단 실수나 조작의 실수로 인해 다른 무인 이동체나 장애물과 충돌을 일으킬 가능성이 매우 높다.
이러한 문제를 해결하기 위해 무인 이동체의 전방 및 후방에 카메라를 설치하여 해당 방향의 영상을 촬영하고, 무인 이동체와 연동되는 디스플레이 장치를 통해 상기 영상을 디스플레이 함으로써 운전자가 현재 진행 중인 주차과정을 용이하게 인지할 수 있도록 하는 기술들이 제시되었다. 나아가, 최근에는 무인 이동체의 전방, 후방, 좌측방, 우측방에 각각 카메라를 설치하여 영상을 촬영하고, 이를 변환 및 합성하여 탑 뷰(Top View)(Top View: 위에서 무인 이동체를 수직으로 내려다보는 영상)를 생성하는 AVM(Around View Monitoring) 기술이 소개되었다. 이러한 AVM 기술에 의해 운전자의 무인 이동체 운전에 편의가 증대되고 무인 이동체 주변 상황을 용이하게 인지할 수 있어 사고 예방에 큰 도움이 되었다. 이에 따라 현재 AVM 기술을 기반으로 하는 주차 보조 시스템이 더욱 활발히 개발되고 있다.
도 1은 일반적인 AVM 기술을 수행하기 위해 무인 이동체(1)의 사방을 촬영한 복수의 영상을 합성하는 방법을 나타낸 개략도이다.
AVM(Around View Monitoring) 기술을 수행하기 위해서는, 무인 이동체(1)의 사방을 촬영한 복수의 영상을 정확하게 변환 및 합성하는 것이 중요하다. 따라서 일반적으로 무인 이동체(1)를 출시하기 전에 미리 공장에서 복수의 영상의 변환 및 합성을 수행한다. 도 1에 도시된 바와 같이 패턴 도면들이 평탄한 지면에 일정한 간격으로 위치되고, 상기 패턴 도면들이 무인 이동체(1)의 사방에 설치된 복수의 카메라(10a, 10b, 10c, 10d)로 모두 촬영될 수 있도록 무인 이동체(1)를 위치시킨다. 그리고 상기 복수의 카메라(10a, 10b, 10c, 10d)로 영상을 촬영하여 탑 뷰(Top View)를 생성하도록 영상을 자동으로 변환 및 합성한다.
변환 및 합성을 한 뒤에는 영상들을 회전 및 이동시킨 값에 대한 정보를 포함하는 파라미터 데이터들이 생성된다. 그리고 상기 파라미터 데이터에 기초하여 각 카메라의 영상들을 자연스럽게 합성하여 상기 패턴이 실제 위치된 간격 및 모양으로 영상에서 보여지도록 한다.
한국특허등록 제 1406230 호 한국공개공보 제 2015-0053323호
상기 AVM 기술은 일반적인 이동체에도 적용될 수 있으나, 최근에는 무인 이동체(Unmanned Vehicle)에도 AVM 기술을 도입하여 사용되기도 한다. 무인 이동체의 경우에는 사용자가 직접 탑승하지 않고 컨트롤러를 이용하여 원격으로 상기 무인 이동체를 조종해야 한다. 그러나 컨트롤러에 포함된 디스플레이 장치를 통하여 하나의 화면만이 출력되고, 상기 하나의 화면은 상기 AVM 기술을 통하여 생성된 탑 뷰(Top View)일 수 있다. 이러한 경우에는 사용자가 디스플레이 장치를 통해 탑 뷰(Top View)를 보는 동안 상기 무인 이동체의 진행방향을 향한 뷰를 볼 수 없게 된다.
디스플레이 장치를 복수 개로 형성되도록 하면, 사용자는 탑 뷰(Top View)와 함께 진행방향을 향한 뷰를 동시에 볼 수 있다. 또는 하나의 디스플레이 장치에 복수 개의 영상을 출력하도록 할 수 있다. 그러나 상기 무인 이동체를 조종하기 위하여 사용자가 야외에 나가는 경우에는, 컨트롤러의 휴대성을 위하여 상기 컨트롤러는 소형화 되는 것이 바람직하다. 그러나 디스플레이 장치가 복수 개 형성된 컨트롤러 또는, 하나의 디스플레이 장치에 유효한 복수 개의 영상이 출력 가능한 컨트롤러를 소형화 하는 것은 아직 현재의 기술로는 용이하지 않다.
만약 사용자가 상기 무인 이동체의 진행방향을 향한 뷰를 볼 수 없게 된다면, 탑 뷰(Top View)를 통하여 장애물로 보이는 물체가 상기 무인 이동체와 상이한 높이에 형성되어 장애물이 아니더라도 이를 확인할 수가 없게 된다. 또한, 탑 뷰(Top View)에서는 제1 장애물에 의해 제2 장애물이 가려지게 되어, 사용자가 제2 장애물을 확인할 수 없어 사각지대가 발생하는 문제점이 있다.
본 발명이 해결하고자 하는 과제는, 탑 뷰(Top View)를 통하여 보여지는 영상의 사각지대를 제거함으로써, 탑 뷰(Top View)를 통해 장애물로 보여지더라도 실제 장애물인지 여부를 판단할 수 있는 주변 영상 모니터링 장치을 제공하는 것이다.
본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 주변 영상 모니터링 장치는 상기 디스플레이 장치는, 상기 전자 제어 유닛이 상기 물체를 장애물로 판단한다면, 상기 물체를 장애물인 것으로 표시하고, 상기 전자 제어 유닛이 상기 물체를 장애물이 아닌 것으로 판단한다면, 상기 물체를 장애물이 아닌 것으로 표시하는, 이동체의 주변 영상을 촬영하는 복수의 카메라; 상기 이동체의 주위에 있는 물체의 높이 또는 물체의 위치를 감지하는 적어도 하나의 스캐닝 센서; 상기 촬영된 영상의 처리를 제어하고, 상기 이동체의 구동을 제어하며, 상기 물체가 장애물인지 판단하는 전자 제어 유닛(ECU); 상기 복수의 카메라에 의해 촬영된 복수의 영상 각각을 변환 및 합성하여 하나의 합성 탑 뷰를 생성하는 탑 뷰 생성부; 상기 이동체와 통신하여 상기 이동체를 컨트롤하고, 상기 촬영된 영상 또는 상기 생성된 하나의 합성 탑 뷰를 디스플레이하는 디스플레이 장치를 포함하는 컨트롤러를 포함하되, 상기 디스플레이 장치는, 상기 전자 제어 유닛이 상기 물체를 장애물로 판단한다면, 상기 물체를 장애물인 것으로 표시하고, 상기 전자 제어 유닛이 상기 물체를 장애물이 아닌 것으로 판단한다면, 상기 물체를 장애물이 아닌 것으로 표시한다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예들에 의하면 적어도 다음과 같은 효과가 있다.
무인 이동체에 AVM 기술을 적용하기 위한 복수의 카메라와 스캐닝 센서를 함께 설치하여, AVM 기술을 통하여 생성된 탑 뷰(Top View)에서 사각지대를 제거할 수 있고, 탑 뷰(Top View)를 통해 장애물로 보여지더라도 실제 장애물인지 여부를 판단할 수 있다.
또한, 제1 장애물에 의해 가려진 제2 장애물을 센싱함으로써 불의의 사고를 예방할 수 있다.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.
도 1은 일반적인 AVM 기술을 수행하기 위해 무인 이동체(1)의 사방을 촬영한 복수의 영상을 합성하는 방법을 나타낸 개략도이다.
도 2는 본 발명의 일 실시예에 따른 무인 이동체(1)의 사시도이다.
도 3는 본 발명의 일 실시예에 따른 주변 영상 모니터링 장치의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 라이다(LIDAR)의 기본 원리를 나타낸 참고도이다.
도 5는 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되는 경우 가운데 물체(3a) 자체의 높이(L1)가 높은 경우를 나타내는 무인 이동체(1)의 정면도이다.
도 6은 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되는 경우 가운데 물체(3b)가 위치한 높이(h1)가 무인 이동체(1)의 높이(h2)보다 낮은 경우를 나타내는 무인 이동체(1)의 정면도이다.
도 7은 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되는 경우 디스플레이 장치(21)상에 표시되는 탑 뷰(Top View)이다.
도 8은 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되지 않는 경우 가운데 물체(3c) 자체의 높이(L2)가 낮은 경우를 나타내는 무인 이동체(1)의 정면도이다.
도 9는 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되지 않는 경우 가운데 물체(3c) 자체의 높이(L2)가 낮은 경우 디스플레이 장치(21)상에 표시되는 탑 뷰(Top View)이다.
도 10은 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되지 않는 경우 가운데 물체(3d)가 위치한 높이(h3)가 무인 이동체(1)의 높이(h2)보다 높은 경우를 나타내는 무인 이동체(1)의 정면도이다.
도 11은 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되지 않는 경우 가운데 물체(3d)가 위치한 높이(h3)가 무인 이동체(1)의 높이(h2)보다 높은 경우 디스플레이 장치(21)상에 표시되는 탑 뷰(Top View)이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 2는 본 발명의 일 실시예에 따른 무인 이동체(1)의 사시도이다.
본 발명의 일 실시예에 따른 주변 영상 모니터링 장치는 이동체에 설치되어 탑 뷰(Top View)를 생성하고, 상기 탑 뷰(Top View)를 통해 장애물로 보여지더라도 실제 장애물인지 여부를 판단할 수 있다. 상기 이동체는 무인 이동체(Unmanned Vehicle)(1)인 것이 바람직하다. 이하, 본 발명의 일 실시예에 따른 이동체는 무인 이동체(1)인 것으로 설명한다. 그러나 이에 제한되지 않고 상기 이동체는 직접 사람이 탑승할 수 있는 차량일 수도 있다.
상기 무인 이동체(1)는 사용자가 컨트롤러(2)를 이용하여 실시간으로 조종할 수 있는 무인 이동체(1)뿐만 아니라, 사용자가 컨트롤러(2)를 이용하여 미리 경로를 설정하면 상기 미리 설정된 경로를 따라 운행되는 무인 이동체(1)일 수도 있다.
무인 이동체(1)에는 무인 항공체(UAV: Unmanned Aerial Vehicle), 무인 해상 이동체(UMV: Unmanned Maritime Vehicle) 그리고 무인 지상 이동체(UGV: Unmanned Ground Vehicle) 등이 있다. 본 발명의 일 실시예에 따른 주변 영상 모니터링 장치는 장애물이 많은 장소에서 유용하게 사용될 수 있다. 실제로 무인 이동체(1)가 운행 도중에 장애물을 만날 가능성이 높은 것은 지상에서 운행하는 경우이다. 따라서 본 발명의 일 실시예에 따른 무인 이동체(1)는 무인 지상 이동체(UGV)인 것이 바람직하다. 이하, 본 발명의 일 실시예에 따른 무인 이동체(1)는 무인 지상 이동체(UGV)인 것으로 설명한다. 그러나 이에 제한되지 않고, 무인 항공체(UAV), 무인 해상 이동체(UMV) 등에도 본 발명의 일 실시예에 따른 주변 영상 모니터링 장치가 설치될 수 있다.
도 3는 본 발명의 일 실시예에 따른 주변 영상 모니터링 장치의 블록도이다.
본 발명의 일 실시예에 따른 주변 영상 모니터링 장치는 무인 이동체(1)와 사용자가 상기 무인 이동체(1)를 조종할 수 있는 컨트롤러(2)를 포함한다.
무인 이동체(1)는 무인 이동체(1)의 주변 영상을 촬영하는 복수의 카메라(10a, 10b, 10c, 10d), 무인 이동체(1)의 주위의 장애물 유무를 감지하는 복수의 스캐닝 센서(11a, 11b, 11c, 11d), 무인 이동체(1)의 구동을 전체적으로 제어하는 전자 제어 유닛(ECU)(14), 복수의 카메라(10a, 10b, 10c, 10d)로부터 촬영되어 인코딩된 압축 영상을 전송받아 영상 처리를 하는 영상 처리부(121), 상기 복수의 영상들을 각각 탑 뷰(Top View)로 변환시키는 영상 변환부(122), 상기 각각의 탑 뷰(Top View)를 합성을 하여 하나의 탑 뷰(Top View)를 생성하는 영상 합성부(123), 상기 생성된 탑 뷰(Top View)를 컨트롤러(2)로 전송하는 제1 통신부(13)를 포함한다.
무인 이동체(1)의 주변에는 복수의 카메라(10a, 10b, 10c, 10d)가 각각 설치되어 무인 이동체(1)의 외부를 촬영한다. 일반적으로 무인 이동체(1)의 전방, 후방, 좌측방, 우측방에 하나씩 4대의 카메라(10a, 10b, 10c, 10d)가 설치될 수 있으나, 이에 제한되지 않고 다양한 개수의 카메라(10)가 무인 이동체(1)에 설치될 수 있다. 이러한 카메라(10)는 큰 화각을 갖는 광각렌즈가 주로 사용되며, 180° 이상의 화각을 갖는 초광각 렌즈인 어안 렌즈(Fish-Eye Lens)가 사용되기도 한다. 카메라(10)로부터 촬영된 영상은 무선 통신을 통해 컨트롤러(2)로 전송되어, 상기 컨트롤러(2)에 내장된 디스플레이 장치(21)를 통해 디스플레이 된다. 사용자는 상기 출력되는 영상을 통해 시야를 확보하여 외부의 상황을 용이하게 파악하고 장애물을 회피하는 등 안전성을 확보할 수 있다. 카메라(10)는 일반적으로 CCD(Charge Coupled Device)나 CIS(CMOS Image Sensor) 등의 촬상 소자를 이용한다. 본 발명의 일 실시예에 따른 카메라(10)는 매초 15~30프레임의 2차원 화상을 촬영하여 디지털 변환함으로써 동영상 데이터를 출력하는 디지털카메라인 것이 바람직하나, 이에 제한되지 않는다. 카메라(10)가 디지털카메라가 아니라면 촬영한 영상은 RGB 아날로그 영상 신호이므로 ADC컨버터가 별도로 구비되어야 하나, 본 발명의 일 실시예에 따른 카메라(10)가 디지털카메라라면 ADC컨버터가 필요하지 않다. 또한 카메라(10) 자체에서 영상을 인코딩하는 기능이 탑재되어 있으므로, 카메라(10)가 영상을 촬영하면 곧바로 인코딩되어 압축 영상 데이터가 생성된다.
최근에는 초고해상도 영상인 UHD(Ultra High Definition)의 관심으로 UHD 영상 인코딩을 위한 HEVC(High Efficiency Video Coding)의 표준화가 완료되며 H.264/MPEG-4 AVC보다 2배 이상의 인코딩 효율을 향상시켰다. 상기 영상을 인코딩하기 위한 코덱으로는, 최근 주로 사용되는 MPEG4 또는 H.264/MPEG-4 AVC, 상기 소개한 HEVC 등을 사용하는 것이 바람직하나, 이에 제한되지 않고 다양한 종류의 코덱이 사용될 수 있다.
스캐닝 센서(11)는 무인 이동체(1)의 주변에 설치되어 주위의 물체(3)유무를 감지한다. 스캐닝 센서(11)는 하나가 설치될 수도 있으나, 바람직하게는 복수의 스캐닝 센서(11a, 11b, 11c, 11d)가 설치될 수 있다. 그리고 각각의 스캐닝 센서(11a, 11b, 11c, 11d)들은 상기 카메라가 설치된 위치와 근접하게 설치될 수 있다. 상기 스캐닝 센서로는 초음파를 이용한 레이더(RADAR) 센서, 레이저를 이용한 라이다(LIDAR) 센서 등 원거리 물체(3) 감지 센서를 사용하는 것이 바람직하나 이에 제한되지 않는다.
이하, 본 발명의 일 실시예에 따른 스캐닝 센서(11)는 라이다 센서인 것으로 설명한다. 그러나 본 발명의 모든 실시예에 따른 스캐닝 센서(11)는 이에 제한되지 않고 무인 이동체(1)의 주위의 물체를 감지할 수 있다면 다양한 센서를 사용할 수 있다. 라이다에 대한 자세한 설명은 후술한다.
전자 제어 유닛(ECU)(14)은 무인 이동체(1)에 탑재된 각종 센서의 입력을 수신하고, 무인 이동체(1)의 구동을 전체적으로 제어한다. 복수의 카메라(10a, 10b, 10c, 10d)로부터 상기 복수의 압축 영상이 출력되면, 영상 처리부(121), 영상 변환부(122), 영상 합성부(123)를 거치며 디코딩 및 영상 처리와 하나의 탑 뷰(Top View)로 변환 및 합성하는 과정을 거친다. 이 때, 전자 제어 유닛(ECU)(14)에는 상기 압축 영상이 영상 처리부(121)로 입력된다는 신호가 인가된다. 본 발명의 일 실시예에 따른 전자 제어 유닛(ECU)(14)은 상기 신호가 인가되면, 영상 처리부(121)에서 디코딩 및 디코딩된 영상을 처리하여 해상도(Resolution), 프레임율(Frame-Rate) 또는 화질(Bit-Depth)을 변경하는 영상 처리 과정의 전반적인 제어를 수행한다. 예를 들면, 주야 판단을 하여 영상의 밝기를 조절할 수 있다. 구체적으로 설명하면, 별도로 무인 이동체(1)에 탑재된 조도 센서(155) 등과 같은 센서가 전자 제어 유닛(ECU)(14)에 신호를 인가한다. 전자 제어 유닛(ECU)(14)은 센서의 신호를 받으면, 야외의 주간, 야간 여부를 판단하고 영상의 밝기 조절을 명령한다. 상기 밝기 조절 명령은 영상 처리부(121)에 영상의 디코딩을 비롯한 영상 처리 과정에서 화소의 밝기를 조절하도록 명령할 수 있다. 또는 전자 제어 유닛(ECU)(14)이 직접 디스플레이 장치(21)에 백라이트(Backlight)의 밝기를 조절하도록 명령할 수 있다. 야외가 주간이라면 출력되는 영상의 밝기를 대략 500cd/m2 이상으로 밝게 하고, 야외가 야간이라면 출력되는 영상의 밝기를 대략 100cd/m2 이하로 어둡게 할 수 있으나, 상기 수치는 예시적인 것으로 이에 제한되지 않고 다양한 범위로 설정될 수 있다. 뿐만 아니라 전자 제어 유닛(ECU)(14)은, 하기 기술할 바 영상 변환부(122) 및 영상 합성부(123)에서 영상을 합성하는 과정에 있어서도 전반적인 제어를 수행한다.
전자 제어 유닛(ECU)(14)은 스캐닝 센서(11)가 물체를 감지하면, 상기 스캐닝 센서(11)로부터 발생된 신호를 수신한다. 전자 제어 유닛(ECU)(14)이 상기 신호를 수신하면, 물체(3) 자체의 높이 또는 물체(3)가 위치한 높이를 파악하고 상기 물체(3)가 장애물인지 판단하여, 만약 장애물이라 판단되면 해당 위치를 탑 뷰(Top View)에 장애물 표시를 한다. 즉, 탑 뷰(Top View)를 통해 볼 때에는 장애물로 보일 수 있는 물체(3)라도, 무인 이동체(1)와 위치한 높이가 상이하거나, 무인 이동체(1)와 충돌될 정도로 높이 형성되지 않아 실제로는 장애물이 아닐 수도 있다. 이러한 경우에는 전자 제어 유닛(ECU)(14)는 장애물이 아닌 것으로 판단하여 탑 뷰(Top View)에 장애물 표시를 하지 않을 수 있다. 이와 반대로, 탑 뷰(Top View)를 통해 볼 때에는 장애물이 아닌 것으로 보일 수 있는 물체(3)라도, 실제로는 상당히 높이가 높아서 무인 이동체(1)의 주행을 방해하는 장애물이 될 수도 있다. 이러한 경우에는 탑 뷰(Top View)에 장애물의 상대적인 높이를 표시하여 사용자에게 알려줄 수 있다. 자세한 내용은 후술한다.
전자 제어 유닛(ECU)(14)은 각종 설정된 내용들을 구현하거나 내부의 신호들을 제어한다. 상기 설정된 내용은 사용자가 자신에게 적합하도록 인터페이스를 설정한 내용뿐만 아니라 자체 소프트웨어의 업데이트 등의 내용을 포함한다. 그리고 상기 인터페이스의 설정 내용은 화면의 줌, 해상도, 밝기, 색도, 채도를 포함하고, 회전, 흑백, 스타일, 뷰 모드 등 사용자가 원하는 영상이 출력될 수 있도록 설정할 수 있는 모든 내용들을 포함한다. 따라서, 사용자가 원하면 화면의 줌 인 및 줌 아웃을 하여 화면의 확대 및 축소가 가능하고, 화면의 밝기 또한 조절할 수 있다. 또한, 카메라(10)가 촬영한 영상 중에서 디스플레이 되지 않는 부분을 볼 수 있도록 뷰 모드를 조정할 수 있고, 카메라(10)를 회전 및 이동시켜 사용자가 원하는 부분을 촬영하도록 할 수도 있다.
카메라(10)로부터 촬영된 복수의 영상은 영상 처리부(121)로 전송된다. 영상 처리부(121)는 상기 복수의 압축 영상이 동시에 입력되면 디코딩 및 렌더링 등의 영상 처리를 각각 독립적으로 동시에 수행할 수 있다. 영상 처리부(121)는 상기 압축 영상을 전송받아 디코딩하는 디코더, 버퍼 저장부, 그래픽 렌더러를 포함할 수 있다.
디코더는 카메라(10)로부터 인코딩된 압축 영상을 전송받아 디코딩하여 복원 영상을 생성한다. 상기 인코딩된 영상을 디코딩하기 위한 코덱 또한 상기 기술한 인코딩에서와 마찬가지로 다양한 종류가 사용될 수 있으나, 인코딩에 사용된 코덱과 동일한 종류이어야 동일한 표준에 의한 것이므로 정확히 영상이 복원된다.
만약 디스플레이 장치(21)에서 영상의 디스플레이 지체 현상이 발생한다면, 카메라(10)에서 촬영하여 전송되는 영상의 프레임들이 내부에서 대기하여야 한다. 버퍼 저장부는 상기 대기하는 영상의 프레임 데이터를 임시로 저장한다. 영상이 디스플레이 장치(21)를 통해 디스플레이 되면 이어서 다음 프레임에 해당하는 영상 데이터를 보냄으로써 영상이 자연스럽게 재생될 수 있도록 한다. 그래픽 렌더러는 상기 영상의 렌더링(Rendering) 작업을 수행한다. 렌더링이란 2차원의 영상이 더욱 실감나고 현실감이 있도록, 광원, 위치, 색상 등의 외부 정보를 고려하여 3차원 영상을 만들어내는 방법이다. 렌더링의 방법으로는 물체의 모서리만을 그려주는 와이어프레임(Wireframe) 렌더링, 광선의 굴절 및 반사를 계산하여 발광부까지의 경로를 역추적함으로써 각 픽셀의 색상을 결정하는 레이트레이싱(Raytracing) 렌더링 등이 있다.
상기 영상 처리부(121)에서 디코딩 및 기타 영상 처리된 영상이 출력되어 탑뷰 생성부(12)로 입력된다. 상기 탑 뷰 생성부(12)는 상기 입력된 영상을 위에서 무인 이동체(1)를 내려보는 영상인 하나의 탑 뷰(Top View)로 변환 및 합성을 하며, 영상 변환부(122)와 영상 합성부(123)을 포함할 수 있다. 영상 변환부(122)는 영상 처리된 복수의 영상을 전송받아 룩 업 테이블(Look Up Table)을 통해 영상을 변환하며, 상기 복수의 영상에 대한 각각의 탑 뷰(Top View)를 생성한다. 룩 업 테이블은 왜곡 보정 알고리즘, 아핀(Affine) 변환 알고리즘, 시점 변환 알고리즘을 적용하여 생성될 수 있다. 왜곡 보정 알고리즘은 카메라(10) 렌즈에 의하여 발생하는 기하학적 왜곡을 보정하는 알고리즘이다. 실제 렌즈는 일반적으로 비구면으로 형성되므로, 방사상 왜곡이나 접선 방향 왜곡이 발생할 수 있어 이를 보정하는 것이다. 여기서 왜곡 보정 알고리즘은 보정 파라미터와 왜곡 상수에 관한 함수로 나타낼 수 있다. 아핀(Affine) 변환은 2차원 공간이 1차식으로 나타나는 점 대응을 의미하며, 회전(R), 이동(T), 스케일(S) 변환을 거친다. 시점 변환 알고리즘은 복수의 카메라(10a, 10b, 10c, 10d)를 통해 촬영된 각각의 영상들을 위에서 내려다 보이는 탑 뷰(Top View) 영상으로 시점을 변환한다. 이러한 변환들은 이미 공지되어 있는 여러 가지 기술들을 사용함으로써 구현될 수 있다.
영상 합성부(123)는 상기 변환된 복수의 탑 뷰(Top View)을 겹치는 오버레이(Overlay) 방식으로 합성 처리한다. 여기서, 영상 합성부(123)는 마스크 영상을 이용하여 오버레이 합성 처리를 하는데, 마스크 영상은 각 카메라(10)에서 촬영되는 영상마다 보정 및 변환 영상을 구성하는 픽셀들에 대한 가중치(Weight) 정보를 가진다. 전자 제어 유닛(ECU)(14)은 보정 및 변환 영상들 사이에 중복되는 영역에 포함되는 픽셀들의 가중치를 조절하여 복수의 영상이 합성될 때 중복되는 영역을 더욱 자연스럽게 디스플레이 되도록 한다.
또한 각각의 영상은 영상 합성을 위해, 영상의 회전 및 이동을 한 정도를 나타내는 파라미터 데이터를 가진다. 파라미터 데이터는 상기 영상의 변환 및 합성을 한 뒤에 영상들을 회전 및 이동시킨 값에 대한 정보를 포함한다. 상기 파라미터 데이터에 기초하여 각 카메라의 영상들을 자연스럽게 합성하여 상기 패턴이 실제 위치된 간격 및 모양으로 영상에서 보여지도록 한다.
본 발명의 일 실시예에서는 영상 변환부(122)에서 복수의 영상에 대한 각각의 탑 뷰(Top View)를 생성한 후, 영상 합성부(123)에서 하나의 탑 뷰(Top View)를 합성하는 것으로 설명하였다. 그러나 이에 제한되지 않고, 복수의 영상을 먼저 합성한 후에 이를 하나의 탑 뷰(Top View)로 변환할 수도 있으며, 하나의 탑 뷰(Top View)를 생성하기 위한 다양한 방식이 사용될 수 있다.
영상 변환부(122) 및 영상 합성부(123)는 상기 복원 영상을 상기와 같은 과정을 통해 보정 및 변환을 하고, 오버레이 방식으로 합성 처리하여 무인 이동체(1)의 주변 360°를 한 눈에 볼 수 있는 하나의 탑 뷰(Top View) 영상을 생성한다.
제1 통신부(13)는 상기 생성된 탑 뷰(Top View)를 컨트롤러(2)로 전송한다. 뿐만 아니라, 컨트롤러(2)로부터 송신된 신호를 수신하여 전자 제어 유닛(ECU)(14)로 전송한다. 자세한 내용은 후술한다.
전자 제어 유닛(ECU)(14)은 네트워크 통신(15)을 통해 무인 이동체(1)에 탑재된 센서 및 시스템과 연결될 수 있다. 상기 무인 이동체(1)의 센서 및 시스템은 액셀레이터 시스템(151), 브레이크 시스템(152), 휠 스피드 센서(153), 조도 센서(154), 등을 포함한다.
액셀레이터 시스템(151)는 사용자의 명령 신호를 받아 무인 이동체(1)의 주행 스피드를 조절할 수 있도록 모터의 RPM을 조절하는 시스템이며, 휠 스피드 센서(153)는 무인 이동체(1)의 바퀴의 회전량 또는 단위시간 당 회전수를 검출하는 센서로써 홀(Hall) 소자 등을 사용하여 구성된다.
브레이크 시스템(152)은 구동부를 이용하여 제동력을 증강시키는 브레이크 어시스트(Brake Assist), 브레이크의 락을 억제하는 ABS(Anti-lock Braking System) 등을 가진 전동 브레이크 시스템이다. 외부 시스템(155)은 무인 이동체(1)의 생산, 점검 및 정비 시에 사용되는 검사 시스템이나 조정 시스템을 외부에서 접속 커넥터 등을 통해 접속하는 옵션 시스템으로, 무인 이동체(1)에 항상 탑재되는 것이 아니라 탈부착이 가능하다.
상기 기술한 센서 및 시스템은 예시적인 것이며, 그 연결 형태 또한 예시적인 것이다. 따라서 이에 제한되지 않고 다양한 구성 또는 연결 형태로 형성될 수 있다.
컨트롤러(2)는 상기 전송된 탑 뷰(Top View) 등의 데이터를 전송받고 무인 이동체(1)와 각종 신호를 송수신할 수 있는 제2 통신부(20), 상기 탑 뷰(Top View)를 출력하는 디스플레이 장치(21), 사용자가 무인 이동체(1)에 명령을 입력할 수 있는 입력부(22), 무인 이동체(1)에서 주위에 장애물을 감지하여 신호를 송신하면 상기 신호를 사용자에게 알려주는 알람부(23)를 포함한다.
무인 이동체(1)에 포함된 제1 통신부(13)와, 컨트롤러(2)에 포함된 제2 통신부(20)는 상호 무선 통신을 할 수 있다. 무인 이동체(1)에서는 각종 데이터와 신호가 발생한다. 예를 들면, 복수의 카메라(10a, 10b, 10c, 10d)로부터 촬영된 영상 데이터, 탑 뷰 생성부(12)로부터 생성된 탑 뷰(Top View) 데이터, 복수의 스캐닝 센서(11a, 11b, 11c, 11d)가 장애물을 감지하면 전자 제어 유닛(ECU)(14)가 탑 뷰(Top View) 상에서 장애물의 위치를 알려주는 위치 좌표, 전자 제어 유닛(ECU)(14)가 도출한 상기 장애물의 높이 데이터, 무인 이동체(1)의 현재 좌표 또는 이동 속도 등이 있다. 제1 통신부(13)는 상기 발생한 각종 데이터와 신호를 컨트롤러(2)에 포함된 제2 통신부(20)로 무선 네트워크를 통해 전송한다.
사용자는 컨트롤러(2)에 포함된 입력부(22)를 통해 명령을 입력할 수 있다. 이 경우 컨트롤러(2)에서는 사용자의 명령 신호가 발생한다. 예를 들면, 무인 이동체(1)의 가속 및 감속, 브레이크, 방향 조절 등이 있다. 상기 무인 이동체(1)가 무인 항공체(UAV) 또는 무인 해상 이동체(UMV)라면, 고도 또는 심도를 조절하는 사용자의 명령 신호가 있을 수도 있다. 컨트롤러(2)에 포함된 제2 통신부(20)는 상기 발생한 사용자의 명령 신호를 무인 이동체(1)에 포함된 제1 통신부(13)로 송신한다. 그리고 제1 통신부(13)는 상기 사용자의 명령 신호를 수신하여 전자 제어 유닛(ECU)(14)으로 전송하면, 전자 제어 유닛(ECU)(14)은 상기 사용자의 명령 신호에 따라 무인 이동체(1)의 속도, 방향 등으로 조절한다.
디스플레이 장치(21)는 상기 복원 영상 및 상기 탑 뷰(Top View) 영상을 디스플레이 할 수 있는 디스플레이 패널(미도시)을 포함한다. 디스플레이 패널(미도시)은 디코딩 및 영상 처리되어 복원된 영상과, 영상 변환 및 합성되어 생성된 탑 뷰(Top View)를 시각적으로 디스플레이함으로써 사용자가 감시할 수 있도록 한다. 디스플레이 패널(미도시)은 LCD, LED, OLED 등 다양한 방식이 사용될 수 있으며, 나아가 터치가 가능한 터치패널의 기능을 가질 수도 있다.
알람부(23)는 무인 이동체(1)의 근방에 장애물이 존재한다고 판단되면, 무인 이동체(1)로부터 신호를 받아 사용자에게 알릴 수 있도록 알람을 발생시킨다. 알람은 단순히 디스플레이 장치(21)를 통해 장애물 표시를 하며 상기 장애물 표시가 깜박이도록 할 수도 있으나, 컨트롤러(2)에 별도의 경고등이 부착되어 상기 경고등에 빛이 점멸되도록 할 수도 있다. 나아가, 컨트롤러(2)에 별도의 스피커가 설치되어 있다면, 소리를 통해 알람을 발생시킬 수도 있다.
도 4는 본 발명의 일 실시예에 따른 라이다(LIDAR)의 기본 원리를 나타낸 참고도이다.
상기 기술한 바, 본 발명의 일 실시예에 따른 스캐닝 센서(11)는 라이다 센서일 수 있다. 라이다(LIght Detection And Ranging, LIDAR, 레이저 레이더)는 레이저 펄스를 쏘고 반사되어 돌아오는 시간을 측정하여 대상 물체(3)의 위치좌표를 측정하는 레이더 시스템이다. 라이다는 물체 판별 정확성은 다소 떨어지나, 높은 에너지 밀도와 짧은 주기의 펄스 신호를 생성할 수 있는 능력을 활용하여 보다 정밀한 대기 중의 물성 관측 및 거리 측정 등 다양한 분야에서 활용되고 있다. 만약 라이다(LIDAR) 센서를 사용한다면, 레이저를 무인 이동체(1) 외부에 방출하면 레이저가 무인 이동체(1) 외부의 물체(3)에 부딪혀 반사된다. 이 반사파를 수신하여 외부의 물체(3)가 존재하는 거리, 위치, 나아가 상기 물체(3)의 물성까지도 판단할 수 있다.
라이다(LIDAR)의 구성은 분야에 따라 다양하게 구성되지만 기본적인 구성은 도 4에 도시된 바와 같이 레이저를 발생하여 스캔하려는 영역에 레이저를 송신하는 레이저 송신부(111), 반사되어 되돌아오는 상기 송신한 레이저를 검출하는 레이저 검출부(112), 레이저 송신부(111)와 레이저 검출부(112)로 송수신되는 레이저를 굴절시켜 진행방향을 조절하는 렌즈(113)로 구성된다. 라이다는 신호 및 데이터의 송수신 및 처리하기 위한 제어부를 더 포함할 수 있다. 그러나 본 발명의 일 실시예에 따른 라이다는 무인 이동체(1)에 설치되므로, 상기 제어부의 역할은 전자 제어 유닛(ECU)(14)이 수행하는 것이 바람직하다.
라이다는 레이저 신호의 변조 방법에 따라 time-of-flight(TOF) 방식과 phase-shift 방식으로 구분될 수 있다. TOF 방식은 도 4에 도시된 바와 같이, 레이저 송신부(111)가 레이저 펄스 신호를 방출하여 측정 범위 내에 있는 물체(3)들로부터의 반사 펄스 신호들이 레이저 검출부(112)에 도착하는 시간을 측정함으로써 거리를 계산하는 방식이다. Phase-shift 방식은 특정 주파수를 가지고 연속적으로 변조되는 레이저 빔을 방출하고 측정 범위 내에 있는 물체(3)로부터 반사되어 되돌아 오는 신호의 위상 변화량을 측정하여 시간 및 거리를 계산하는 방식이다.
레이저 광원은 250nm부터 11μm까지의 파장 영역에서 특정 파장을 가지거나 파장이 가변될 수도 있으며, 최근에는 소형, 저전력을 특징으로 하는 반도체 레이저 다이오드가 많이 사용된다. 레이저의 파장은 대기, 구름, 비 등에 대한 투과성과 안구보호에 직접적인 영향을 주므로 사용 분야에 따라 파장의 선택이 중요하다. 광 스캐너의 성능을 결정하는 데에 있어서 기본적으로 레이저 출력, 파장, 스펙트럼 특성, 펄스 폭 및 모양뿐만 아니라 수신기의 수신감도 및 다이내믹 레인지, 그리고 광학필터 및 렌즈(113)의 특성 또한 주요 요인이다. 이와 함께 수신기의 측정 각도를 나타내는 Field Of View(FOV), 측정 범위를 선택하기 위한 Field Stop, 레이저빔과 수신기의 FOV overlap 특성 등도 중요한 요소이다.
기존의 라이다 기술들은 기상 관측 및 거리 측정을 목적으로 주로 연구되었으며, 최근에는 위성에서의 기상관측, 무인 로봇 센서 및 3차원 영상 모델링을 위한 기술들이 연구되고 있다.
도 5는 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되는 경우 가운데 물체(3a) 자체의 높이(L1)가 높은 경우를 나타내는 무인 이동체(1)의 정면도이다.
도 6는 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되는 경우 가운데 물체(3b)가 위치한 높이(h1)가 무인 이동체(1)의 높이(h2)보다 낮은 경우를 나타내는 무인 이동체(1)의 정면도이다.
도 7은 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되는 경우 디스플레이 장치(21)상에 표시되는 탑 뷰(Top View)이다.
무인 이동체(1)가 주행을 하는 도중에는 주위에 여러 물체(3)들이 존재할 수 있다. 그리고 도 5 및 도 6에 도시된 바와 같이, 상기 물체(3)는 무인 이동체(1)가 주행을 하는 경로 상에 존재할 수 있다. 이 때, 도 5에 도시된 바와 같이 상기 물체(3a) 자체의 높이(L1)가 높거나, 도 6에 도시된 바와 같이 상기 물체(3)가 위치한 높이(h1)가 무인 이동체(1)의 높이(h2)보다 낮으면, 무인 이동체(1)는 그대로 주행할 경우에 상기 물체(3a, 3b)와 충돌할 것이다. 이 경우, 상기 물체(3a, 3b)는 무인 이동체(1)의 주행을 방해하는 장애물이 될 수 있다. 여기서 물체(3a) 자체의 높이(L1)가 높다는 것은, 무인 이동체(1)가 주행할 때 무인 이동체(1)의 바퀴가 상기 물체(3a) 위를 넘어서 지나갈 수가 없거나, 물체(3a) 위를 넘게 되면 상기 무인 이동체(1)가 중심을 잃고 쓰러지게 되는 경우를 말한다. 전자 제어 유닛(ECU)은 스캐닝 센서(11)로부터 물체(3a) 자체의 높이(L1)를 읽고, 바퀴의 회전 속도에 따라 발생하는 토크, 무인 이동체(1)가 상기 물체(3a) 위를 넘을 경우에 기울어지는 각도, 무인 이동체(1)가 중심을 잃지 않을 수 있는 각도 등을 토대로 계산하여 물체(3a) 자체의 높이(L1)가 높은지 여부를 판단한다. 전자 제어 유닛(ECU)이 무인 이동체(1)가 상기 물체(3a)로 인하여 주행이 불가능하다고 판단되면 상기 물체(3a) 자체의 높이(L1)가 높으므로 상기 물체(3a)를 장애물로 판단한다.
무인 이동체(1)에 부착된 복수의 카메라(10)가 주위의 영상을 촬영하면 AVM 기술을 이용하여 탑 뷰(Top View)가 생성된다. 도 7에 도시된 바와 같이 AVM 기술에 의하여 탑 뷰(Top View)가 생성되면 디스플레이 장치(21)에 상기 탑 뷰(Top View)가 출력된다. 이 때, 일반적으로는 AVM 기술을 사용하여 무인 이동체(1)의 주위에 물체(3)의 존재 여부를 확인할 수 있다. 즉, 디스플레이 장치(21)에 탑 뷰(Top View)가 출력되면, 탑 뷰(Top View)에 무인 이동체(1)의 주위에 존재하는 물체(3)가 함께 나타난다.
한편, 복수의 스캐닝 센서(11)가 무인 이동체(1)와 상기 무인 이동체(1) 주위의 물체(3) 사이의 거리를 감지한다. 그리고 전자 제어 유닛(ECU)(14)은 상기 감지된 물체(3)와의 거리를 계산한다. 상기 물체(3)가 무인 이동체(1)로부터 소정의 간격(d2) 이내로 접근하면 컨트롤러(2)에 포함된 알람부(23)에서 알람이 울린다. 여기서 소정의 간격(d2)이란, 무인 이동체(1)가 주행 도중에 물체(3)와 충돌하지 않을 수 있도록 안전 거리를 설정한 간격을 말한다. 소정의 간격(d2)은 무인 이동체(1)의 주행 속력에 따라 다르게 형성될 수 있다. 일반적으로는 무인 이동체(1)의 속력이 느린 경우에는 1 내지 2m, 무인 이동체(1)의 속력이 빠른 경우에는 2 내지 3m인 것이 바람직하다.
상기 기술한 바, 알람은 단순히 디스플레이 장치(21)를 통해 장애물 표시를 하며 상기 장애물 표시가 깜박이도록 할 수도 있으나, 컨트롤러(2)에 별도의 경고등이 부착되어 상기 경고등에 빛이 점멸되도록 할 수도 있다. 나아가, 컨트롤러(2)에 별도의 스피커가 설치되어 있다면, 소리를 통해 알람을 발생시킬 수도 있다.
스캐닝 센서(11)는 물체 자체의 높이 또는 물체가 위치한 높이도 측정할 수 있다. 본 발명의 일 실시예에 따른 디스플레이 장치(21)는 상기 물체(3a) 자체의 높이(L1)가 높거나, 물체(3b)가 위치한 높이(h1)가 무인 이동체(1)의 높이(h2)보다 낮으면, 도 7에 도시된 바와 같이 상기 물체(3)의 아웃라인을 실선으로 표시할 수 있다. 사용자는 디스플레이 장치(21)를 통해 상기 물체(3)의 아웃라인이 실선으로 표시된 경우에는 무인 이동체(1)의 주행을 방해하는 장애물이 존재하는 것으로 판단하여 무인 이동체(1)를 멈추거나 주행 방향을 바꾸는 등 이에 대한 즉조치를 취할 수 있다.
도 8은 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되지 않는 경우 가운데 물체(3c) 자체의 높이(L2)가 낮은 경우를 나타내는 무인 이동체(1)의 정면도이고, 도 9는 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되지 않는 경우 가운데 물체(3c) 자체의 높이(L2)가 낮은 경우 디스플레이 장치(21)상에 표시되는 탑 뷰(Top View)이다.
도 8에 도시된 바와 같이, 상기 물체(3)가 무인 이동체(1)가 주행을 하는 경로 상에 존재하더라도, 물체(3c) 자체의 높이(L2)가 낮으면, 무인 이동체(1)는 상기 물체(3c) 위를 넘어서 지나갈 수 있다. 이 경우, 상기 물체(3)는 무인 이동체(1)의 주행에 있어 장애물이 되지 않는다.
본 발명의 일 실시예에 따른 디스플레이 장치(21)는 물체(3c) 자체의 높이(L2)가 낮으면, 도 9에 도시된 바와 같이 상기 물체(3)의 아웃라인을 점선으로 표시할 수 있다. 사용자는 디스플레이 장치(21)를 통해 상기 물체(3)의 아웃라인이 점선으로 표시된 경우에는 장애물이 아닌 것으로 판단하여 무인 이동체(1)가 그대로 주행을 하도록 할 수 있다. 여기서 물체(3c) 자체의 높이(L2)가 낮다는 것은, 무인 이동체(1)가 주행할 때 무인 이동체(1)의 바퀴가 상기 물체(3c) 위를 넘어서 지나갈 수가 있는 경우를 말한다. 전자 제어 유닛(ECU)은 스캐닝 센서(11)로부터 물체(3c) 자체의 높이(L2)를 읽고, 바퀴의 회전 속도에 따라 발생하는 토크, 무인 이동체(1)가 상기 물체(3c) 위를 넘을 경우에 기울어지는 각도, 무인 이동체(1)가 중심을 잃지 않을 수 있는 각도 등을 토대로 계산하여 물체(3c) 자체의 높이(L2)가 낮은지 여부를 판단한다. 전자 제어 유닛(ECU)이 무인 이동체(1)가 상기 물체(3c)의 존재에도 불구하고 주행할 수 있다고 판단되면 상기 물체(3c) 자체의 높이(L2)가 낮으므로 상기 물체(3c)를 장애물이 아닌 것으로 판단한다.
도 10은 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되지 않는 경우 가운데 물체(3d)가 위치한 높이(h3)가 무인 이동체(1)의 높이(h2)보다 높은 경우를 나타내는 무인 이동체(1)의 정면도이고, 도 11는 본 발명의 일 실시예에 따른 무인 이동체(1)의 주위에 존재하는 물체(3)가 장애물이 되지 않는 경우 가운데 물체(3d)가 위치한 높이(h3)가 무인 이동체(1)의 높이(h2)보다 높은 경우 디스플레이 장치(21)상에 표시되는 탑 뷰(Top View)이다.
도 10에 도시된 바와 같이, 상기 물체(3)가 무인 이동체(1)가 주행을 하는 경로 상에 존재하더라도, 물체(3d)가 위치한 높이(h3)가 무인 이동체(1)의 높이(h2)보다 높으면, 무인 이동체(1)는 상기 물체(3)의 아래를 지나갈 수 있다. 이 경우, 상기 물체(3)는 무인 이동체(1)의 주행에 있어 장애물이 되지 않는다.
본 발명의 일 실시예에 따른 디스플레이 장치(21)는 물체(3d)가 위치한 높이(h3)가 무인 이동체(1)의 높이(h2)보다 높으면, 도 11에 도시된 바와 같이 상기 물체(3)의 아웃라인을 점선으로 표시할 수 있다. 사용자는 디스플레이 장치(21)를 통해 상기 물체(3)의 아웃라인이 점선으로 표시된 경우에는 장애물이 아닌 것으로 판단하여 무인 이동체(1)가 그대로 주행을 하도록 할 수 있다.
본 발명의 일 실시예에 따른 디스플레이 장치(21)에는 물체(3a) 자체의 높이(L1)가 높으면, 상기 물체(3)의 아웃라인을 실선으로 표시하고, 물체(3c) 자체의 높이(L2)가 낮으면, 상기 물체(3)의 아웃라인을 점선으로 표시할 수 있다. 또는, 물체(3b)가 위치한 높이(h1)가 무인 이동체(1)의 높이(h2)보다 낮으면, 상기 물체(3)의 아웃라인을 실선으로 표시하고, 물체(3d)가 위치한 높이(h3)가 무인 이동체(1)의 높이(h2)보다 높으면, 상기 물체(3)의 아웃라인을 점선으로 표시할 수 있다. 그러나 이에 제한되지 않고, 다른 방법을 사용할 수도 있다. 예를 들면, 물체(3a) 자체의 높이(L1)가 높거나, 물체(3b)가 위치한 높이(h1)가 무인 이동체(1)의 높이(h2)보다 낮으면, 도 7에 도시된 바와 같이 상기 물체(3a, 3b)는 장애물로 판단되어 상기 물체(3)에 해당하는 영역을 붉은 색으로 점멸되도록 표시할 수 있다. 그리고 물체(3c) 자체의 높이(L2)가 낮으면, 도 9에 도시된 바와 같이 상기 물체(3)에 해당하는 영역을 노란 색으로 표시할 수 있다. 또한, 물체(3d)가 위치한 높이(h3)가 무인 이동체(1)보다 높으면, 도 11에 도시된 바와 같이 상기 물체(3)에 해당하는 영역을 초록 색으로 표시할 수 있다.
나아가, 물체(3) 자체의 높이(L1, L2)를 단계적으로 다르게 표시할 수도 있다. 예를 들면, 디스플레이 장치(21)에서 물체(3) 자체의 높이(L1, L2)가 10cm일 때에는 물체(3)에 해당하는 영역을 초록 색, 20cm일 때에는 노란 색, 30cm일 때에는 붉은 색으로 표시되는 등 지면으로부터 10cm씩 높아질 때 마다 다른 색상으로 표시될 수 있다. 그럼으로써 사용자는 상기 물체(3) 자체의 높이(L1, L2)를 구체적으로 인지할 수 있다. 또는 물체(3)가 위치한 높이(h1)를 단계적으로 다르게 표시할 수도 있다. 예를 들면, 상기 물체(3)가 위치한 높이(h1)와 무인 이동체(1)의 높이(h2)의 차이 즉, h1 - h2가 -10cm 이상인 경우에는 물체에 해당하는 영역을 붉은 색, -10cm 내지 0cm 인 경우에는 노란 색, h1 - h2가 양수인 경우에는 초록 색 등으로 표시하면, 사용자는 상기 물체(3)가 위치한 높이(h1)를 구체적으로 인지할 수 있다.
본 발명의 일 실시예에 따르면, 상기의 방법들에 제한되지 않고 상기 물체(3)가 무인 이동체(1)의 주행에 있어 장애가 되는지 여부에 따라 다르게 표시하여 사용자가 이를 알 수 있다면 다양한 방법을 사용할 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
1: 무인 이동체 2: 컨트롤러
3: 물체 10: 카메라
11: 스캐닝 센서 12: 탑 뷰 생성부
13: 제1 통신부 14: 전자 제어 유닛(ECU)
15: 네트워크 통신 20: 제2 통신부
21: 디스플레이 장치 22: 입력부
23: 알람부 111: 레이저 송신부
112: 레이저 검출부 113: 렌즈
121: 영상 처리부 122: 영상 변환부
123: 영상 합성부

Claims (6)

  1. 이동체의 주변 영상을 촬영하는 복수의 카메라;
    상기 이동체의 주위에 있는 물체의 높이 또는 물체의 위치를 감지하는 적어도 하나의 스캐닝 센서;
    상기 촬영된 영상의 처리를 제어하고, 상기 이동체의 구동을 제어하며, 상기 물체가 장애물인지 판단하는 전자 제어 유닛(ECU);
    상기 복수의 카메라에 의해 촬영된 복수의 영상 각각을 변환 및 합성하여 하나의 합성 탑 뷰를 생성하는 탑 뷰 생성부;
    상기 이동체와 통신하여 상기 이동체를 컨트롤하고, 상기 촬영된 영상 또는 상기 생성된 하나의 합성 탑 뷰를 디스플레이하는 디스플레이 장치를 포함하는 컨트롤러를 포함하되,
    상기 디스플레이 장치는,
    상기 전자 제어 유닛이 상기 물체를 장애물로 판단한다면,
    상기 물체를 장애물인 것으로 표시하고,
    상기 전자 제어 유닛이 상기 물체를 장애물이 아닌 것으로 판단한다면,
    상기 물체를 장애물이 아닌 것으로 표시하는, 주변 영상 모니터링 장치.
  2. 제1항에 있어서,
    상기 전자 제어 유닛은,
    상기 이동체가 상기 물체의 위를 넘어서 주행할 수 없다면
    상기 물체를 장애물로 판단하고,
    상기 이동체가 상기 물체의 위를 넘어서 주행할 수 있다면
    상기 물체를 장애물이 아닌 것으로 판단하는, 주변 영상 모니터링 장치.
  3. 제1항에 있어서,
    상기 전자 제어 유닛은,
    상기 물체가 지면으로부터 위치한 높이(h1)가 상기 이동체의 높이(h2)보다 낮다면, 상기 물체를 장애물로 판단하고,
    상기 물체가 지면으로부터 위치한 높이(h3)가 상기 이동체의 높이(h2)보다 높다면, 상기 물체를 장애물이 아닌 것으로 판단하는,
    주변 영상 모니터링 장치.
  4. 삭제
  5. 삭제
  6. 삭제
KR1020160023347A 2016-02-26 2016-02-26 주변 영상 모니터링 장치 KR102153581B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160023347A KR102153581B1 (ko) 2016-02-26 2016-02-26 주변 영상 모니터링 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160023347A KR102153581B1 (ko) 2016-02-26 2016-02-26 주변 영상 모니터링 장치

Publications (2)

Publication Number Publication Date
KR20170100897A KR20170100897A (ko) 2017-09-05
KR102153581B1 true KR102153581B1 (ko) 2020-09-08

Family

ID=59924964

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160023347A KR102153581B1 (ko) 2016-02-26 2016-02-26 주변 영상 모니터링 장치

Country Status (1)

Country Link
KR (1) KR102153581B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109649408B (zh) * 2019-01-21 2020-09-25 厦门理工学院 一种车辆周边障碍检测方法及车辆
KR102065975B1 (ko) * 2019-11-04 2020-01-14 주식회사 영신 라이다를 이용한 중장비 안전관리 시스템
CN111242986B (zh) * 2020-01-07 2023-11-24 阿波罗智能技术(北京)有限公司 跨相机的障碍物跟踪方法、装置、设备、系统及介质
KR102588066B1 (ko) * 2021-12-30 2023-10-16 (주)두리안컴퍼니 사고 예방 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009040272A (ja) 2007-08-09 2009-02-26 Alpine Electronics Inc 車両周辺監視装置
JP2011109170A (ja) 2009-11-12 2011-06-02 Clarion Co Ltd 車両周囲表示装置、車両周囲表示方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101406230B1 (ko) 2012-12-20 2014-06-12 현대오트론 주식회사 차량 기울어짐에 따라 보정된 avm 영상을 생성하는 시스템 및 방법
KR101454857B1 (ko) * 2012-12-26 2014-11-04 주식회사 영국전자 탐지용 로봇 시스템
KR20150053323A (ko) 2013-11-08 2015-05-18 현대모비스 주식회사 영상 왜곡 보정 방법 및 이를 위한 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009040272A (ja) 2007-08-09 2009-02-26 Alpine Electronics Inc 車両周辺監視装置
JP2011109170A (ja) 2009-11-12 2011-06-02 Clarion Co Ltd 車両周囲表示装置、車両周囲表示方法

Also Published As

Publication number Publication date
KR20170100897A (ko) 2017-09-05

Similar Documents

Publication Publication Date Title
JP7105754B2 (ja) 撮像装置、及び、撮像装置の制御方法
US10899277B2 (en) Vehicular vision system with reduced distortion display
JP7081835B2 (ja) 車両制御のためのリアルタイムhdrビデオ
EP3229204B1 (en) Around view provision apparatus and vehicle including the same
US11472338B2 (en) Method for displaying reduced distortion video images via a vehicular vision system
US8576285B2 (en) In-vehicle image processing method and image processing apparatus
KR102153581B1 (ko) 주변 영상 모니터링 장치
WO2004106857A1 (ja) ステレオ光学モジュール及びステレオカメラ
US20200112705A1 (en) Image processing device, image processing method and imaging device
JP7140474B2 (ja) ステレオ三角測量のためのシステム
JP5959264B2 (ja) 画像処理装置及び方法、並びにコンピュータプログラム
JP2010257282A (ja) 障害物検知装置、および当該装置を搭載した車両
KR102175947B1 (ko) 레이더 및 영상을 결합하여 차량용 3차원 장애물을 표시하는 방법 및 장치
JP2024050331A (ja) 移動体及び撮像装置の設置方法
KR101432178B1 (ko) 차량용 카메라 노출 제어 장치 및 그 방법
KR20180097976A (ko) 주변 영상 모니터링 장치 및 방법
JPWO2020022373A1 (ja) 運転支援装置および運転支援方法、プログラム
KR20180097998A (ko) 주변 영상 모니터링 장치 및 방법
US20230394847A1 (en) Image processing system, image processing method, and storage medium
JP2005196423A (ja) 画像表示方法、画像表示システム、及び画像処理装置
CN104802708A (zh) 行车影像辅助系统
JP2024050334A (ja) 移動体及び撮像装置の設置方法

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant