KR101935512B1 - 차량 및 차량의 제어방법 - Google Patents
차량 및 차량의 제어방법 Download PDFInfo
- Publication number
- KR101935512B1 KR101935512B1 KR1020160145628A KR20160145628A KR101935512B1 KR 101935512 B1 KR101935512 B1 KR 101935512B1 KR 1020160145628 A KR1020160145628 A KR 1020160145628A KR 20160145628 A KR20160145628 A KR 20160145628A KR 101935512 B1 KR101935512 B1 KR 101935512B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- parked
- parking
- area
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000004891 communication Methods 0.000 claims abstract description 59
- 230000002093 peripheral effect Effects 0.000 claims description 25
- 238000013507 mapping Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000012937 correction Methods 0.000 description 12
- 230000002567 autonomic effect Effects 0.000 description 7
- 210000003195 fascia Anatomy 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 235000019506 cigar Nutrition 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G06K9/00812—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0026—Lookup tables or parameter maps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/06—Automatic manoeuvring for parking
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
개시된 발명은 외부에서 전달하는 정보를 이용하여 자율 주차에 필요한 차량의 위치 정보를 획득함으로써, 고가의 센서를 이용할 필요가 없고, 종래에 복잡한 주차 환경에서 인식할 수 없었던 위치 인식을 통해 정확한 자율 주차를 가능하게 하는 차량 및 차량의 제어방법을 제공한다.
일 측면에 따른 차량은 주차장에 대한 지도 정보를 수신하는 통신부; 차량 주변 촬영하여 영상 정보를 생성하는 카메라; 및 상기 카메라가 전달하는 영상 정보 및 상기 통신부가 전달하는 지도 정보에 기초하여 상기 차량의 위치 정보를 보정하는 제어부;를 포함한다.
일 측면에 따른 차량은 주차장에 대한 지도 정보를 수신하는 통신부; 차량 주변 촬영하여 영상 정보를 생성하는 카메라; 및 상기 카메라가 전달하는 영상 정보 및 상기 통신부가 전달하는 지도 정보에 기초하여 상기 차량의 위치 정보를 보정하는 제어부;를 포함한다.
Description
개시된 발명은 주차된 차량의 인지를 통해 차량의 위치를 보정하는 차량 및 차량의 제어방법에 관한 것이다.
자율주차 제어 시스템은 주차공간의 협소함과 운전자의 운전 미숙 등으로 인한 주차의 어려움을 해소하고, 차량 스스로 운전자의 조작없이 차량의 주차를 가능하게 한다.
자율주차 제어 시스템은 주차공간에 정차된 차량을 인식하고, 차량의 주차를 위한 이동궤적을 설정한 후, 설정된 이동궤적에 따라 차량의 이동을 제어한다.
여기서 이동궤적은 차량 스스로의 위치를 인식하는 단계에서 시작한다.
일반적으로 차량의 위치를 인식하는 방법은 외부에서 수신하는 GPS(Global Positioning System) 정보를 이용한다. 그러나 대부분의 주차 공간은 실내 또는 지하에 마련되어 있으므로, GPS정보가 수신되지 않은 지역에서 차량은 위치 정보를 획득하는데 어려움이 있었다.
또한, 차량은 실내에 마련된 건물 기둥이나 정적인 물체를 차량에 마련된 카메라 등이 촬영하고, 촬영된 영상을 바탕으로 위치를 인식할 수 있다. 그러나 이러한 방법도 차량에 설치된 카메라의 화각(Angle of View)이나 센서의 한계로 인하여 종래의 위치 인식 방법은 정확한 위치 인식에 어려움이 있었다.
개시된 일 측면에 따른 차량은 주차장에 대한 지도 정보를 수신하는 통신부; 차량 주변 촬영하여 영상 정보를 생성하는 카메라; 및 상기 카메라가 전달하는 영상 정보 및 상기 통신부가 전달하는 지도 정보에 기초하여 상기 차량의 위치 정보를 보정하는 제어부;를 포함한다.
상기 제어부는, 상기 영상 정보에 기초하여 상기 지도 정보를 맵핑할 수 있다.
상기 제어부는, 상기 맵핑된 영상 정보에서 상기 차량이 주차할 수 있는 관심 영역을 설정할 수 있다.
상기 제어부는, 상기 관심 영역의 주위에 주차된 주변 차량의 위치 좌표를추출할 수 있다.
상기 제어부는, 상기 관심 영역이 상기 차량의 종방향 또는 횡방향에 주차되었는지 여부를 판단할 수 있다.
상기 제어부는, 상기 주변 차량이 상기 차량의 횡방향에 주차되는 경우, 적어도 하나 이상의 상기 주변 차량의 위치 좌표를 잇는 직선의 기울기에 기초하여 상기 차량의 헤딩 정보 및 위치 정보를 보정할 수 있다.
상기 제어부는, 상기 주변 차량이 주차 중이거나 이동 중인 경우, 상기 주변 차량을 제외하고 상기 관심 영역을 설정할 수 있다.
상기 제어부는, 상기 위치 좌표의 오차를 추출하고, 상기 오차의 가중치에 기초하여 상기 차량의 위치를 보정할 수 있다.
상기 제어부가 전달하는 보정된 위치 정보에 기초하여 상기 차량을 주차시키는 자율주차 모듈;을 더 포함할 수 있다.
상기 보정된 위치 정보를 출력하는 디스플레이;를 더 포함할 수 있다.
개시된 다른 측면에 따른 차량의 제어방법은 주차장에 대한 지도 정보를 수신하고; 차량 주변 촬영하여 영상 정보를 생성하고; 상기 영상 정보 및 상기 지도 정보에 기초하여 상기 차량의 위치 정보를 보정하는 것;을 포함한다.
상기 영상 정보에 기초하여 상기 지도 정보를 맵핑하는 것;을 더 포함할 수 있다.
상기 보정하는 것은, 상기 맵핑된 영상 정보에서 상기 차량이 주차할 수 있는 관심 영역을 설정하고; 상기 관심 영역에 기초하여 상기 위치 정보를 보정하는 것;을 포함할 수 있다.
상기 보정하는 것은, 상기 관심 영역의 주위에 주차된 주변 차량의 위치 좌표를 추출하고, 상기 위치 좌표에 기초하여 상기 차량의 위치 정보를 보정하는 것;을 포함할 수 있다.
상기 보정하는 것은, 상기 관심 영역이 상기 차량의 종방향 또는 횡방향에 주차되었는지 여부를 판단하고, 상기 차량의 위치 정보를 보정하는 것;을 포함할 수 있다.
상기 보정하는 것은, 상기 주변 차량이 상기 차량의 횡방향에 주차되는 경우, 적어도 하나 이상의 상기 주변 차량의 검색 좌표를 잇는 직선의 기울기에 기초하여 상기 차량의 헤딩 정보 및 위치 정보를 보정하는 것;을 포함할 수 있다.
상기 설정하는 것은, 상기 주변 차량이 주차 중이거나 이동 중인 경우, 상기 주변 차량을 제외하고 상기 관심 영역을 설정하는 것;을 포함할 수 있다.
상기 보정하는 것은, 상기 위치 좌표의 오차를 추출하고, 상기 오차의 가중치에 기초하여 상기 차량의 위치를 보정하는 것;을 포함할 수 있다.
상기 보정된 위치 정보에 기초하여 상기 차량을 주차시키는 것;을 포함할 수 있다.
상기 보정된 위치 정보를 출력하는 것;을 포함할 수 있다.
개시된 실시예에 따른 차량 및 차량의 제어방법은 외부에서 전달하는 정보를 이용하여 자율 주차에 필요한 차량의 위치 정보를 획득함으로써, 고가의 센서를 이용할 필요가 없어 구현이 용이하다.
또한, 종래에 복잡한 주차 환경에서 인식할 수 없었던 위치 인식을 실시할 수 있으므로, 정확한 자율 주차를 가능하게 한다.
도 1은 차량의 외관을 나타내는 도면이고, 도 2는 차량의 내부를 나타내는 도면이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 카메라가 촬영한 주차장 내부의 영상을 간략하게 도시한 도면이다.
도 5는 차량이 외부로부터 수신하는 지도 정보를 설명하기 위한 도면이다.
도 6은 제어부가 위치 정보를 보정하는 방법을 설명하기 위한 순서도이다.
도 7은 관심 영역을 설정하는 방법을 설명하기 위한 도면이다.
도 8은 일 예에 따라 주변 차량을 분류하는 방법을 설명하기 위한 도면이다.
도 9은 다른 예에 따라 주변 차량을 분류하는 방법을 설명하기 위한 도면이다.
도 10은 일 예에 따라 차량의 위치 정보를 보정하는 방법을 설명하기 위한 도면이다.
도 11은 다른 예에 따라 차량의 위치 정보를 보정하는 방법을 설명하기 위한 도면이다.
도 12는 일 예에 따라 차량의 위치를 보정하는 방법에 관한 순서도이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 카메라가 촬영한 주차장 내부의 영상을 간략하게 도시한 도면이다.
도 5는 차량이 외부로부터 수신하는 지도 정보를 설명하기 위한 도면이다.
도 6은 제어부가 위치 정보를 보정하는 방법을 설명하기 위한 순서도이다.
도 7은 관심 영역을 설정하는 방법을 설명하기 위한 도면이다.
도 8은 일 예에 따라 주변 차량을 분류하는 방법을 설명하기 위한 도면이다.
도 9은 다른 예에 따라 주변 차량을 분류하는 방법을 설명하기 위한 도면이다.
도 10은 일 예에 따라 차량의 위치 정보를 보정하는 방법을 설명하기 위한 도면이다.
도 11은 다른 예에 따라 차량의 위치 정보를 보정하는 방법을 설명하기 위한 도면이다.
도 12는 일 예에 따라 차량의 위치를 보정하는 방법에 관한 순서도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 개시된 차량 및 차량의 제어방법의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 차량의 외관을 나타내는 도면이고, 도 2는 차량의 내부를 나타내는 도면이다.
도 1을 참조하면, 일 실시예에 따른 차량(100)은 외관은 차량(100)의 외관을 형성하는 본체(10), 운전자에게 차량(1) 전방의 시야를 제공하는 윈드스크린(windscreen, 11), 운전자에게 차량(1) 후방의 시야를 제공하는 사이드 미러(12), 차량(100) 내부를 외부로부터 차폐시키는 도어(13) 및 차량(100)의 전방에 위치하는 앞바퀴(21), 차량(100)의 후방에 위치하는 뒷바퀴(22)를 포함할 수 있다.
윈드 스크린(11)은 본체(10)의 전방 상측에 마련되어 차량(100) 내부의 운전자가 차량(100) 전방의 시각 정보를 획득할 수 있도록 한다. 또한, 사이드 미러(12)는 본체(10)의 좌측에 마련되는 좌측 사이드 미러 및 우측에 마련되는 우측 사이드 미러를 포함하며, 차량(1) 내부의 운전자가 차량(1) 측면 및 후방의 시각 정보를 획득하여 차량(100)의 주차 시 이용할 수 있도록 한다.
도어(13)는 본체(10)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량(1)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(1)의 내부를 외부로부터 차폐시킬 수 있다.
또한, 차량(100)의 전면, 측면, 또는 후면에 객체 내지 다른 차량을 감지하는 근접 센서, 강수 여부 또는 강수량을 감지하는 레인 센서 등의 감지 장치를 포함할 수 있다.
근접 센서는 차량(100)의 주변을 촬영하는 카메라(Camera, 120)일 수 있다. 카메라(120)는 CCD(Charge-Coupled Device) 카메라 또는 CMOS 컬러 이미지 센서를 포함할 수 있다. 여기서 CCD 및 CMOS는 모두 카메라(120)의 렌즈를 통해 들어온 빛을 전기 신호로 바꾸어 저장하는 센서를 의미한다.
도 1에서 카메라(120)는 차량(100)의 전면의 하단에 위치한 것으로 도시하였지만, 반드시 이에 제한되는 것은 아니다. 또한, 카메라(120)는 도1과 같이 복수 개로 마련될 수 있으나, 단수 개로 설치될 수도 있다.
한편, 카메라(120)는 촬영한 차량(100) 전방의 영상을 제어부(130)로 전달하고, 제어부(130)는 차량(100)의 위치 정보를 획득한다. 이와 관련된 자세한 설명은 이하 다른 도면을 통해 자세히 후술한다.
차량(100)의 내부는 운전자가 차량(100)을 조작하기 위한 각종 기기가 설치되는 대시 보드(Dashboard, 14), 차량(100)의 운전자가 착석하기 위한 운전석(15), 차량(1)의 동작 정보 등을 표시하는 클러스터 표시부(51, 52), 운전자의 조작 명령에 따라 경로 안내 정보를 제공하는 길 안내 기능뿐만 아니라 오디오 및 비디오 기능까지 제공하는 내비게이션(Navigation, 70)을 포함할 수 있다.
대시 보드(14)는 윈드 스크린(11)의 하부로부터 운전자를 향하여 돌출되게 마련되며, 운전자가 전방을 주시한 상태로 대시 보드(14)에 설치된 각종 기기를 조작할 수 있도록 한다.
운전석(15)은 대시 보드(14)의 후방에 마련되어 운전자가 안정적인 자세로 차량(100)의 전방과 대시 보드(14)의 각종 기기를 주시하며 차량(100)을 운행할 수 있도록 한다.
클러스터 표시부(51, 52)는 대시 보드(14)의 운전석(15) 측에 마련되며, 차량(100)의 운행 속도를 표시하는 주행 속도 게이지(51), 동력 장치(미도시)의 회전 속도를 표시하는 RPM 게이지(52)를 포함할 수 있다.
내비게이션(70)은 차량(100)이 주행하는 도로의 정보 또는 운전자가 도달하고자 하는 목적지까지의 경로를 표시하는 디스플레이 및 운전자의 조작 명령에 따라 음향을 출력하는 스피커(41)를 포함할 수 있다. 최근에는 오디오 장치, 비디오 장치 및 내비게이션 장치가 일체화된 AVN(Audio Video Navigation) 장치가 차량에 설치되고 있는 추세이다.
내비게이션(70)은 센터페시아(center fascia)에 설치될 수 있다. 이때, 센터페시아는 대시 보드(14) 중에서 운전석과 조수석 사이에 있는 컨트롤 패널 부분을 의미하는 것으로, 대시 보드(14)와 시프트레버가 수직으로 만나는 영역이며, 이곳에는 내비게이션(70)을 비롯하여 에어콘, 히터의 컨트롤러, 송풍구, 시거잭과 재떨이, 컵홀더 등을 설치할 수 있다. 또한, 센터페시아는 센터콘솔과 함께 운전석과 조수석을 구분하는 역할도 할 수 있다.
개시된 내비게이션(70)은 카메라(120)가 촬영한 영상을 운전자에게 제공할 수 있다. 또한, 내비게이션(70)은 차량(100)이 외부로부터 수신한 주차장에 대한 정보를 출력할 수도 있다.
또한, 운전자의 내비게이션(70)을 비롯한 각종 구동 조작을 위한 별도의 조그 다이얼(60)을 구비할 수 있다. 조그 다이얼(60)은 회전시키거나 압력을 가하여 구동 조작을 수행하는 방법뿐만 아니라, 터치 인식 기능을 구비한 터치 패드를 구비하여 사용자의 손가락 또는 별도의 터치 인식 기능을 구비한 도구를 이용하여 구동 조작을 위한 필기 인식을 수행할 수 있다.
차량(100)은 상술한 구성 이외에도 바퀴(21, 22)의 조향을 결정하는 스티어링 휠(42), 바퀴의 이동을 정지시키는 제동 장치(미도시)를 포함할 수 있다. 이외에도 차량(100)은 다양한 구성을 포함할 수 있으며, 제한은 없다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 3을 참조하면, 개시된 차량(100)은 통신부(110), 카메라(120), 및 제어부(130)를 포함한다.
통신부(110)는 차량(100)의 외부, 예를 들어 주차장 센서(111), 주변 차량 (112) 및 통신망(113)으로부터 다양한 정보를 수신한다. 또한, 통신부(110)는 차량(100)의 카메라(120)가 수집한 영상을 다른 차량(112)으로 송신할 수도 있다.
다양한 정보를 송,수신하기 위한 통신부(110)의 기술을 V2X 통신이라 한다.
여기서 V2X 통신이란, 차량(100) 스스로 주체가 되어 정보를 공유하는 시스템을 말하며, 차량과 모든 인터페이스(Interface)간의 통신 기술을 의미한다.
구체적으로 V2X의 형태는 차량과 이동매체 기기간 통신(Vehicle-to-Nomadic devices, V2N), 차량과 차량간 통신(Vehicle-to-Vehicle, V2V) 및 차량과 인프라간 통신(Vehicle-to-Infrastructure, V2I)을 포함할 수 있다.
한편, V2X 통신은 근거리 통신, 유선 통신 및 무선 통신 중 적어도 하나를 통해서 이뤄질 수 있다.
근거리 통신은 블루투스(Bluetooth), 적외선 통신, RFID(Radio Frequency Identification) 통신, WLAN(Wireless Local Access Network) 통신, NFC 통신, 직비(Zigbee) 통신 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 통해서 이뤄질 수 있다.
유선 통신은 USB(Universal Serial Bus) 등을 이용하여 이뤄질 수도 있다. 즉, V2X통신은 차량과 이동매체 간에 직접적인 연결을 통해서 통신 가능하다.
마지막으로 무선 통신은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 통해서 이뤄질 수 있다.
개시된 통신부(110)는 V2X 통신을 수행하고, 차량(100)의 위치 정보를 획득하는데 필요한 주차장 내부 정보 또는 주변 차량의 주차된 위치 등이 포함된 지도 정보를 수신한다.
통신부(110)는 수신한 지도 정보를 제어부(130)로 전달한다. 이 때 통신부(110)가 제어부(130)로 정보를 전달하는 방식은 CAN(Controller Area Network), LIN(Local Interconnect Network), MOST(Media Oriented System Transport)등과 같은 차량 내 유선 네트워크를 이용할 수 있다. 또한, 통신부(110)는 블루투스(Bluetooth) 등과 같은 무선 네트워크를 통해서 제어부(130)로 정보를 전달할 수도 있다.
카메라(120)는 차량(100)의 주변 영상을 촬영한다.
카메라(120)는 전술한 바와 같이, CCD 카메라 또는 CMOS 컬러 이미지 센서를 포함할 수 있다. 그러나 카메라(120)가 반드시 CCD 또는 CMOS에 한정되는 것은 아니고, 주차장 내부의 영상을 촬영하는 센서이면 충분하다.
개시된 카메라(120)는 주차장 내부의 영상을 촬영하고, 촬영된 영상을 디지털 신호인 영상 정보로 변환한다. 이후 카메라(120)는 영상 정보를 제어부(130)로 전달한다. 제어부(130)는 전달받은 영상 정보를 기초로 차량(100)의 위치 정보를 생성한다.
다만, 카메라(120)가 전달하는 영상 정보를 통해서만 차량(100)의 위치 정보를 생성하면, 카메라(120) 센서의 설치된 위치 및 센서의 수집 능력의 한계로 인해 위치 정보는 실제 차량(100)의 위치와 크게 다를 수 있다.
제어부(130)는 카메라(120)가 촬영한 영상 정보와 통신부(110)가 전달하는 지도 정보를 조합하여 차량(100)의 예측된 위치를 보정하여 정확한 현재 위치를 생성한다. 정확한 현재 위치 정보를 생성하는 방법은 이하의 도면을 통해서 자세히 후술한다.
한편, 제어부(130)는 통신부(110)를 제어하여 V2X 통신을 통해 지도 정보를 요청할 수도 있다. 즉, 제어부(130)는 통신부(110)가 전달하는 지도 정보를 수동적으로 수신하는 것 이외에도 능동적으로 통신부(110)를 통해 지도 정보를 수집할 수 있다.
구체적으로 통신부(110)는 안테나(Antenna) 및 송신기(Transmitter)를 포함하는 무선 통신 인터페이스를 통해서 제어부(130)로부터 출력된 디지털 제어 신호를 아날로그 형태의 무선 신호로 변조한다. 변조된 아날로그 신호는 주차장 센서(111), 주차장 내부의 주변 차량(112) 및 통신망(113) 네트워크로 전달되고, 통신부(110)는 요청한 지도 정보를 수신한다.
제어부(130)가 수신한 지도 정보와 영상 정보를 기초로 위치 정보를 생성하면, 자율주차 모듈(140)로 전달하고, 자율주차 모듈(140)은 현재 위치 정보에 기초하여 운전자의 조작없이 자율 주차를 실시한다.
자율주차 모듈(140)은 차량(100)의 현재 위치를 기초로 주차할 위치로 차량(100)이 이동할 주행경로를 생성한다.
만약 차량(100)이 제어 프로그램을 실행하기에 충분한 위치가 아니라면, 자율주차 모듈(140)은 제어 프로그램을 실시할 수 있는 위치까지 차량(100)을 이동시킨다. 여기서 제어 프로그램은 운전자의 조작없이 차량(100) 스스로 주차를 실행하는 로직(logic)을 의미한다.
주행경로를 생성한 후, 자율주차 모듈(140)은 카메라(120)의 영상 정보를 기초로 주행경로 상에 장애물이 있는지 여부를 판단한다. 만약 장애물이 있는 경우 자율주차 모듈(140)은 도2에서 설명한 내비게이션(70) 또는 스피커(41)를 통해서 생성된 주차 지역으로 차량(100)의 주차가 불가능하다는 메시지를 출력하거나, 다른 주변의 주차지역을 추천할 수도 있다.
장애물이 없다면, 자율주차 모듈(140)은 제어 프로그램을 기초로 차륜(21, 22)과 차량(100)의 주행에 필요한 모듈을 제어하여 주차를 실시한다.
한편, 전술한 자율주차 모듈(140)의 동작은 자율주차의 일 예에 불과하며, 보정된 위치 정보를 기초로 자율 주차를 실시하면 충분하고, 제한이 없다.
제어부(130)와 자율주차 모듈(140)은 차량(100) 내 구성요소들의 동작을 제어하기 위한 프로세서(Processor)의 일종이다. 따라서 제어부(130)와 자율주차 모듈(140)은 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.
또한, 본 명세서에서는 동작을 설명하기 위해서 제어부(130)와 자율주차 모듈(140)을 구분한다. 그러나 반드시 제어부(130)와 자율주차 모듈(140)이 분리되어 실시되는 것은 아니며, 차량(100)에 설치된 하나의 헤드 유닛(Head Unit)을 통해서 구현될 수도 있다.
도 4는 카메라가 촬영한 주차장 내부의 영상을 간략하게 도시한 도면이다.
도 4를 참조하면, 개시된 차량(100)의 카메라(120)는 전방에 위치하는 주차장 내부를 촬영한다.
도 4에서 제 1영상(121)은 카메라(120)가 차량(100)의 전방을 촬영한 영상을 의미한다. 도 4의 제 2 영상(131)은 카메라(120)가 촬영한 영상(121)을 기초로 위치 정보를 추출한 제어부(130)가 인지한 영상을 의미한다.
주차장 내부는 복수 개의 주변 차량(112)이 주차되고, 주차장 내부에 기둥이 복수 개가 마련되었다고 가정한다.
일반적으로 카메라(120)가 촬영하는 영상을 통해서만 위치 정보를 생성하는 종래의 기술은 어두운 실내 주차장의 기둥 등을 인지하여 위치를 추정한다. 그러나 CCD 또는 CMOS 센서는 주차장 같은 어두운 실내에서 안정적으로 기둥 등을 인지하지 못한다.
제 1 영상(121)에서 차량(100)과 근접한 주변 차량(112)과 주변 차량(112)에 사이에 배치된 주차장 기둥(101a)은 선명하게 촬영되는 반면, 차량(100)와 원거리에 위치한 기둥(101b)은 어둡게 촬영된다.
제어부(130)는 제 1영상(121)에서 주차장 내부의 기둥(101a, 101b)을 인지하여 제 2영상(131)을 출력할 수 있다. 제 2영상(131)과 같이, 제어부(130)가 인지한 결과는 원거리에 위치한 기둥(101b)을 제외한 주차장 기둥(101a)일 수 있다.
제어부(130)가 제 2 영상(131)과 같이 기둥을 인지하고, 이를 기초로 획득한 위치 정보는 차량(100)의 실제 위치 정보와 상이할 수 있다.
이러한 오차를 줄이기 위해서 고가의 라이다(Lidar) 센서를 설치하는 방안이 제안될 수 있다. 그러나 라이다 센서는 차량(100)의 하단에 설치된 경우가 대부분이고, 설치 위치의 제약 때문에 안정적으로 기둥을 인지하기 힘들다. 또한, 고가의 라이다 센서는 OEM방식에 적합하지 않다는 문제점이 있다.
이러한 문제점을 해결하기 위해서 제어부(130)는 카메라(120)가 전달하는 영상과 V2X 통신 등을 통해 외부에서 전달받은 지도 정보를 기초로 차량(100)의 예측된 위치와 검출된 위치의 차이를 보정하고, 가중치를 두어 현재 위치를 검출함으로써, 보다 정확한 위치 정보를 획득한다.
도 5는 차량이 외부로부터 수신하는 지도 정보를 설명하기 위한 도면이다.
도 5를 참조하면, 지도 정보(114)는 내비게이션(70)의 디스플레이를 통해 출력될 수 있다.
여기서 지도 정보(114)는 차량(100)이 주차하고자 하는 주차장 내부의 상태를 의미한다.
일 예에 따른 지도 정보(114)는 디스플레이에 도시된 바와 같이, 주차장 내부의 설계도의 형태로 표현될 수 있다. 주차장 내부의 설계 지형은 도 4에서 설명한 주차장 내부의 기둥과 출입구 정보를 포함할 수 있다. 이러한 정보는 통신망(113)을 통해서 제어부(130)에 전달되거나, 주변 차량(112)을 통해서 전달될 수도 있다.
한편, 주차장에 주차된 차량 정보는 시간마다 변화할 수 있다.
주차장 센서(111)는 주차장에 마련된 서버(Server)로 수집된 주변 차량(112)의 정보를 전달하고, 서버는 통신망(113)을 통해서 차량(100)의 통신부(110)로 전달할 수도 있다. 통신부(110)는 수집한 주차장에 주차된 주변 차량(112)의 정보를 주차장 센서(111) 등을 통해서 변화하는 지도 정보를 수신할 수 있다.
한편, 도 5에서는 통신부(110)가 수집한 지도 정보를 내비게이션(70)에서 표시한 것으로 도시하였지만, 반드시 이에 한정되는 것은 아니다. 즉, 통신부(110)는 지도 정보를 차량(100) 내 유선 네트워크를 통해서 제어부(130)로 전달하고, 제어부(130)는 위치 정보를 보정하는데 활용할 수 있다.
도 6은 제어부가 위치 정보를 보정하는 방법을 설명하기 위한 순서도이다.
도 6을 참조하면, 제어부(130)는 전달받은 지도 정보에서 주변 차량(112)이 주차한 영역을 구분하고, 차량(100)이 주차할 수 있는 관심 영역, 즉 ROI(Region Of Interest)를 설정한다(300).
구체적으로 제어부(130)는 지도 정보를 기초로 주차장 내 구획된 주차 지역에서 주변 차랑(112)이 주차한 구역과 주차하지 않은 구역을 구분한다. 또한, 제어부(130)는 차량(100)의 주차가 가능한 구역을 중심으로 관심 영역을 설정한다. 제어부(130)가 관심영역 설정하는 구체적인 설명은 도 7 에서 후술한다.
관심 영역이 설정되면, 제어부(130)는 관심 영역 내에 위치하는 주변 차량(112)을 인지한다(310).
주변 차량(112)를 인지하는 것은, 제어부(130)가 영상 정보 및 지도 정보를 기초로 차량(100)의 정면에 위치한 주변 차량(112)이 주차된 영역(이하 정면 주차 구역)과 차량(100)의 측면에 위치한 주변 차량(112)이 주차된 영역(이하 측면 주차 구역)을 분류하는 것을 의미한다.
또한, 주변 차량(112)을 인지하는 것은, 이미 주차되어 정지되어 있는 주변 차량(112)뿐만 아니라, 주차 중인 차량 또는 주차장을 벗어나기 위해 움직이는 차량을 구분하는 것을 포함할 수 있다.
차량 인지에 관한 자세한 설명은 도 8내지 9를 통해 후술한다.
주변 차량(112)을 인지한 후, 제어부(130)는 위치 보정 정보를 추출한다(320).
위치 보정 정보는 앞서 언급한 정면 주차 영역과 측면 주차 영역을 구분하는 것에서 시작한다.
구체적으로 정면 주차 구역의 경우, 영상 정보에 기초하여 검출된 주차 차량의 위치와 지도 정보로 예측된 주차 차량의 위치가 상이하면, 가중치를 두어 차량(100)의 현재 위치 정보를 보정한다.
측면 주차 구역의 경우, 주차된 주변 차량(112)의 헤딩 방향을 기초로 최소자승법을 이용하여 직선 형태로 생성하고, 직선 형태의 기울기를 바탕으로 차량(100)의 위치를 보정한다.
제어부(130)가 차량(100)의 위치를 보정하는 구체적인 방법은 도 10 내지 도 11을 통해서 후술한다.
위치 보정 후, 제어부(130)는 자율주차 모듈(140)로 보정된 현재 차량(100)의 위치 정보를 전달한다(330). 이후 자율주차 모듈(140)은 위치 정보를 바탕으로 자율 주차를 실시한다.
도 7은 관심 영역을 설정하는 방법을 설명하기 위한 도면이다.
전술한 바와 같이, 제어부(130)는 통신부(110)를 통해 차량(100)이 위치하는 주차장의 지도 정보를 전달받는다. 지도 정보는 주변 차량(112)의 주차된 위치 및 GPS 가 수신되지 않은 주차장 내부의 설계 위치 등을 포함할 수 있다.
제어부(130)는 지도 정보와 카메라(120)가 전달하는 영상 정보를 맵핑(Mapping)한다.
여기서 맵핑이란, 제어부(130)가 지도 정보에 근거해서 현재 차량(100)의 카메라(120)가 촬영하는 영상 정보에서 주차된 주변 차량(120)을 대응시키는 것을 의미한다. 즉, 제어부(130)는 맵핑을 통해서 주차장 내 구획된 주차 지역에서 주변 차랑(112)이 주차한 구역과 주차하지 않은 구역(134)을 구분한다.
이 후 제어부(130)는 구분된 주변 차량(112)의 주차 영역을 제외하고, 차량(100)이 주차할 수 있는 영역을 관심 영역(134)으로 설정한다.
도 7은 설명의 편의를 위해 관심 영역이 설정된 영상 정보를 주차장의 천장에서 내려다본 평면 모양으로 도시한 것이다.
제어부(130)는 도 7과 같이,차량(100)이 주차할 수 있는 구역을 관심 영역(134a, 134b)으로 설정한다. 즉, 도 7에서 점선으로 도시된 영역이 관심 영역(134a, 134b)이다.
또한, 제어부(130)는 관심 영역(134a, 134b)을 설정하면서, 차량(100)과 먼 거리에 주차 구역에 해당하는 관심 영역(134b)을 근거리에 위치한 관심 영역(134a)보다 크게 설정한다.
원거리에 주차된 차량(112)의 경우, 영상 정보에서 예측된 위치보다 실제 위치 간의 오차가 크게 발생할 수 있다. 따라서 제어부(130)는 검출된 주변 차량(112)의 위치 정보를 명확하게 수집하기 위해서 차량(100)보다 원거리에 주차된 주변 차량(112)의 구역(133b) 및 관심 영역(134b)을 크게 설정할 수 있다.
한편, 제어부(130)는 수집한 영상 정보에서 주차된 주변 차량(112)이 주차된 주차 구역을 탐색할 수 있다.
도 8은 일 예에 따라 주변 차량을 분류하는 방법을 설명하기 위한 도면이다.
지도 정보를 수신하는 경우, 반드시 모든 주변 차량(112)이 주차된 상태만을 전달받지 않을 수 있다. 즉, 주차장에는 이동하는 차량과 주차된 차량이 혼재할 수 있다.
영상 정보를 기초로 수신된 지도 정보를 맵핑시킨 후, 제어부(130)는 도 8과 같이 주차 중인 주변 차량(112)과 주차 구역이 아닌 통로 구간을 주행 중인 주변 차량(112a, 112b)를 분류할 수 있다. 이 경우 제어부(130) 이동 중인 차량(112a, 112b)를 제외하고 관심 영역(134b)을 설정한다.
구체적으로, 제어부(130)는 통신부(110)를 통해 주기적으로 지도 정보를 수신하고 주변 차량(112a)이 주차 구역을 벗어나는 주행을 하고 있다고 판단할 수 있다. 이 경우 제어부(130)는 주변 차량(112a)이 벗어나고 있는 주차 구역을 제외하고, 관심 영역(134b)을 설정할 수 있다.
또는 제어부(130)가 주변 차량(112a)이 미리 설정된 주행 속도 이하로 움직이고 있다고 판단할 수 있다. 이 경우 제어부(130)는 주변 차량(112a)이 주차 중이라고 판단하고, 주변 차량(112a)이 주차 중인 주차 구역을 제외하고 관심 영역(134b)을 설정할 수 있다.
, 도 8에서 주변 차량(112ㅠ)이 차량(100)의 횡방향으로 주행하는 정보가 입력되면, 제어부(130)는 차량(112b)이 위치하는 주차 구역을 제외하고, 관심 영역(134b)을 설정할 수 있다.
도 9는 다른 예에 따라 주변 차량을 분류하는 방법을 설명하기 위한 도면이다.
앞서 언급한 바와 같이, 제어부(130)는 차량(100)의 횡방향에 위치한 주차 구역에 관한 영상 정보를 기초로 수신된 지도 정보를 맵핑시킨다. 이 때 횡방향의 주차 구역에서도 도 9과 같이 이동하는 차량과 주차된 차량이 혼재할 수 있다.
차량(100)의 횡방향에 위치하는 주차 구역에 대한 영상 정보에서 주변 차량(112)을 분류하는 것은 종방향에 대한 분류보다 상대적으로 정확하다. 왜냐하면, 카메라(120) 시야각 때문에 종방향에 위치한 주변 차량(112)의 움직임은 영상 정보에 포함되지 않기 때문이다. 즉, 도 8과 달리, 차량(100)의 종방향으로 주행중인 주변 차량(112b)은 영상 정보에 포함되지 않는다.
따라서 제어부(130)는 도 9에서 주변 차량(112b)에 의해 가려지는 주차 구역은 관심 영역에서 당연히 제외된다.
제어부(130)는 주차 구역에서 벗어나거나 주차 중인 주변 차량(112a)을 검색할 수 있다. 도 8과 같이, 제어부(130)는 통신부(110)를 통해 주기적으로 지도 정보를 수신하고, 영상 정보에서 대응하는 주변 차량(112a)이 주차 중인지 여부를 판단할 수 있다. 이 경우, 제어부(130)는 주변 차량(112a)이 주차 중인 주차 구역을 제외하고 관심 영역(134a)을 설정할 수 있다.
다른 예로, 제어부(190)가 주변 차량(112a)이 횡방향의 주차 구역의 중심점에서 일정 각도 이상 벗어났다고 판단되면, 제어부(130)는 주변 차량(112a)이 주행 중인지 여부와 상관없이 주변 차량(112a)의 위치하는 주차 구역을 관심 영역(134a)에서 제외할 수 있다.
한편, 도 8 및 도 9의 설명은 제어부(130)가 관심 영역(134)을 설정하는 일 예에 불과하며 다양한 변형례가 존재할 수 있다. 즉, 제어부(130)는 영상 정보에 통신부(110)를 통해 수신한 지도 정보를 맵핑하고, 여러 다양한 상황이 일어날 수 있는 맵핑 결과에서 관심 영역을 설정할 수 있다.
이렇게 설정된 관심 영역은 제어부(130)가 차량(100)의 위치 정보를 추출하는데 이용된다.
도 10은 일 예에 따라 차량의 위치 정보를 보정하는 방법을 설명하기 위한 도면이다.
제어부(130)는 도 7 내지 도 9에서 설정한 관심 영역을 기초로 주차된 주변 차량(112)의 위치를 통해 차량(100)의 위치를 보정한다.
도 10을 참조하면, 먼저 제어부(130)는 관심 영역(134) 및 주변 차량(112)이 주차된 구역의 예측 위치 좌표(200)를 추출한다.
예를 들어, 예측된 주차 구역의 예측 위치 좌표(200)는 ELot_Pos_x[i] 및 ELot_Pos_y[i]으로 표현될 수 있다. 여기서 i는 각 주차 구역을 의미하고, 주차 구역마다 가변적인 숫자로 표현될 수 있다. x 및 y는 2차원 좌표값이다.
일 예에 따른 위치 좌표(200)는 지도 정보에서 구획된 주차 구역의 중심점에 해당할 수 있으며, 각 구역마다 일정할 수 있다.
이후, 제어부(130)는 지도 정보를 맵핑시킨 영상 정보를 기초로 주변 차량(122)의 검출 위치 좌표(210)를 추출한다.
검출 위치 좌표(210)는 MLot_Pos_x[i] 및 MLot_Pos_y[i]으로 표현될 수 있다. 검출 위치 좌표(210)는 맵핑시킨 결과마다 상이할 수 있으며, 다양하다.
제어부(130)는 예측 위치 좌표(200)와 검출 위치 좌표(210)를 기초로 각 구역에서 주차 위치의 오차를 추출한다. 오차는 아래의 수학식 1과 2로 계산될 수 있다.
이후, 제어부(130)는 오차(Error)에 대한 각 좌표를 통합한다. 즉, 제어부(130)는 수학식 3을 이용한다.
여기서 sqrt는 제곱근을 의미한다. 이후 제어부(130)는 각 주차 구역에서 차량(100)의 위치 보정에 필요한 가중치(Weight)를 추출한다. 가중치는 아래 수학식 4를 통해서 계산될 수 있다.
여기서 Sum은 시그마(S)를 의미한다. 또한, 수학식 4는 Error의 개수 (n)가 2이상라면, 적용된다. 만약 Error의 개수가 1이라면, Weight[i]는 1이 된다.
이렇게 각 주차 구역에 따른 가중치를 구한 후, 제어부(130)는 수학식 5 및 6을 이용하여 차량(100)의 보정에 사용될 위치 보정값(Mod_x, Mod_y)을 추출한다.
도 10을 다시 참조하면, 제어부(130)는 종방향에 위치한 주변 차량(112) 중 정중앙에 위치한 차량(112c)에 대한 검출값의 오차가 가장 적다고 판단할 수 있다. 이 경우 제어부(130)는 중앙 차량의 검출 좌표값에 가장 높은 가중치를 두고, 차량(100)의 위치를 보정하여 도 10과 같이 표현할 수 있다. 즉, 제어부(130)는 수학식 5 및 6을 통해 추출된 보정값을 이용하여 도 10의 차량(100)의 위치를 차량(100a)의 위치로 보정한다.
정리하면, 제어부(130)는 관심 영역(134)이 차량(100)의 종방향에 주차된 주차 구역을 포함하는 경우, 주차 구역 내 예측 위치 좌표와 주변 차량(112)의 검출 위치 좌표를 기초로 가중치를 추출한다. 이후 제어부(130)는 가중치에 근거하여 보정값을 추출하고, 차량(100)의 현재 위치를 보정값에 기초하여 보정한다.
도 11은 다른 예에 따라 차량의 위치 정보를 보정하는 방법을 설명하기 위한 도면이다.
도 10은 차량(100)의 종방향에서 위치한 관심 영역의 주차 구역에 대한 자율주차 중, 현재 차량(100)의 위치를 보정하는 방법을 설명한 도면이다. 이와 비교하여 도 11은 차량(100)의 횡방향에서 주차된 관심 영역에서 자율주차를 실시하는 경우, 현재 차량(100)의 위치를 보정하는 방법을 설명하기 위한 도면이다.
일 예에 따라 제어부(130)는 차량(100)의 측면에 주차된 주변 차량(112)의 지도 정보와 영상 정보를 수집하여 도 10과 같이 가중치를 추출하고, 이를 통해 현재 차량(100)의 위치를 차량(100a)으로 보정할 수 있다.
다른 예에 따라 제어부(130)는 주변 차량(112)의 검출된 헤딩 좌표를 직선 형태로 생성하고, 기울기 차이를 이용하여 현재 차량(100)의 위치를 정보를 도 11과 같이 보정할 수 있다.
구체적으로 차량(100)의 측면에 주차된 주차 구역에 관한 영상 정보는 종방향에 관련된 영상 정보보다 상대적으로 명확하다. 따라서 제어부(130)는 맵핑 시킨 결과를 기초로 주변 차량(112)의 검출 좌표를 추출한 후, 검출 좌표를 최소자승법을 이용하여 도 11의 제 1직선(211)의 형태로 생성한다.
이후, 제어부(130)는 지도 정보에 기초하여 주차 라인에 따라 예측된 제 2 직선(201)을 제 1직선(211)과 비교한다. 제어부(130)는 제 1 직선(211)과 제 2 직선(201)의 기울기 차이를 이용하여 차량(100)의 헤딩 방향을 조절하고, 위치를 함께 보정할 수 있다.
한편, 도 10 및 도 11에서 설명은 제어부(130)가 실시하는 위치 보정 방법의 일 예에 불과하다. 즉, 제어부(130)는 통신부(110)가 전달하는 지도 정보와 카메라(120)가 전달하는 영상 정보를 맵핑한 후, 차량(100)의 주변 차량(112)의 위치로부터 차량(100)의 위치 정보를 보정함으로써 영상 정보만을 이용한 종래의 위치 추정의 오차를 최소화하면 충분하다.
도 12는 일 예에 따라 차량의 위치를 보정하는 방법에 관한 순서도이다.
도 12를 참조하면, 차량(100)이 GPS 등 위치 정보를 수신하기 어려운 주차장으로 진입한다(400).
종래에는 차량(100)에 설치된 카메라 또는 고가의 라이다 센서만을 이용하여 위치 정보를 획득하였다. 그러나 이러한 방법은 어두운 주차장 내부 영상에 따라 명확한 위치 인식이 어려운 한계가 있었다.
따라서 개시된 차량(100)은 카메라(120)가 전달하는 영상 정보 이외에도 차량(100) 외부의 장치가 전달하는 주차장 내부의 지도 정보를 획득한다(410).
지도 정보는 주차장 내부의 주차 구역이 포함된 설계 정보 및 주변 차량(112)이 주차된 주차 구역 등 다양한 정보를 포함할 수 있다.
제어부(130)는 영상 정보에 지도 정보를 맵핑한 후, 관심 영역을 설정한다(430).
구체적으로 관심 영역(134)은 주변 차량(112)이 완전히 주차된 주차 구역을 제외하고, 차량(100)이 주차할 수 있는 주차 구역을 의미한다.
관심 영역은 다양한 기준에 의해서 설정될 수 있으며, 도 7 내지 도 9의 방법 이외에도 다양한 변형례를 포함할 수 있다.
관심 영역을 설정한 후, 제어부(130)는 관심 영역(134)이 차량(100)의 정면에 위치한 주차 구역인지 여부를 판단한다(440).
만약 관심 영역(134)이 차량(100)의 정면, 즉 종방향에 주변 차량(112)이 위치하는 경우 제어부(130)는 주차된 주변 차량(112)을 분류한다(450).
제어부(130)는 차량(100)의 정면에 위치한 주변 차량(112)을 분류하면서, 주변 차량(112)이 주차한 위치 좌표 값을 설정한다.
이 후 제어부(130)는 도 10 등에서 설명한 방법을 통해서 차량(100)의 위치 보정 정보를 추출한다(451).
만약 관심 영역(134)이 차량(100)의 측면, 즉 횡방향에 주변 차량(112)이 위치하는 경우, 제어부(130)는 측면에 주차된 주변 차량(112)을 분류한다(460). 이후 제어부(130)는 도 11등에서 설명한 방법을 통해서 차량(100)의 위치 보정 정보를 추출한다(461).
특히, 횡방향에 주변 차량(112)이 주차된 영상 정보가 전달되면, 제어부(130)는 종방향의 영상 정보보다 더 큰 신뢰도를 가지고, 차량(100)의 위치를 보정한다.
구체적으로 제어부(130)는 측면에 주차된 차량(112)의 검색 위치 좌표를 최소자승법 등을 이용하여 직선의 기울기를 추출한 후, 주차 구역 라인과 비교하여 차량(100)의 헤딩 방향 및 차량(100)의 위치를 수정할 수도 있다.
제어부(130)는 추출된 위치 보정 정보를 통해서 차량(100)의 현재 위치 정보를 보정한 후(470), 자율주차 모듈(140)로 보정된 위치 정보를 전달한다(480).
자율주차 모듈(140)은 보정된 위치 정보에 기초하여 차량(100)을 주차시키고자 하는 주차 구역에 자율 주차시킨다.
100: 차량, 110: 통신부,
111:주차장 센서, 112: 주변 차량,
113: 통신망, 120: 카메라,
130: 제어부, 140:자율주차 모듈.
111:주차장 센서, 112: 주변 차량,
113: 통신망, 120: 카메라,
130: 제어부, 140:자율주차 모듈.
Claims (20)
- 주차장에 대한 지도 정보를 수신하는 통신부;
차량 주변을 촬영하여 영상 정보를 생성하는 카메라; 및
상기 카메라가 전달하는 영상 정보에 기초하여 상기 차량 주위에 주차된 주변 차량의 위치 좌표를 추출하고, 상기 통신부가 전달하는 지도 정보에 기초하여 상기 주변 차량이 주차된 구역의 예측 위치 좌표를 추출하는 제어부;를 포함하고,
상기 제어부는,
상기 예측 위치 좌표에서 상기 위치 좌표의 오차를 추출한 후, 상기 오차의 가중치에 기초하여 상기 차량의 위치 정보를 보정하는 차량. - 제 1항에 있어서,
상기 제어부는,
상기 영상 정보에 기초하여 상기 지도 정보를 맵핑하는 차량. - 제 2항에 있어서,
상기 제어부는,
상기 맵핑된 영상 정보에서 상기 차량이 주차할 수 있는 관심 영역을 설정하는 차량. - 삭제
- 제 1항에 있어서,
상기 제어부는,
상기 주변 차량이 상기 차량의 종방향 또는 횡방향에 주차되었는지 여부를 판단하는 차량. - 제 5항에 있어서,
상기 제어부는,
상기 주변 차량이 상기 차량의 횡방향에 주차되는 경우, 적어도 하나 이상의 상기 주변 차량의 위치 좌표를 잇는 직선의 기울기에 기초하여 상기 차량의 헤딩 정보 및 위치 정보를 보정하는 차량. - 제 1항에 있어서,
상기 제어부는,
상기 주변 차량이 주차 중이거나 이동 중인 경우, 상기 주변 차량을 제외하고 관심 영역을 설정하는 차량. - 삭제
- 제 1항에 있어서,
상기 제어부가 전달하는 보정된 위치 정보에 기초하여 상기 차량을 주차시키는 자율주차 모듈;을 더 포함하는 차량. - 제 1항에 있어서,
상기 보정된 위치 정보를 출력하는 디스플레이;를 더 포함하는 차량. - 주차장에 대한 지도 정보를 수신하고;
차량 주변을 촬영하여 영상 정보를 생성하고;
상기 영상 정보에 기초하여 상기 차량 주위에 주차된 주변 차량의 위치 좌표를 추출하고;
상기 지도 정보에 기초하여 상기 주변 차량이 주차된 구역의 예측 위치 좌표를 추출하고;
상기 예측 위치 좌표에서 상기 위치 좌표의 오차를 추출한 후, 상기 오차의 가중치에 기초하여 상기 차량의 위치 정보를 보정하는 것;을 포함하는 차량의 제어방법. - 제 11항에 있어서,
상기 영상 정보에 기초하여 상기 지도 정보를 맵핑하는 것;을 더 포함하는 차량의 제어방법. - 제 12항에 있어서,
상기 보정하는 것은,
상기 맵핑된 영상 정보에서 상기 차량이 주차할 수 있는 관심 영역을 설정하고;
상기 관심 영역에 기초하여 상기 위치 정보를 보정하는 것;을 포함하는 차량의 제어방법. - 삭제
- 제 11항에 있어서,
상기 보정하는 것은,
상기 주변 차량이 상기 차량의 종방향 또는 횡방향에 주차되었는지 여부를 판단하고, 상기 차량의 위치 정보를 보정하는 것;을 포함하는 차량의 제어방법. - 제 11항에 있어서,
상기 보정하는 것은,
상기 주변 차량이 상기 차량의 횡방향에 주차되는 경우, 적어도 하나 이상의 상기 주변 차량의 위치 좌표를 잇는 직선의 기울기에 기초하여 상기 차량의 헤딩 정보 및 위치 정보를 보정하는 것;을 포함하는 차량의 제어방법. - 제 13항에 있어서,
상기 설정하는 것은,
상기 주변 차량이 주차 중이거나 이동 중인 경우, 상기 주변 차량을 제외하고 관심 영역을 설정하는 것;을 포함하는 차량의 제어방법. - 삭제
- 제 11항에 있어서,
상기 보정된 위치 정보에 기초하여 상기 차량을 주차시키는 것;을 포함하는 차량의 제어방법. - 제 11항에 있어서,
상기 보정된 위치 정보를 출력하는 것;을 포함하는 차량의 제어방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160145628A KR101935512B1 (ko) | 2016-11-03 | 2016-11-03 | 차량 및 차량의 제어방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160145628A KR101935512B1 (ko) | 2016-11-03 | 2016-11-03 | 차량 및 차량의 제어방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180049567A KR20180049567A (ko) | 2018-05-11 |
KR101935512B1 true KR101935512B1 (ko) | 2019-04-03 |
Family
ID=62185629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160145628A KR101935512B1 (ko) | 2016-11-03 | 2016-11-03 | 차량 및 차량의 제어방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101935512B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11783507B2 (en) | 2020-08-25 | 2023-10-10 | Samsung Electronics Co., Ltd. | Camera calibration apparatus and operating method |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102625399B1 (ko) * | 2018-09-04 | 2024-01-17 | 현대자동차주식회사 | 차량 및 그 제어방법 |
KR20200130883A (ko) | 2019-04-26 | 2020-11-23 | 현대모비스 주식회사 | 주차 지원 장치 및 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007253819A (ja) * | 2006-03-23 | 2007-10-04 | Toyota Motor Corp | 駐車支援装置 |
JP2010151619A (ja) * | 2008-12-25 | 2010-07-08 | Equos Research Co Ltd | 制御装置 |
JP2012242262A (ja) * | 2011-05-20 | 2012-12-10 | Mazda Motor Corp | 移動体位置検出装置 |
KR101470240B1 (ko) * | 2013-11-14 | 2014-12-08 | 현대자동차주식회사 | 주차 영역 검출 장치 및 그 방법 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101379630B1 (ko) * | 2011-11-16 | 2014-04-14 | 주식회사 만도 | 주차 지원장치 및 그 지원방법, 및 차량의 주차 보조장치 및 그 보조방법 |
KR20160079512A (ko) * | 2014-12-26 | 2016-07-06 | 현대자동차주식회사 | 실내 주차장에서의 차량 위치추정장치 및 방법 |
-
2016
- 2016-11-03 KR KR1020160145628A patent/KR101935512B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007253819A (ja) * | 2006-03-23 | 2007-10-04 | Toyota Motor Corp | 駐車支援装置 |
JP2010151619A (ja) * | 2008-12-25 | 2010-07-08 | Equos Research Co Ltd | 制御装置 |
JP2012242262A (ja) * | 2011-05-20 | 2012-12-10 | Mazda Motor Corp | 移動体位置検出装置 |
KR101470240B1 (ko) * | 2013-11-14 | 2014-12-08 | 현대자동차주식회사 | 주차 영역 검출 장치 및 그 방법 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11783507B2 (en) | 2020-08-25 | 2023-10-10 | Samsung Electronics Co., Ltd. | Camera calibration apparatus and operating method |
Also Published As
Publication number | Publication date |
---|---|
KR20180049567A (ko) | 2018-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102524851B1 (ko) | 차로 병합 및 차로 분리의 항법을 위한 시스템 및 방법 | |
JP6780661B2 (ja) | 画像処理装置および方法、プログラム、並びに画像処理システム | |
KR102309316B1 (ko) | 차량용 디스플레이 장치 및 이를 구비한 차량 | |
JP7136106B2 (ja) | 車両走行制御装置、および車両走行制御方法、並びにプログラム | |
US10528829B2 (en) | Apparatus for parking vehicle and vehicle | |
US9747800B2 (en) | Vehicle recognition notification apparatus and vehicle recognition notification system | |
US10782405B2 (en) | Radar for vehicle and vehicle provided therewith | |
KR101741433B1 (ko) | 운전자 보조 장치 및 그 제어방법 | |
CN111284487B (zh) | 车道线显示方法以及执行该方法的电子设备 | |
US11249473B2 (en) | Remote driving managing apparatus, and computer readable storage medium | |
WO2020116195A1 (ja) | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 | |
JPWO2019181284A1 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
CN111226094A (zh) | 信息处理装置、信息处理方法、程序和移动体 | |
KR102077575B1 (ko) | 차량 운전 보조 장치 및 차량 | |
CN112046481B (zh) | 自动驾驶装置和方法 | |
US11150642B2 (en) | Remote vehicle control system utilizing system state information matching and correcting | |
KR101935512B1 (ko) | 차량 및 차량의 제어방법 | |
US11226616B2 (en) | Information processing apparatus and computer readable storage medium for remotely driving vehicles | |
US20210239853A1 (en) | System and method for vehicle path estimation using vehicular communication | |
US20230260254A1 (en) | Information processing device, information processing method, and program | |
US20240056694A1 (en) | Imaging device, image processing method, and image processing program | |
KR101822896B1 (ko) | 운전자 보조 장치 및 그 제어방법 | |
WO2020090320A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
KR20200070100A (ko) | 차량 검출 방법 및 이를 수행하는 전자 기기 | |
KR101985496B1 (ko) | 차량 운전 보조장치 및 이를 포함하는 차량 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) |