KR101715014B1 - 주차 보조 장치 및 그 주차 보조 방법 - Google Patents
주차 보조 장치 및 그 주차 보조 방법 Download PDFInfo
- Publication number
- KR101715014B1 KR101715014B1 KR1020130007264A KR20130007264A KR101715014B1 KR 101715014 B1 KR101715014 B1 KR 101715014B1 KR 1020130007264 A KR1020130007264 A KR 1020130007264A KR 20130007264 A KR20130007264 A KR 20130007264A KR 101715014 B1 KR101715014 B1 KR 101715014B1
- Authority
- KR
- South Korea
- Prior art keywords
- image data
- current
- parking space
- parking
- current object
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000002093 peripheral effect Effects 0.000 claims abstract description 23
- 230000002068 genetic effect Effects 0.000 claims abstract description 12
- 238000013528 artificial neural network Methods 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 10
- 240000004050 Pentaglottis sempervirens Species 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/14—Traffic control systems for road vehicles indicating individual free spaces in parking areas
- G08G1/145—Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/168—Driving aids for parking, e.g. acoustic or visual feedback on parking space
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Transportation (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 차량을 주차할 시에 주차 모드 동작 장치로부터 주차 모드 동작 신호를 공급받아 AVM(Around View Monitor) 카메라를 이용하여 차량의 현재 주변 영역의 주차 공간을 촬영하는 주차 공간 촬영부와; 주차 공간 촬영부에서 촬영한 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터를 공급받아 현재 물체 이미지 데이터를 감지하되, 신경망(neural network)과 유전 알고리즘(Genetic Algorithm)를 통해 현재 물체 이미지 데이터의 가장자리 부분을 기준으로 거리 정보와 각도 정보중 적어도 하나를 추출하여 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보를 감지하는 물체 감지부와; 물체 감지부에서 감지한 현재 물체의 위치 정보를 공급받고, 이미 설정된 기준 물체의 위치 정보 범위를 포함하는 제어부와; 물체 감지부에서 감지한 현재 물체의 위치 정보가 기준 물체의 위치 정보 범위인지를 제어부의 제어에 따라 판단하는 제 1 판단부와; 제 1 판단부에서 현재 물체의 위치 정보가 기준 물체의 위치 정보 범위인 것으로 판단할 경우, 현재 물체의 위치 상태를 식별시키는 제 1 식별부; 및 제 1 판단부에서 현재 물체의 위치 정보가 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 제어부의 제어에 따라 해당 주차 공간의 주차를 위한 조향 장치를 구동시켜 해당 주차 공간으로 주차시키는 구동부를 포함하는 주차 보조 장치 및 그 주차 보조 방법을 제공한다.
Description
본 발명은 주차 보조 장치 및 그 주차 보조 방법에 관한 것이다.
일반적으로, 종래 주차 보조 장치는 주차시에 운전자에게 편리한 주차를 유도하도록 제공되었다.
그러나, 종래 주차 보조 장치는 주차시에 좌우측 직각 주차와 좌우측 평행 주차에 따라 주차 모드 동작 장치를 각각 선택하여 주차해야만 하므로, 주차의 편리함을 제공하는데에 한계가 있었다.
또한, 종래 주차 보조 장치는 해당 주차 공간으로 주차하려고 할 시에, 현재 물체의 존재 유무를 빠르게 판단하는데에 한계가 있으므로, 주차시에 주차의 편리함을 제공하는데에 한계가 있었다.
따라서, 최근에는 주차시에 주차의 편리함을 제공하면서 주차의 신뢰성을 향상시키고, 해당 주차 공간으로 빠르게 주차시킬 수 있는 개선된 주차 보조 장치 및 그 주차 보조 방법의 연구가 지속적으로 행해져 오고 있다.
본 발명의 목적은, 현재 물체가 존재할 경우 현재 물체의 위치 상태를 식별시켜 주차의 불가능한 상태를 식별시키면서, 현재 물체가 없을 경우 해당 주차 공간으로 주차시킬 수가 있으므로, 주차의 신뢰성을 향상시킬 수가 있는 주차 보조 장치 및 그 주차 보조 방법을 제공하는데에 있다.
본 발명의 다른 목적은, 현재 물체가 존재할 경우 현재 물체의 위치 상태를 식별시켜 주차의 불가능한 상태를 식별시키면서, 현재 물체가 없을 경우 현재 주차 공간의 주차 가능한 상황을 식별시켜 해당 주차 공간으로 주차시킬 수가 있으므로, 주차의 신뢰성을 향상시키면서 주차의 편리함을 제공할 수가 있는 주차 보조 장치 및 그 주차 보조 방법을 제공하는데에 있다.
본 발명의 또 다른 목적은, 현재 물체의 위치 상태를 빠르게 확인할 수가 있어 해당 주차 공간으로 더욱 빠르게 주차시킬 수가 있는 주차 보조 장치 및 그 주차 보조 방법을 제공하는데에 있다.
이러한 목적을 달성하기 위하여 본 발명은 차량을 주차할 시에 주차 모드 동작 장치로부터 주차 모드 동작 신호를 공급받아 AVM(Around View Monitor) 카메라를 이용하여 차량의 현재 주변 영역의 주차 공간을 촬영하는 주차 공간 촬영부와; 주차 공간 촬영부에서 촬영한 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터를 공급받아 현재 물체 이미지 데이터를 감지하되, 신경망(neural network)과 유전 알고리즘(Genetic Algorithm)를 통해 현재 물체 이미지 데이터의 가장자리 부분을 기준으로 거리 정보와 각도 정보중 적어도 하나를 추출하여 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보를 감지하는 물체 감지부와; 물체 감지부에서 감지한 현재 물체의 위치 정보를 공급받고, 이미 설정된 기준 물체의 위치 정보 범위를 포함하는 제어부와; 물체 감지부에서 감지한 현재 물체의 위치 정보가 기준 물체의 위치 정보 범위인지를 제어부의 제어에 따라 판단하는 제 1 판단부와; 제 1 판단부에서 현재 물체의 위치 정보가 기준 물체의 위치 정보 범위인 것으로 판단할 경우, 현재 물체의 위치 상태를 식별시키는 제 1 식별부; 및 제 1 판단부에서 현재 물체의 위치 정보가 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 제어부의 제어에 따라 해당 주차 공간의 주차를 위한 조향 장치를 구동시켜 해당 주차 공간으로 주차시키는 구동부를 포함한다.
본 발명의 다른 특징에 따르면, 물체 감지부는 주차 공간 촬영부에서 촬영한 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터를 공급받아 현재 물체 이미지 데이터를 감지하되, 왜곡된 현재 물체 이미지 데이터를 탑-뷰(Top-view) 영상으로 변환하여 조감도를 생성하고, 신경망(neural network)으로 현재 물체 이미지 데이터 또는 지면 이미지 데이터인지를 판단하여 흑백 이미지 데이터로 전환하며, 전환된 흑백 이미지 데이터에서 현재 물체 이미지 데이터의 가장자리 부분을 기준으로 거리 정보와 각도 정보중 적어도 하나를 추출하여 유전 알고리즘(Genetic Algorithm)를 통해 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보를 감지하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 제 1 식별부는 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보에서 현재 물체 이미지 데이터에 해당하는 영상 프레임을 갖는 영상 데이터중 제어부의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 개별적으로 표시하여 현재 물체의 위치 상태를 식별시키는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 제어부는 기준 주차 공간 이미지 데이터 범위를 더 포함하고; 제 1 판단부에서 현재 물체의 위치 정보가 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터가 기준 주차 공간 이미지 데이터 범위인지를 제어부의 제어에 따라 판단하는 제 2 판단부를 더 포함하며; 제 2 판단부에서 현재 주차 공간 이미지 데이터가 기준 주차 공간 이미지 데이터 범위인 것으로 판단할 경우, 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간의 상황을 식별시키는 제 2 식별부를 더 포함한다.
본 발명의 또 다른 특징에 따르면, 제 2 판단부는 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간 이미지 패턴이 기준 주차 공간 이미지 데이터 범위에 해당하는 기준 주차 공간 이미지 패턴 범위인지를 제어부의 제어에 따라 판단하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 제 2 식별부는 현재 주차 공간 이미지 데이터에 해당하는 영상 프레임을 갖는 영상 데이터중 제어부의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 개별적으로 표시하여 현재 주차 공간의 상황을 식별시키는 것을 특징으로 한다.
또한, 본 발명은 차량을 주차할 시에 주차 모드 동작 장치로부터 주차 모드 동작 신호를 공급받아 AVM(Around View Monitor) 카메라를 이용하여 차량의 현재 주변 영역의 주차 공간을 주차 공간 촬영부에서 촬영하는 주차 공간 촬영 단계와; 주차 공간 촬영부에서 촬영한 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터를 공급받아 현재 물체 이미지 데이터를 감지하되, 신경망(neural network)과 유전 알고리즘(Genetic Algorithm)를 통해 현재 물체 이미지 데이터의 가장자리 부분을 기준으로 거리 정보와 각도 정보중 적어도 하나를 추출하여 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보를 물체 감지부에서 감지하는 물체 감지 단계와; 물체 감지부에서 감지한 현재 물체의 위치 정보가 제어부에 설정된 기준 물체의 위치 정보 범위인지를 제어부의 제어에 따라 제 1 판단부에서 판단하는 제 1 판단 단계와; 제 1 판단부에서 현재 물체의 위치 정보가 기준 물체의 위치 정보 범위인 것으로 판단할 경우, 현재 물체의 위치 상태를 제 1 식별부에서 식별시키는 제 1 식별 단계; 및 제 1 판단부에서 현재 물체의 위치 정보가 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 제어부의 제어에 따라 구동부에서 해당 주차 공간의 주차를 위한 조향 장치를 구동시켜 해당 주차 공간으로 주차시키는 주차 동작 단계를 포함한다.
본 발명의 다른 특징에 따르면, 물체 감지 단계는 주차 공간 촬영부에서 촬영한 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터를 공급받아 현재 물체 이미지 데이터를 감지하되, 왜곡된 현재 물체 이미지 데이터를 탑-뷰(Top-view) 영상으로 변환하여 조감도를 생성하고, 신경망(neural network)으로 현재 물체 이미지 데이터 또는 지면 이미지 데이터인지를 판단하여 흑백 이미지 데이터로 전환하며, 전환된 흑백 이미지 데이터에서 현재 물체 이미지 데이터의 가장자리 부분을 기준으로 거리 정보와 각도 정보중 적어도 하나를 추출하여 유전 알고리즘(Genetic Algorithm)를 통해 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보를 물체 감지부에서 감지하는 단계인 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 제 1 식별 단계는 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보에서 현재 물체 이미지 데이터에 해당하는 영상 프레임을 갖는 영상 데이터중 제어부의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 제 1 식별부에서 개별적으로 표시하여 현재 물체의 위치 상태를 식별시키는 단계인 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 제 1 판단 단계 이후에 제 1 판단부에서 현재 물체의 위치 정보가 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터가 제어부에 설정된 기준 주차 공간 이미지 데이터 범위인지를 제어부의 제어에 따라 제 2 판단부에서 판단하는 제 2 판단 단계를 더 수행하고; 제 2 판단부에서 현재 주차 공간 이미지 데이터가 기준 주차 공간 이미지 데이터 범위인 것으로 판단할 경우, 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간의 상황을 제 2 식별부에서 식별시키는 제 2 식별 단계를 더 수행하는 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 제 2 판단 단계는 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간 이미지 패턴이 기준 주차 공간 이미지 데이터 범위에 해당하는 기준 주차 공간 이미지 패턴 범위인지를 제어부의 제어에 따라 제 2 판단부에서 판단하는 단계인 것을 특징으로 한다.
본 발명의 또 다른 특징에 따르면, 제 2 식별 단계는 현재 주차 공간 이미지 데이터에 해당하는 영상 프레임을 갖는 영상 데이터중 제어부의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 제 2 식별부에서 개별적으로 표시하여 현재 주차 공간의 상황을 식별시키는 단계인 것을 특징으로 한다.
상기한 바와 같이 이루어진 본 발명의 주차 보조 장치 및 그 주차 보조 방법에 따르면, 다음과 같은 효과를 얻을 수 있다.
첫째, 현재 물체가 존재할 경우 현재 물체의 위치 상태를 식별시켜 주차의 불가능한 상태를 식별시키면서, 현재 물체가 없을 경우 해당 주차 공간으로 주차시킬 수가 있으므로, 주차의 신뢰성을 향상시킬 수 있는 효과가 있다.
둘째, 현재 물체가 존재할 경우 현재 물체의 위치 상태를 식별시켜 주차의 불가능한 상태를 식별시키면서, 현재 물체가 없을 경우 현재 주차 공간의 주차 가능한 상황을 식별시켜 해당 주차 공간으로 주차시킬 수가 있으므로, 주차의 신뢰성을 향상시키면서 주차의 편리함을 제공할 수 있는 다른 효과가 있다.
셋째, 현재 물체의 위치 상태를 빠르게 확인할 수가 있어 해당 주차 공간으로 더욱 빠르게 주차시킬 수 있는 또 다른 효과가 있다.
도 1은 본 발명의 제 1 실시예에 따른 주차 보조 장치에 주차 모드 동작 장치 및 조향 장치가 연결된 상태를 나타낸 블럭 구성도.
도 2는 본 발명의 제 1 실시예에 따른 주차 보조 장치를 일예로 나타낸 블럭 구성도.
도 3a는 도 2에 도시한 주차 공간 촬영부를 통해 현재 주변 영역의 주차 공간을 촬영하는 과정을 보여주기 위한 평면도.
도 3b는 도 2에 도시한 물체 감지부를 통해 왜곡된 현재 물체 이미지 데이터에 대해 조감도를 생성하는 과정을 보여주기 위한 평면도.
도 3c는 도 2에 도시한 물체 감지부를 통해 현재 물체 이미지 데이터에 대해 bird's eye view 형태로 변환하는 과정을 보여주기 위한 평면도.
도 3d는 도 2에 도시한 물체 감지부를 통해 현재 물체의 위치 정보를 감지하는 과정을 보여주기 위한 평면도.
도 4는 본 발명의 제 1 실시예에 따른 주차 보조 장치의 주차 보조 방법을 나타낸 순서도.
도 5는 본 발명의 제 2 실시예에 따른 주차 보조 장치를 일예로 나타낸 블럭 구성도.
도 6은 본 발명의 제 2 실시예에 따른 주차 보조 장치의 주차 보조 방법을 나타낸 순서도.
도 7은 본 발명의 제 2 실시예에 따른 주차 보조 장치의 주차 보조 방법을 일예로 나타낸 순서도.
도 2는 본 발명의 제 1 실시예에 따른 주차 보조 장치를 일예로 나타낸 블럭 구성도.
도 3a는 도 2에 도시한 주차 공간 촬영부를 통해 현재 주변 영역의 주차 공간을 촬영하는 과정을 보여주기 위한 평면도.
도 3b는 도 2에 도시한 물체 감지부를 통해 왜곡된 현재 물체 이미지 데이터에 대해 조감도를 생성하는 과정을 보여주기 위한 평면도.
도 3c는 도 2에 도시한 물체 감지부를 통해 현재 물체 이미지 데이터에 대해 bird's eye view 형태로 변환하는 과정을 보여주기 위한 평면도.
도 3d는 도 2에 도시한 물체 감지부를 통해 현재 물체의 위치 정보를 감지하는 과정을 보여주기 위한 평면도.
도 4는 본 발명의 제 1 실시예에 따른 주차 보조 장치의 주차 보조 방법을 나타낸 순서도.
도 5는 본 발명의 제 2 실시예에 따른 주차 보조 장치를 일예로 나타낸 블럭 구성도.
도 6은 본 발명의 제 2 실시예에 따른 주차 보조 장치의 주차 보조 방법을 나타낸 순서도.
도 7은 본 발명의 제 2 실시예에 따른 주차 보조 장치의 주차 보조 방법을 일예로 나타낸 순서도.
이하에서는 첨부된 도면을 참고로 하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다.
<제 1 실시예>
도 1은 본 발명의 제 1 실시예에 따른 주차 보조 장치에 주차 모드 동작 장치 및 조향 장치가 연결된 상태를 나타낸 블럭 구성도이고, 도 2는 본 발명의 제 1 실시예에 따른 주차 보조 장치를 일예로 나타낸 블럭 구성도이다.
도 3a는 도 2에 도시한 주차 공간 촬영부를 통해 현재 주변 영역의 주차 공간을 촬영하는 과정을 보여주기 위한 평면도이고, 도 3b는 도 2에 도시한 물체 감지부를 통해 왜곡된 현재 물체 이미지 데이터에 대해 조감도를 생성하는 과정을 보여주기 위한 평면도이다.
도 3c는 도 2에 도시한 물체 감지부를 통해 현재 물체 이미지 데이터에 대해 bird's eye view 형태로 변환하는 과정을 보여주기 위한 평면도이고, 도 3d는 도 2에 도시한 물체 감지부를 통해 현재 물체의 위치 정보를 감지하는 과정을 보여주기 위한 평면도이다.
도 1 내지 도 3d를 참조하면, 본 발명의 제 1 실시예에 따른 주차 보조 장치(100)는 주차 공간 촬영부(102)와 물체 감지부(104) 및 제어부(106)와 제 1 판단부(108) 및 제 1 식별부(110)와 구동부(112)를 포함한다.
도 1 내지 도 3a에 도시된 바와 같이, 주차 공간 촬영부(102)는 차량을 주차할 시에 주차 모드 동작 장치(10)로부터 주차 모드 동작 신호를 공급받아, 도시하지는 않았지만 AVM(Around View Monitor) 카메라(미도시)를 이용하여 차량의 현재 주변 영역의 주차 공간(A)을 촬영하도록 제공된다.
물체 감지부(104)는 주차 공간 촬영부(102)에서 촬영한 차량의 현재 주변 영역의 주차 공간(A)에 해당하는 현재 주차 공간 이미지 데이터를 공급받아 현재 물체 이미지 데이터(D1)를 감지하도록 제공된다.
이때, 도 3b에 도시된 바와 같이 물체 감지부(104)는 왜곡된 현재 물체 이미지 데이터(D1)를 탑-뷰(Top-view) 영상으로 변환하여 조감도를 생성하고, 신경망(neural network)으로 현재 물체 이미지 데이터(D1) 또는 지면 이미지 데이터(D2)인지를 판단하여 흑백 이미지 데이터로 전환하도록 제공된다.
이 후, 도 3c에 도시된 바와 같이 물체 감지부(104)는 현재 물체 이미지 데이터(D1)에 대해 bird's eye view 형태로 변환한 후, 도 3d에 도시된 바와 같이 물체 감지부(104)는 전환된 흑백 이미지 데이터에서 현재 물체 이미지 데이터(D1)의 가장자리 부분을 기준으로 거리 정보와 각도 정보중 적어도 하나를 추출하여 유전 알고리즘(Genetic Algorithm)를 통해 현재 물체 이미지 데이터에 해당하는 현재 물체(P)의 위치 정보를 감지하도록 제공된다.
이때, 물체 감지부(104)는 도시하지는 않았지만, 현재 물체(P)의 위치 정보를 감지하기 위한 CCD 카메라(미도시)와 초음파 센서(미도시) 및 레이더 센서(미도시)와 적외선 센서(미도시) 및 사각지대 영역 검출(Blind Spot Detection, BSD) 센서(미도시)중 적어도 하나를 포함하여 제공될 수가 있고, 이에 한정하지 않고 현재 물체(P)의 위치 정보를 감지할 수 있는 모든 감지 수단이면 가능하다.
제어부(106)는 물체 감지부(104)에서 감지한 현재 물체(P)의 위치 정보를 공급받고, 이미 설정된 기준 물체의 위치 정보 범위를 포함하도록 제공된다.
제 1 판단부(108)는 물체 감지부(104)에서 감지한 현재 물체(P)의 위치 정보가 기준 물체의 위치 정보 범위인지를 제어부(106)의 제어에 따라 판단하도록 제공된다.
이때, 제어부(106) 및 제 1 판단부(108)는 도시하지는 않았지만, 차량에 적용되는 메인 컴퓨터로 전체적인 동작을 제어하고 판단하거나, 엔진의 내부적인 동작을 제어하고 판단하는 통상적인 ECU(Electric Control Unit, Engine Control Unit, 미도시) 또는 단일 칩 내부에 프로세서와 메모리 및 입출력 장치를 갖춰 전체적인 동작을 제어하고 판단하는 통상적인 MCU(Micro Control Unit, 미도시)를 포함하여 제공될 수가 있으며, 이에 한정하지 않고 차량의 전체적인 동작을 판단하고 제어할 수 있는 모든 판단 제어 수단이면 가능하다.
제 1 식별부(110)는 제 1 판단부(108)에서 현재 물체(P)의 위치 정보가 기준 물체의 위치 정보 범위인 것으로 판단할 경우, 현재 물체(P)의 위치 상태를 식별시키도록 제공된다.
이때, 제 1 식별부(110)는 현재 물체 이미지 데이터(D1)에 해당하는 현재 물체(P)의 위치 정보에서 현재 물체 이미지 데이터(D1)에 해당하는 영상 프레임을 갖는 영상 데이터중 제어부(106)의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 개별적으로 표시하여 현재 물체(P)의 위치 상태를 식별시키도록 제공될 수가 있다.
여기서, 제 1 식별부(110)는 도시하지는 않았지만, 운전자가 차량의 정보나 상태를 식별하기 위해 제공되는 스피커(미도시)와 발광 부재(미도시) 및 HMI(Human Machine Interface) 모듈(미도시)과 HUD(Head-UP Display) 모듈(미도시)중 적어도 하나를 포함하여 스피커(미도시)의 음성 동작과 발광 부재(미도시)의 발광 동작 및 HMI(Human Machine Interface) 모듈(미도시)의 HMI(Human Machine Interface) 메시지 표시 동작과 HUD(Head-UP Display) 모듈(미도시)의 HUD(Head-UP Display) 메시지 표시 동작중 적어도 하나의 동작을 통해 현재 물체(P)의 위치 상태를 식별시킬 수가 있다.
구동부(112)는 제 1 판단부(108)에서 현재 물체(P)의 위치 정보가 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 제어부(106)의 제어에 따라 해당 주차 공간(A)의 주차를 위한 조향 장치(30)를 구동시켜 해당 주차 공간(A)으로 주차시키도록 제공된다.
일예로, 구동부(112)는 제 1 판단부(108)에서 현재 물체(미도시)가 없는 것으로 판단하거나, 현재 물체(미도시)의 위치 정보가 기준 물체의 위치 정보 범위보다 멀리 떨어져 있는 것으로 판단할 경우, 제어부(106)의 제어에 따라 해당 주차 공간(A)의 주차를 위한 조향 장치(30)를 구동시켜 해당 주차 공간(A)으로 주차시키도록 제공될 수가 있다.
이러한, 본 발명의 제 1 실시예에 따른 주차 보조 장치(100)를 이용하여 주차를 보조하기 위한 주차 보조 방법을 살펴보면 다음 도 4와 같다.
도 4는 본 발명의 제 1 실시예에 따른 주차 보조 장치의 주차 보조 방법을 나타낸 순서도이다.
도 4를 참조하면, 본 발명의 제 1 실시예에 따른 주차 보조 장치(도1 및 도2의 100)의 주차 보조 방법(400)은 주차 공간 촬영 단계(S402)와 물체 감지 단계(S404) 및 제 1 판단 단계(S406)와 제 1 식별 단계(S407) 및 주차 동작 단계(S408)를 포함한다.
주차 공간 촬영 단계(S402)는 차량을 주차할 시에 주차 모드 동작 장치(10)로부터 주차 모드 동작 신호를 공급받아 AVM(Around View Monitor) 카메라를 이용하여 차량의 현재 주변 영역의 주차 공간(도3a 내지 도3d의 A)을 주차 공간 촬영부(도2의 102)에서 촬영하는 단계를 수행한다.
이 후, 물체 감지 단계(S404)는 주차 공간 촬영부(도2의 102)에서 촬영한 차량의 현재 주변 영역의 주차 공간(도3a의 A)에 해당하는 현재 주차 공간 이미지 데이터를 공급받아 현재 물체 이미지 데이터(도3b의 D1)를 감지하되, 왜곡된 현재 물체 이미지 데이터(도3b 및 도3c의 D1)를 탑-뷰(Top-view) 영상으로 변환하여 조감도를 생성하고, 신경망(neural network)으로 현재 물체 이미지 데이터(도3b 및 도3c의 D1) 또는 지면 이미지 데이터(도3b의 D2)인지를 판단하여 흑백 이미지 데이터로 전환하며, 전환된 흑백 이미지 데이터에서 현재 물체 이미지 데이터(도3d의 D1)의 가장자리 부분을 기준으로 거리 정보와 각도 정보중 적어도 하나를 추출하여 유전 알고리즘(Genetic Algorithm)를 통해 현재 물체 이미지 데이터(도3d의 D1)에 해당하는 현재 물체(도3d의 P)의 위치 정보를 물체 감지부(도2의 104)에서 감지하는 단계를 수행한다.
이 후, 제 1 판단 단계(S406)는 물체 감지부(도2의 104)에서 감지한 현재 물체(도3d의 P)의 위치 정보가 제어부(도2의 106)에 설정된 기준 물체의 위치 정보 범위인지를 제어부(도2의 106)의 제어에 따라 제 1 판단부(도2의 108)에서 판단하는 단계를 수행한다.
이 후, 제 1 식별 단계(S407)는 제 1 판단부(도2의 108)에서 현재 물체(도3d의 P)의 위치 정보가 기준 물체의 위치 정보 범위인 것으로 판단할 경우, 현재 물체(도3d의 P)의 위치 상태를 제 1 식별부(도2의 110)에서 식별시키는 단계를 수행한다.
이때, 제 1 식별 단계(S407)는 현재 물체 이미지 데이터(도3d의 D1)에 해당하는 현재 물체(도3d의 P)의 위치 정보에서 현재 물체 이미지 데이터(도3d의 D1)에 해당하는 영상 프레임을 갖는 영상 데이터중 제어부(도2의 106)의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 제 1 식별부(도2의 110)에서 개별적으로 표시하여 현재 물체(도3d의 P)의 위치 상태를 식별시키는 단계일 수가 있다.
마지막으로, 주차 동작 단계(S408)는 제 1 판단부(도2의 108)에서 현재 물체(미도시)의 위치 정보가 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 제어부(도2의 106)의 제어에 따라 구동부(도2의 112)에서 해당 주차 공간(도3d의 A)의 주차를 위한 조향 장치(도1 및 도2의 30)를 구동시켜 해당 주차 공간(도3d의 A)으로 주차시키는 단계를 수행한다.
이와 같은, 본 발명의 제 1 실시예에 따른 주차 보조 장치(100) 및 그 주차 보조 방법(400)은 주차 공간 촬영부(102)와 물체 감지부(104) 및 제어부(106)와 제 1 판단부(108) 및 제 1 식별부(110)와 구동부(112)를 포함하여 주차 공간 촬영 단계(S402)와 물체 감지 단계(S404) 및 제 1 판단 단계(S406)와 제 1 식별 단계(S407) 및 주차 동작 단계(S408)를 수행한다.
따라서, 본 발명의 제 1 실시예에 따른 주차 보조 장치(100) 및 그 주차 보조 방법(400)은 현재 물체(도3a 내지 도3d의 P)가 존재할 경우 현재 물체(도3a 내지 도3d의 P)의 위치 상태를 식별시켜 주차의 불가능한 상태를 식별시키면서, 현재 물체(미도시)가 없을 경우 해당 주차 공간(도3d의 A)으로 주차시킬 수가 있으므로, 주차의 신뢰성을 향상시킬 수가 있게 된다.
또한, 본 발명의 제 1 실시예에 따른 주차 보조 장치(100) 및 그 주차 보조 방법(400)은 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 개별적으로 표시하여 현재 물체(도3a 내지 도3d의 P)의 위치 상태를 식별시킬 수가 있으므로, 현재 물체(도3a 내지 도3d의 P)의 위치 상태를 빠르게 확인할 수가 있어 해당 주차 공간(도3d의 A)으로 더욱 빠르게 주차시킬 수가 있게 된다.
<제 2 실시예>
도 5는 본 발명의 제 2 실시예에 따른 주차 보조 장치를 일예로 나타낸 블럭 구성도이다.
도 5를 참조하면, 본 발명의 제 2 실시예에 따른 주차 보조 장치(500)는 제 1 실시예에 따른 주차 보조 장치(100)와 동일하게 주차 공간 촬영부(102)와 물체 감지부(104) 및 제어부(106)와 제 1 판단부(108) 및 제 1 식별부(110)와 구동부(112)를 포함한다.
이러한, 본 발명의 제 2 실시예에 따른 주차 보조 장치(500)에 해당하는 각각의 구성요소들에 대한 기능 및 그것들 간의 유기적인 연결 관계는 제 1 실시예에 따른 주차 보조 장치(100)에 해당하는 각각의 구성요소들에 대한 기능 및 그것들 간의 유기적인 연결 관계와 동일하므로, 이것에 대한 각각의 부연 설명들은 이하 생략하기로 한다.
여기에, 본 발명의 제 2 실시예에 따른 주차 보조 장치(500)는 제 2 판단부(514)와 제 2 식별부(516)를 더 포함한다.
이때, 제어부(506)는 기준 주차 공간 이미지 데이터 범위를 더 포함한다.
즉, 제 2 판단부(514)는 제 1 판단부(108)에서 현재 물체(도3d의 P)의 위치 정보가 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 차량의 현재 주변 영역의 주차 공간(도3d의 A)에 해당하는 현재 주차 공간 이미지 데이터가 기준 주차 공간 이미지 데이터 범위인지를 제어부(506)의 제어에 따라 판단하도록 제공된다.
이때, 제 2 판단부(514)는 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간 이미지 패턴이 기준 주차 공간 이미지 데이터 범위에 해당하는 기준 주차 공간 이미지 패턴 범위인지를 제어부(506)의 제어에 따라 판단하도록 제공될 수가 있다.
여기서, 제 2 판단부(514)는 도시하지는 않았지만, 차량에 적용되는 메인 컴퓨터로 전체적인 동작을 판단하거나, 엔진의 내부적인 동작을 판단하는 통상적인 ECU(Electric Control Unit, Engine Control Unit, 미도시) 또는 단일 칩 내부에 프로세서와 메모리 및 입출력 장치를 갖춰 전체적인 동작을 판단하는 통상적인 MCU(Micro Control Unit, 미도시)를 포함하여 제공될 수가 있으며, 이에 한정하지 않고 차량의 전체적인 동작을 판단할 수 있는 모든 판단 수단이면 가능하다.
또한, 제 2 식별부(516)는 제 2 판단부(514)에서 현재 주차 공간 이미지 데이터가 기준 주차 공간 이미지 데이터 범위인 것으로 판단할 경우, 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간(도3d의 A)의 상황을 식별시키도록 제공된다.
이때, 제 2 식별부(516)는 현재 주차 공간 이미지 데이터에 해당하는 영상 프레임을 갖는 영상 데이터중 제어부(도5의 506)의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 개별적으로 표시하여 현재 주차 공간(도3d의 A)의 상황을 식별시키도록 제공될 수가 있다.
여기서, 제 2 식별부(516)는 도시하지는 않았지만, 운전자가 차량의 정보나 상태를 식별하기 위해 제공되는 스피커(미도시)와 발광 부재(미도시) 및 HMI(Human Machine Interface) 모듈(미도시)과 HUD(Head-UP Display) 모듈(미도시)중 적어도 하나를 포함하여 스피커(미도시)의 음성 동작과 발광 부재(미도시)의 발광 동작 및 HMI(Human Machine Interface) 모듈(미도시)의 HMI(Human Machine Interface) 메시지 표시 동작과 HUD(Head-UP Display) 모듈(미도시)의 HUD(Head-UP Display) 메시지 표시 동작중 적어도 하나의 동작을 통해 현재 주차 공간(도3d의 A)의 상황을 식별시킬 수가 있다.
이러한, 본 발명의 제 2 실시예에 따른 주차 보조 장치(500)를 이용하여 주차를 보조하기 위한 주차 보조 방법을 살펴보면 다음 도 6 및 도 7과 같다.
도 6은 본 발명의 제 2 실시예에 따른 주차 보조 장치의 주차 보조 방법을 나타낸 순서도이고, 도 7은 본 발명의 제 2 실시예에 따른 주차 보조 장치의 주차 보조 방법을 일예로 나타낸 순서도이다.
도 6 및 도 7를 참조하면, 본 발명의 제 2 실시예에 따른 주차 보조 장치(500)의 주차 보조 방법(600, 700)은 제 1 실시예에 따른 주차 보조 장치(100)의 주차 보조 방법(400)과 동일하게 주차 공간 촬영 단계(S402)와 물체 감지 단계(S404) 및 제 1 판단 단계(S406)와 제 1 식별 단계(S407) 및 주차 동작 단계(S408)를 포함한다.
이러한, 본 발명의 제 2 실시예에 따른 주차 보조 장치(500)의 주차 보조 방법(600, 700)에 해당하는 각각의 단계들에 대한 기능 및 그것들 간의 유기적인 연결 관계는 제 1 실시예에 따른 주차 보조 장치(100)의 주차 보조 방법(400)에 해당하는 각각의 단계들에 대한 기능 및 그것들 간의 유기적인 연결 관계와 동일하므로, 이것에 대한 각각의 부연 설명들은 이하 생략하기로 한다.
여기에, 본 발명의 제 2 실시예에 따른 주차 보조 장치(500)의 주차 보조 방법(600, 700)은 제 1 판단 단계(S406) 이후에, 제 2 판단 단계(S606, S706)와 제 2 식별 단계(S607)를 더 수행한다.
일예로, 본 발명의 제 2 실시예에 따른 주차 보조 장치(500)의 주차 보조 방법(600, 700)은 제 1 판단 단계(S406) 이후에, 제 2 판단 단계(S606, S706)와 제 2 식별 단계(S607)를 더 수행할 수가 있다.
즉, 제 2 판단 단계(S606)는 제 1 판단부(108)에서 현재 물체(미도시)의 위치 정보가 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 차량의 현재 주변 영역의 주차 공간(도3d의 A)에 해당하는 현재 주차 공간 이미지 데이터가 제어부(도5의 506)에 설정된 기준 주차 공간 이미지 데이터 범위인지를 제어부(도5의 506)의 제어에 따라 제 2 판단부(도5의 514)에서 판단하는 단계를 수행한다.
이때, 도 7에 도시된 바와 같이 제 2 판단 단계(S706)는 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간 이미지 패턴이 기준 주차 공간 이미지 데이터 범위에 해당하는 기준 주차 공간 이미지 패턴 범위인지를 제어부(도5의 506)의 제어에 따라 제 2 판단부(도5의 514)에서 판단하는 단계를 수행할 수가 있다.
이 후, 제 2 식별 단계(S607)는 제 2 판단부(도5의 514)에서 현재 주차 공간 이미지 데이터가 기준 주차 공간 이미지 데이터 범위인 것으로 판단할 경우, 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간(도3d의 A)의 상황을 제 2 식별부(도5의 516)에서 식별시키는 단계를 수행한다.
이때, 제 2 식별 단계(S607)는 현재 주차 공간 이미지 데이터에 해당하는 영상 프레임을 갖는 영상 데이터중 제어부(도5의 506)의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 제 2 식별부(도5의 516)에서 개별적으로 표시하여 현재 주차 공간(도3d의 A)의 상황을 식별시키는 단계일 수가 있다.
이와 같은, 본 발명의 제 2 실시예에 따른 주차 보조 장치(500) 및 그 주차 보조 방법(600, 700)은 주차 공간 촬영부(102)와 물체 감지부(104) 및 제어부(106)와 제 1 판단부(108) 및 제 1 식별부(110)와 구동부(112) 및 제 2 판단부(514)와 제 2 식별부(516)를 포함하여 주차 공간 촬영 단계(S402)와 물체 감지 단계(S404) 및 제 1 판단 단계(S406)와 제 1 식별 단계(S407) 및 제 2 판단 단계(S606, S706)와 제 2 식별 단계(S607) 및 주차 동작 단계(S408)를 수행한다.
따라서, 본 발명의 제 2 실시예에 따른 주차 보조 장치(500) 및 그 주차 보조 방법(600, 700)은 현재 물체(도3a 내지 도3d의 P)가 존재할 경우 현재 물체(도3a 내지 도3d의 P)의 위치 상태를 식별시켜 주차의 불가능한 상태를 식별시키면서, 현재 물체(미도시)가 없을 경우 현재 주차 공간(도3d의 A)의 주차 가능한 상황을 식별시켜 해당 주차 공간(도3d의 A)으로 주차시킬 수가 있으므로, 주차의 신뢰성을 향상시키면서 주차의 편리함을 제공할 수가 있게 된다.
또한, 본 발명의 제 2 실시예에 따른 주차 보조 장치(500) 및 그 주차 보조 방법(600, 700)은 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 개별적으로 표시하여 현재 물체(도3a 내지 도3d의 P)의 위치 상태를 식별시킬 수가 있으므로, 현재 물체(도3a 내지 도3d의 P)의 위치 상태를 빠르게 확인할 수가 있어 해당 주차 공간(도3d의 A)으로 더욱 빠르게 주차시킬 수가 있게 된다.
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Claims (12)
- 차량을 주차할 시에 주차 모드 동작 장치로부터 주차 모드 동작 신호를 공급받아 AVM(Around View Monitor) 카메라를 이용하여 상기 차량의 현재 주변 영역의 주차 공간을 촬영하는 주차 공간 촬영부와;
상기 주차 공간 촬영부에서 촬영한 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터를 공급받아 현재 물체 이미지 데이터를 감지하되, 신경망(neural network)과 유전 알고리즘(Genetic Algorithm)를 통해 상기 현재 물체 이미지 데이터의 가장자리 부분을 기준으로 거리 정보와 각도 정보중 적어도 하나를 추출하여 상기 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보를 감지하는 물체 감지부와;
상기 물체 감지부에서 감지한 상기 현재 물체의 위치 정보를 공급받고, 이미 설정된 기준 물체의 위치 정보 범위를 포함하는 제어부와;
상기 물체 감지부에서 감지한 상기 현재 물체의 위치 정보가 상기 기준 물체의 위치 정보 범위인지를 상기 제어부의 제어에 따라 판단하는 제 1 판단부와;
상기 제 1 판단부에서 상기 현재 물체의 위치 정보가 상기 기준 물체의 위치 정보 범위인 것으로 판단할 경우, 상기 현재 물체의 위치 상태를 식별시키는 제 1 식별부; 및
상기 제 1 판단부에서 상기 현재 물체의 위치 정보가 상기 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 상기 제어부의 제어에 따라 해당 주차 공간의 주차를 위한 조향 장치를 구동시켜 상기 해당 주차 공간으로 주차시키는 구동부를 포함하는 주차 보조 장치.
- 제 1항에 있어서,
상기 물체 감지부는,
상기 주차 공간 촬영부에서 촬영한 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터를 공급받아 현재 물체 이미지 데이터를 감지하되, 왜곡된 현재 물체 이미지 데이터를 탑-뷰(Top-view) 영상으로 변환하여 조감도를 생성하고, 상기 신경망(neural network)으로 상기 현재 물체 이미지 데이터 또는 지면 이미지 데이터인지를 판단하여 흑백 이미지 데이터로 전환하며, 전환된 흑백 이미지 데이터에서 상기 현재 물체 이미지 데이터의 가장자리 부분을 기준으로 거리 정보와 각도 정보중 적어도 하나를 추출하여 상기 유전 알고리즘(Genetic Algorithm)를 통해 상기 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보를 감지하는 것을 특징으로 하는 주차 보조 장치.
- 제 1항에 있어서,
상기 제 1 식별부는,
상기 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보에서 상기 현재 물체 이미지 데이터에 해당하는 영상 프레임을 갖는 영상 데이터중 상기 제어부의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 개별적으로 표시하여 상기 현재 물체의 위치 상태를 식별시키는 것을 특징으로 하는 주차 보조 장치.
- 제 1항에 있어서,
상기 제어부는 기준 주차 공간 이미지 데이터 범위를 더 포함하고;
상기 제 1 판단부에서 상기 현재 물체의 위치 정보가 상기 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 상기 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터가 상기 기준 주차 공간 이미지 데이터 범위인지를 상기 제어부의 제어에 따라 판단하는 제 2 판단부를 더 포함하며;
상기 제 2 판단부에서 상기 현재 주차 공간 이미지 데이터가 상기 기준 주차 공간 이미지 데이터 범위인 것으로 판단할 경우, 상기 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간의 상황을 식별시키는 제 2 식별부를 더 포함하는 주차 보조 장치.
- 제 4항에 있어서,
상기 제 2 판단부는,
상기 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간 이미지 패턴이 상기 기준 주차 공간 이미지 데이터 범위에 해당하는 기준 주차 공간 이미지 패턴 범위인지를 상기 제어부의 제어에 따라 판단하는 것을 특징으로 하는 주차 보조 장치.
- 제 4항에 있어서,
상기 제 2 식별부는,
상기 현재 주차 공간 이미지 데이터에 해당하는 영상 프레임을 갖는 영상 데이터중 상기 제어부의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 개별적으로 표시하여 상기 현재 주차 공간의 상황을 식별시키는 것을 특징으로 하는 주차 보조 장치.
- 차량을 주차할 시에 주차 모드 동작 장치로부터 주차 모드 동작 신호를 공급받아 AVM(Around View Monitor) 카메라를 이용하여 차량의 현재 주변 영역의 주차 공간을 주차 공간 촬영부에서 촬영하는 주차 공간 촬영 단계와;
상기 주차 공간 촬영부에서 촬영한 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터를 공급받아 현재 물체 이미지 데이터를 감지하되, 신경망(neural network)과 유전 알고리즘(Genetic Algorithm)를 통해 상기 현재 물체 이미지 데이터의 가장자리 부분을 기준으로 거리 정보와 각도 정보중 적어도 하나를 추출하여 상기 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보를 물체 감지부에서 감지하는 물체 감지 단계와;
상기 물체 감지부에서 감지한 상기 현재 물체의 위치 정보가 제어부에 설정된 기준 물체의 위치 정보 범위인지를 상기 제어부의 제어에 따라 제 1 판단부에서 판단하는 제 1 판단 단계와;
상기 제 1 판단부에서 상기 현재 물체의 위치 정보가 상기 기준 물체의 위치 정보 범위인 것으로 판단할 경우, 상기 현재 물체의 위치 상태를 제 1 식별부에서 식별시키는 제 1 식별 단계; 및
상기 제 1 판단부에서 상기 현재 물체의 위치 정보가 상기 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 상기 제어부의 제어에 따라 구동부에서 해당 주차 공간의 주차를 위한 조향 장치를 구동시켜 상기 해당 주차 공간으로 주차시키는 주차 동작 단계를 포함하는 주차 보조 방법.
- 제 7항에 있어서,
상기 물체 감지 단계는,
상기 주차 공간 촬영부에서 촬영한 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터를 공급받아 현재 물체 이미지 데이터를 감지하되, 왜곡된 현재 물체 이미지 데이터를 탑-뷰(Top-view) 영상으로 변환하여 조감도를 생성하고, 상기 신경망(neural network)으로 상기 현재 물체 이미지 데이터 또는 지면 이미지 데이터인지를 판단하여 흑백 이미지 데이터로 전환하며, 전환된 흑백 이미지 데이터에서 상기 현재 물체 이미지 데이터의 가장자리 부분을 기준으로 거리 정보와 각도 정보중 적어도 하나를 추출하여 상기 유전 알고리즘(Genetic Algorithm)를 통해 상기 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보를 물체 감지부에서 감지하는 단계인 것을 특징으로 하는 주차 보조 방법.
- 제 7항에 있어서,
상기 제 1 식별 단계는,
상기 현재 물체 이미지 데이터에 해당하는 현재 물체의 위치 정보에서 상기 현재 물체 이미지 데이터에 해당하는 영상 프레임을 갖는 영상 데이터중 상기 제어부의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 상기 제 1 식별부에서 개별적으로 표시하여 상기 현재 물체의 위치 상태를 식별시키는 단계인 것을 특징으로 하는 주차 보조 방법.
- 제 7항에 있어서,
상기 제 1 판단 단계 이후에,
상기 제 1 판단부에서 상기 현재 물체의 위치 정보가 상기 기준 물체의 위치 정보 범위를 벗어나는 것으로 판단할 경우, 상기 차량의 현재 주변 영역의 주차 공간에 해당하는 현재 주차 공간 이미지 데이터가 상기 제어부에 설정된 기준 주차 공간 이미지 데이터 범위인지를 상기 제어부의 제어에 따라 제 2 판단부에서 판단하는 제 2 판단 단계를 더 수행하고;
상기 제 2 판단부에서 상기 현재 주차 공간 이미지 데이터가 상기 기준 주차 공간 이미지 데이터 범위인 것으로 판단할 경우, 상기 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간의 상황을 제 2 식별부에서 식별시키는 제 2 식별 단계를 더 수행하는 주차 보조 방법.
- 제 10항에 있어서,
상기 제 2 판단 단계는,
상기 현재 주차 공간 이미지 데이터에 해당하는 현재 주차 공간 이미지 패턴이 상기 기준 주차 공간 이미지 데이터 범위에 해당하는 기준 주차 공간 이미지 패턴 범위인지를 상기 제어부의 제어에 따라 상기 제 2 판단부에서 판단하는 단계인 것을 특징으로 하는 주차 보조 방법.
- 제 10항에 있어서,
상기 제 2 식별 단계는,
상기 현재 주차 공간 이미지 데이터에 해당하는 영상 프레임을 갖는 영상 데이터중 상기 제어부의 제어에 따라 일정 시간 동안의 영상별 프레임을 갖는 영상 데이터를 상기 제 2 식별부에서 개별적으로 표시하여 상기 현재 주차 공간의 상황을 식별시키는 단계인 것을 특징으로 하는 주차 보조 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130007264A KR101715014B1 (ko) | 2013-01-23 | 2013-01-23 | 주차 보조 장치 및 그 주차 보조 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130007264A KR101715014B1 (ko) | 2013-01-23 | 2013-01-23 | 주차 보조 장치 및 그 주차 보조 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140094794A KR20140094794A (ko) | 2014-07-31 |
KR101715014B1 true KR101715014B1 (ko) | 2017-03-10 |
Family
ID=51740309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130007264A KR101715014B1 (ko) | 2013-01-23 | 2013-01-23 | 주차 보조 장치 및 그 주차 보조 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101715014B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11783597B2 (en) | 2020-12-30 | 2023-10-10 | Continental Autonomous Mobility US, LLC | Image semantic segmentation for parking space detection |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105129295B (zh) * | 2015-09-24 | 2018-01-09 | 长沙中联重科环境产业有限公司 | 倒车控制方法、装置、系统及垃圾转运车 |
US10800455B2 (en) * | 2015-12-17 | 2020-10-13 | Ford Global Technologies, Llc | Vehicle turn signal detection |
US20170197615A1 (en) * | 2016-01-11 | 2017-07-13 | Ford Global Technologies, Llc | System and method for reverse perpendicular parking a vehicle |
US10124730B2 (en) | 2016-03-17 | 2018-11-13 | Ford Global Technologies, Llc | Vehicle lane boundary position |
US10304335B2 (en) * | 2016-04-12 | 2019-05-28 | Ford Global Technologies, Llc | Detecting available parking spaces |
CN106446811A (zh) * | 2016-09-12 | 2017-02-22 | 北京智芯原动科技有限公司 | 基于深度学习的驾驶员疲劳检测方法及装置 |
DE102018206619A1 (de) * | 2018-04-27 | 2019-10-31 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Fahrmanöverassistenz eines Fahrzeuges, Vorrichtung, Computerprogramm und Computerprogrammprodukt |
CN109726637A (zh) * | 2018-12-03 | 2019-05-07 | 初速度(苏州)科技有限公司 | 用弹性多边形表示停车位区域的停车位检测系统及方法 |
CN109800658B (zh) * | 2018-12-26 | 2023-05-26 | 中汽研(天津)汽车工程研究院有限公司 | 基于神经网络的泊车位类型在线识别与定位系统及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4765213B2 (ja) | 2001-07-19 | 2011-09-07 | 日産自動車株式会社 | 車両用駐車支援装置 |
JP5459536B2 (ja) | 2009-09-15 | 2014-04-02 | アイシン精機株式会社 | 駐車スペース案内システム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101251729B1 (ko) * | 2009-02-25 | 2013-04-05 | 주식회사 만도 | 주차 제어 방법 및 그 장치 |
-
2013
- 2013-01-23 KR KR1020130007264A patent/KR101715014B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4765213B2 (ja) | 2001-07-19 | 2011-09-07 | 日産自動車株式会社 | 車両用駐車支援装置 |
JP5459536B2 (ja) | 2009-09-15 | 2014-04-02 | アイシン精機株式会社 | 駐車スペース案内システム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11783597B2 (en) | 2020-12-30 | 2023-10-10 | Continental Autonomous Mobility US, LLC | Image semantic segmentation for parking space detection |
Also Published As
Publication number | Publication date |
---|---|
KR20140094794A (ko) | 2014-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101715014B1 (ko) | 주차 보조 장치 및 그 주차 보조 방법 | |
JP6937443B2 (ja) | 撮像装置及び撮像装置の制御方法 | |
US11688162B2 (en) | Drive assist device | |
US8330816B2 (en) | Image processing device | |
JP4412380B2 (ja) | 運転支援装置、運転支援方法及びコンピュータプログラム | |
EP3579143B1 (en) | Information processing device, approaching object notification method, and program | |
WO2017066956A1 (zh) | 车载监控方法及装置 | |
EP3286056B1 (en) | System and method for a full lane change aid system with augmented reality technology | |
TWI506601B (zh) | 車輛監控系統和車輛監控方法 | |
KR20060021922A (ko) | 두 개의 카메라를 이용한 장애물 감지 기술 및 장치 | |
KR101601500B1 (ko) | 스마트폰을 이용한 차량 운전 지원 시스템 및 방법 | |
JP5136315B2 (ja) | 運転支援装置 | |
KR101585442B1 (ko) | 주차 보조 장치 및 그 주차 보조 방법 | |
JP2011191859A (ja) | 車両の周辺監視装置 | |
KR101823385B1 (ko) | 사이드 카메라를 이용한 차선 이탈 경보 시스템의 인식률 향상 장치 및 방법 | |
CN104097572A (zh) | 行车辅助装置及其方法 | |
KR101577660B1 (ko) | 주차 보조 장치 및 그 주차 보조 방법 | |
JP2009020647A (ja) | 立体物検出方法および立体物検出装置 | |
JP5157845B2 (ja) | 視認支援装置 | |
JP2019099024A (ja) | 駐車支援装置 | |
KR20140092025A (ko) | 차선 보조 장치 및 그 보조 방법 | |
JP2009110065A (ja) | 運転支援装置 | |
KR101391606B1 (ko) | 차량 제어 장치 및 그 차량 제어 방법 | |
KR101337230B1 (ko) | 주차 보조 장치 및 그 주차 보조 방법 | |
US20230306707A1 (en) | Around view monitoring system and the method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20191219 Year of fee payment: 4 |