KR20180106336A - Camera apparatus, collision prevention apparatus using the same and method of preventing collision - Google Patents
Camera apparatus, collision prevention apparatus using the same and method of preventing collision Download PDFInfo
- Publication number
- KR20180106336A KR20180106336A KR1020170034498A KR20170034498A KR20180106336A KR 20180106336 A KR20180106336 A KR 20180106336A KR 1020170034498 A KR1020170034498 A KR 1020170034498A KR 20170034498 A KR20170034498 A KR 20170034498A KR 20180106336 A KR20180106336 A KR 20180106336A
- Authority
- KR
- South Korea
- Prior art keywords
- control signal
- vehicle
- image
- signal
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 26
- 230000002265 prevention Effects 0.000 title description 2
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 9
- 230000009471 action Effects 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 20
- 238000004891 communication Methods 0.000 description 31
- 238000012544 monitoring process Methods 0.000 description 14
- 230000000875 corresponding effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 239000000725 suspension Substances 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000002803 fossil fuel Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H04N5/2257—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/42—Image sensing, e.g. optical camera
Abstract
Description
실시예는 카메라장치에 관한 것이다.An embodiment relates to a camera apparatus.
실시예는 카메라장치를 이용한 충돌방지장치에 관한 것이다.The embodiment relates to an anti-collision apparatus using a camera apparatus.
실시예는 카메라장치를 이용한 충돌방지방법에 관한 것이다.The embodiments relate to a collision avoidance method using a camera apparatus.
차량은 사람 또는 화물을 운송할 목적으로 차륜을 구동시켜 주행하는 모든 장치이다. 차량의 일반적인 예로 자동차를 들 수 있다.A vehicle is any device that drives a wheel for the purpose of transporting people or cargo. A typical example of a vehicle is a car.
자동차는 사용되는 원동기의 종류에 따라, 내연기관(internal combustion engine) 자동차, 외연기관(external combustion engine) 자동차, 가스터빈(gas turbine) 자동차 또는 전기자동차(electric vehicle) 등으로 분류될 수 있다. An automobile can be classified into an internal combustion engine automobile, an external combustion engine automobile, a gas turbine automobile or an electric vehicle depending on the type of prime mover used.
전기자동차는 전기를 에너지원으로 사용하여 전기 모터를 구동시키는 자동차로서, 다시 순수 전기자동차, 하이브리드 전기차(Hybrid Electric Vehicle: HEV), 플러그인 하이브리드 전기차(Plug-in Hybrid Electric Vehicle: PHEV), 수소연료전지차(Fuel Cell Electric Vehicle: FCEV) 등으로 분류될 수 있다.An electric vehicle is an automobile that uses electric power as an energy source to drive an electric motor. The hybrid electric vehicle, a hybrid electric vehicle (HEV), a plug-in hybrid electric vehicle (PHEV) (Fuel Cell Electric Vehicle: FCEV).
최근 운전자와 보행자의 안전이나 편의를 위해 지능형 자동차(Smart Vehicle)의 개발 및 상용화가 활발히 진행되고 있다. 지능형 자동차는 정보통신기술(Information Technology: IT)을 융합한 최첨단 자동차로, 자동차 자체의 첨단 시스템 도입은 물론 지능형 교통 시스템과의 연동을 통해 최적의 교통 효율을 제공한다. 구체적으로, 지능형 자동차는, 자동 주행 기능, 적응식 정속주행 제어(Adaptive Cruise Control: ACC), 장애물 감지, 충돌 감지, 정밀한 지도 제공, 목적지까지의 경로 설정 및 주요 장소에 대한 위치 제공 등을 수행함으로써, 운전자와 탑승자 및 보행자의 안전과 편의를 극대화한다.In recent years, the development and commercialization of an intelligent vehicle (Smart Vehicle) has been actively conducted for the safety and convenience of drivers and pedestrians. Intelligent automobile is a cutting-edge automobile that integrates information technology (IT). It provides optimal transportation efficiency through interworking with intelligent transportation system as well as introduction of advanced system of automobile itself. Specifically, the intelligent vehicle performs automatic cruise control, adaptive cruise control (ACC), obstacle detection, collision detection, precise guidance, route to destination, and location of key locations , Maximizing the safety and comfort of the driver, passengers and pedestrians.
종래에 충돌 감지를 위해 사용되는 카메라 장치는 단순히 영상을 획득하여 전송하는 기능밖에 하지 못하고, 해당 영상을 분석하는 기능은 별도의 장치에 구비된다. 이에 따라, 영상을 분석하는 기능을 수행하는 별도의 장치가 구비되어야 하므로, 별도의 장치가 장착될 공간이 필요하게 되는 문제가 있다. 또한, 카메라 장치에서 획득된 영상을 분석을 위한 장치로 보내 해당 장치에서 분석되게 되어, 영상 처리에 시간이 걸리고 영상의 전송에 따른 전력 손실이 발생되는 문제가 있다.Conventionally, a camera device used for collision detection merely has a function of acquiring and transmitting an image, and a function of analyzing the image is provided in a separate device. Accordingly, a separate apparatus for performing a function of analyzing an image must be provided, thus requiring a space for mounting a separate apparatus. In addition, the image obtained from the camera device is sent to a device for analysis, and the image is analyzed in the device. Thus, there is a problem in that it takes time to process the image and power loss occurs due to transmission of the image.
실시예는 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.The embodiments are directed to solving the above problems and other problems.
실시예의 다른 목적은 영상의 획득과 처리가 가능하여 영상처리시간을 줄이고 영상처리를 위한 별도의 장치가 필요 없는 카메라장치, 이를 이용한 충돌방지장치 및 충돌방지방법을 제공한다.Another object of the present invention is to provide a camera device capable of acquiring and processing an image, reducing image processing time and not requiring a separate device for image processing, a collision avoiding device using the same, and a collision avoiding method.
실시예의 또 다른 목적은 영상처리방법을 획기적으로 개선하여 객체검출의 신뢰성을 향상시킬 수 있는 카메라장치, 이를 이용한 충돌방지장치 및 충돌방지방법을 제공한다.Another object of the present invention is to provide a camera device, a collision avoidance device, and a collision prevention method using the same, which can improve the reliability of object detection by improving the image processing method remarkably.
상기 또는 다른 목적을 달성하기 위해 실시예의 일 측면에 따르면, 카메라장치는 차량의 특정 방향의 영상을 촬영하는 센서와, 상기 촬영된 영상을 바탕으로 제1 영상신호를 획득하고, 상기 획득된 제1 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성하는 카메라제어부를 포함한다. According to an aspect of the embodiment, a camera apparatus includes a sensor for capturing an image in a specific direction of a vehicle, a control unit for acquiring a first image signal based on the captured image, And a camera controller for generating a control signal based on distance information on an object in the video signal.
실시예의 다른 측면에 따르면, 충돌방지장치는 카메라장치와 제어장치를 포함한다. According to another aspect of the embodiment, the anti-collision device includes a camera device and a control device.
상기 카메라장치는 차량의 특정 방향으로 촬영된 영상을 바탕으로 제1 영상신호를 획득하고, 시점의 변환을 이용하여 상기 획득된 제1 영상신호를 위에서 바닥을 향해 수직으로 보여지는 제2 영상신호로 변환하며, 상기 변환된 제2 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성한다. 상기 제어장치는 상기 제어신호에 대응하는 조치를 취하도록 관련장치를 제어한다. The camera device acquires a first image signal based on an image photographed in a specific direction of the vehicle and converts the obtained first image signal into a second image signal vertically viewed from the top to the bottom And generates a control signal based on the distance information of the object in the converted second video signal. The control device controls the associated device to take an action corresponding to the control signal.
실시예의 또 다른 측면에 따르면, 충돌방지방법은 카메라장치에서 차량의 특정 방향으로 촬영된 영상을 바탕으로 제1 영상신호를 획득하고, 상기 카메라장치에서 시점의 변환을 이용하여 상기 획득된 제1 영상신호를 위에서 바닥을 향해 수직으로 보여지는 제2 영상신호로 변환하고, 상기 카메라장치에서, 상기 변환된 제2 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성하며, 상기 제어장치에서, 상기 제어신호에 대응하는 조치를 취하도록 관련장치를 제어한다.According to another aspect of the present invention, a collision avoidance method includes acquiring a first image signal based on an image captured in a specific direction of a vehicle from a camera device, and acquiring the acquired first image Converts the signal into a second video signal that is viewed vertically from the top to the bottom and generates a control signal in the camera apparatus based on distance information on the object in the converted second video signal, And controls the associated device to take an action corresponding to the control signal.
위 실시예에서, 상기 제어신호는 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상을 포함할 수 있다. In the above embodiment, the control signal may include at least one of a beep output control signal, a deceleration control signal, and a stop control signal.
실시예에 따른 카메라장치, 이를 이용한 충돌방지장치 및 충돌방지방법의 효과에 대해 설명하면 다음과 같다.Effects of the camera device, the collision avoiding device and the collision avoiding method using the camera according to the embodiment will be described as follows.
실시예들 중 적어도 하나에 의하면, 카메라장치에 센서와 차량의 제어에 사용되는 제어신호를 생성하기 위한 카메라제어부가 모두 포함되어, 별도의 카메라제어부를 구비할 필요가 없어 공간 마진이 확보되고 차량의 내부 구조가 단순해지며 또한 센서에서 감지된 영상을 처리하기 위해 별도로 구비되는 카메라제어부까지 보낼 필요가 없어 신호의 왜곡이나 전력 손실을 방지할 수 있다 있다는 장점이 있다.According to at least one of the embodiments, the camera device includes both a sensor and a camera control unit for generating a control signal used for controlling the vehicle, so that it is not necessary to provide a separate camera control unit, The internal structure is simplified and there is no need to send a separately provided camera control unit for processing the image sensed by the sensor, thereby preventing signal distortion and power loss.
실시예들 중 적어도 하나에 의하면, 시점 변환을 이용한 영상변환을 통해 객체를 검출할 수 있어, 객체 검출 오류를 획기적으로 줄일 수 있다는 장점이 있다.According to at least one of the embodiments, the object can be detected through the image conversion using the viewpoint conversion, and the object detection error can be remarkably reduced.
실시예들 중 적어도 하나에 의하면, 시점 변환을 이용한 영상변환의 각 점에 설정되는 거리정보를 바탕으로 차량과의 충돌을 사전에 예측 및 방지할 수 있다는 장점이 있다.According to at least one of the embodiments, there is an advantage that the collision with the vehicle can be predicted and prevented based on the distance information set at each point of the image conversion using the viewpoint conversion.
실시예의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 실시예의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 바람직한 실시예와 같은 특정 실시예는 단지 예시로 주어진 것으로 이해되어야 한다. Additional ranges of applicability of the embodiments will be apparent from the following detailed description. It should be understood, however, that various changes and modifications within the spirit and scope of the embodiments will become apparent to those skilled in the art, and that specific embodiments, such as the detailed description and the preferred embodiments, are given by way of example only.
도 1은 실시예에 따른 차량의 시스템을 도시한 블록도이다.
도 2는 실시예에 따른 카메라장치가 장착된 차량의 외관을 도시한 도면이다.
도 3은 실시예에 따른 충돌방지장치를 도시한 블록도이다.
도 4는 도 3의 카메라제어부를 도시한 블록도이다.
도 5는 도 4의 영상처리부를 도시한 블록도이다.
도 6은 도 4의 영상처리부에 의해 객체가 검출되는 모습을 도시한 도면이다.1 is a block diagram showing a system of a vehicle according to an embodiment.
2 is a view showing an appearance of a vehicle equipped with a camera apparatus according to an embodiment.
3 is a block diagram showing an anti-collision apparatus according to an embodiment.
4 is a block diagram showing the camera controller of FIG.
5 is a block diagram showing the image processing unit of FIG.
FIG. 6 is a diagram illustrating a state in which an object is detected by the image processing unit of FIG. 4. FIG.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 실시예의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. The accompanying drawings are included to provide a further understanding of the invention and are incorporated in and constitute a part of this application, It is to be understood that the invention includes equivalents and alternatives.
도 1은 실시예에 따른 차량의 시스템을 도시한 블록도이다.1 is a block diagram showing a system of a vehicle according to an embodiment.
도 1을 참조하면, 차량(700)은 통신부(710), 입력부(720), 센싱부(760), 출력부(740), 차량 구동부(750), 메모리(730), 인터페이스부(780), ECU(770), 전원부(790), 어라운드뷰 제공장치(100) 및 AVN 장치(400)를 포함할 수 있다.1, a
통신부(710)는, 차량(700)과 이동 단말기(600) 사이, 차량(700)과 외부 서버(500) 사이 또는 차량(700)과 타 차량(510)과의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(710)는 차량(700)을 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The
통신부(710)는, 방송 수신 모듈(711), 무선 인터넷 모듈(712), 근거리 통신 모듈(713), 위치 정보 모듈(714) 및 광통신 모듈(715)을 포함할 수 있다.The
방송 수신 모듈(711)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 또는 방송 관련된 정보를 수신한다. 여기서, 방송은 라디오 방송 또는 TV 방송을 포함한다.The
무선 인터넷 모듈(712)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 차량(700)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(712)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The
무선 인터넷 기술로는, 예를 들면, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(712)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 예를 들면, 무선 인터넷 모듈(712)은 외부 서버(500)와 무선으로 데이터를 교환할 수 있다. 무선 인터넷 모듈(712)은 외부 서버(500)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))정보를 수신할 수 있다.Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA, WiBro World Wide Interoperability for Microwave Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), and Long Term Evolution-Advanced (LTE-A) (712) transmits and receives data according to at least one wireless Internet technology in a range including internet technologies not listed above. For example, the
근거리 통신 모듈(713)은, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. The short-
이러한, 근거리 통신 모듈(713)은, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신 모듈(713)은 이동 단말기(600) 와 무선으로 데이터를 교환할 수 있다. 근거리 통신 모듈(713)은 이동 단말기 (600)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 가령, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기(600)와 차량은 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.The short
위치 정보 모듈(714)은, 차량의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들어, 차량(700)은 GPS 모듈을 이용하여, GPS 위성에서 보내는 신호를 기초하여 차량(700)의 위치를 획득할 수 있다. The
광통신 모듈(715)은 광발신부와 광수신부를 포함할 수 있다. The
광수신부는 광(light)신호를 전기 신호로 전환하여, 정보를 수신할 수 있다. 광수신부는 광을 수신하기 위한 포토 다이오드(PD, Photo Diode)를 포함할 수 있다. 포토 다이오드는 빛을 전기 신호로 전환할 수 있다. 예를 들면, 광수신부는 전방 차량에 포함된 광원에서 방출되는 광을 통해, 전방 차량의 정보를 수신할 수 있다. The light receiving section can convert the light signal into an electric signal and receive the information. The light receiving unit may include a photodiode (PD) for receiving light. Photodiodes can convert light into electrical signals. For example, the light receiving section can receive information of the front vehicle through light emitted from the light source included in the front vehicle.
광발신부는 전기 신호를 광 신호로 전환하기 위한 발광 소자를 적어도 하나 이상 포함할 수 있다. 여기서, 발광 소자는 LED(Light Emitting Diode)인 것이 바람직하다. 광발신부는 전기 신호를 광 신호로 전환하여, 외부에 발신한다. 예를 들면, 광 발신부는 소정 주파수에 대응하는 발광소자의 점멸을 통해, 광신호를 외부에 방출할 수 있다. 실시 예에 따라, 광발신부는 복수의 발광 소자 어레이를 포함할 수 있다. 실시 예에 따라, 광발신부는 차량에 구비된 램프와 일체화될 수 있다. 예를 들어, 광발신부는 전조등, 후미등, 제동등, 방향 지시등 및 차폭등 중 적어도 어느 하나일 수 있다. The light emitting unit may include at least one light emitting element for converting an electric signal into an optical signal. Here, the light emitting element is preferably an LED (Light Emitting Diode). The optical transmitter converts the electrical signal into an optical signal and transmits it to the outside. For example, the optical transmitter can emit the optical signal to the outside through the blinking of the light emitting element corresponding to the predetermined frequency. According to an embodiment, the light emitting portion may include a plurality of light emitting element arrays. According to the embodiment, the light emitting portion can be integrated with the lamp provided in the vehicle. For example, the light emitting portion may be at least one of a headlight, a tail light, a brake light, a turn signal lamp, and a car light.
일 실시 예에 의하면, 광통신 모듈(715)은 광 통신을 통해 타 차량 (510)과 데이터를 교환할 수 있다.According to one embodiment, the
입력부(720)는 운전 조작 수단(721), 카메라 장치(722), 마이크로 폰(723), 사용자 입력부(724) 및 모니터링부(725)를 포함할 수 있다.The
운전 조작 수단(721)은 차량 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단(721)은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단 등을 포함할 수 있다. The driving operation means 721 receives a user input for driving the vehicle. The driving operation means 721 may include a steering input means, a shift input means, an acceleration input means, a brake input means, and the like.
조향 입력 수단은 차량(700)의 진행 방향에 대한 입력을 수신한다. 조향 입력 수단은 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성되는 것이 바람직하다. 실시 예에 따라, 조향 입력 수단은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.The steering input means receives an input for the traveling direction of the
쉬프트 입력 수단은, 차량의 주차(P), 전진(D), 중립(N) 및 후진(R)에 대한 입력을 수신한다. 쉬프트 입력 수단은 레버 형태로 형성되는 것이 바람직하다. 실시 예에 따라, 쉬프트 입력 수단은 터치 스크린이나 터치 패드 또는 버튼으로 형성될 수 있다. The shift input means receives inputs for parking (P), forward (D), neutral (N) and reverse (R) of the vehicle. The shift input means is preferably formed in a lever shape. According to an embodiment, the shift input means may be formed of a touch screen, a touch pad or a button.
가속 입력 수단은 차량의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은 차량의 감속을 위한 입력을 수신한다. 이 경우, 가속 입력 수단 및 브레이크 입력 수단은 페달 형태로 형성되는 것이 바람직하다. 실시 예에 따라, 가속 입력 수단 또는 브레이크 입력 수단은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수 있다.The acceleration input means receives an input for acceleration of the vehicle. The brake input means receives an input for deceleration of the vehicle. In this case, the acceleration input means and the brake input means are preferably formed in a pedal shape. According to an embodiment, the acceleration input means or the brake input means may be formed of a touch screen, a touch pad or a button.
카메라 장치(722)는 이미지 센서와 영상처리모듈을 포함할 수 있다. 카메라 장치 (722)는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상처리모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여 필요한 정보를 추출하고, 추출된 정보를 ECU(770)에 전달할 수 있다. 한편, 차량(700)은 차량 전방 영상 또는 차량 주변 영상을 촬영하는 카메라 장치(722) 및 차량 내부 영상을 촬영하는 모니터링부(725)를 포함할 수 있다.The
모니터링부(725)는 탑승자에 대한 이미지를 획득할 수 있다. 모니터링부(725)는 탑승자의 생체 인식을 위한 이미지를 획득할 수 있다.The monitoring unit 725 may acquire an image of the occupant. The monitoring unit 725 may obtain an image for biometrics of the occupant.
한편, 도 1에서는 모니터링부(725)와 카메라 장치(722)가 입력부(720)에 포함되는 것으로 도시하였으나, 카메라 장치(722)는 전술한 바와 같이 어라운드뷰 제공장치(100)에 포함될 수도 있다.1, the monitoring unit 725 and the
마이크로폰(723)은 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량(700)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 마이크로폰(723)은 사용자의 음성 명령을 전기적 데이터로 전환할 수 있다. 전환된 전기적 데이터는 ECU(770)에 전달될 수 있다.The microphone 723 can process an external acoustic signal into electrical data. The processed data can be utilized variously according to functions performed in the
사용자 입력부(724)는 사용자로부터 정보를 입력 받을 수 있다. 사용자 입력부(724)를 통해 정보가 입력되면, ECU(770)는 입력된 정보에 대응되도록 차량(700)의 동작을 제어할 수 있다. 사용자 입력부(724)는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다. 실시 예에 따라, 사용자 입력부(724) 는 스티어링 휠의 일 영역에 배치될 수 있다. 이 경우, 운전자는 스티어링 휠을 잡은 상태에서, 손가락으로 사용자 입력부(724)를 조작할 수 있다.The
센싱부(760)는, 차량의 주행 등과 관련한 신호를 센싱한다. 이를 위해, 센싱부(760)는 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 레이더, 라이더 등을 포함할 수 있다.The
이에 의해, 센싱부(760)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도 등에 대한 센싱 신호를 획득할 수 있다.Thereby, the
한편, 센싱부(760)는, 그 외에도 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS) 등을 더 포함할 수 있다.In addition, the
센싱부(760)는 생체 인식 정보 감지부를 포함할 수 있다. 생체 인식 정보 감지부는 탑승자의 생체 인식 정보를 감지하여 획득한다. 생체 인식 정보는 지문 인식(Fingerprint) 정보, 홍채 인식(Iris-scan) 정보, 망막 인식(Retina-scan) 정보, 손모양(Hand geo-metry) 정보, 안면 인식(Facial recognition) 정보, 음성 인식(Voice recognition) 정보를 포함할 수 있다. 생체 인식 정보 감지부는 탑승자의 생체 인식 정보를 센싱하는 센서를 포함할 수 있다. 여기서, 모니터링부(725) 및 마이크로 폰(723)이 센서로 동작할 수 있다. 생체 인식 정보 감지부는 모니터링부(725)를 통해, 손모양 정보, 안면 인식 정보를 획득할 수 있다. The
출력부(740)는 ECU(770)에서 처리된 정보를 출력하기 위한 구성요소로서, 디스플레이부(741), 음향 출력부(742) 및 햅틱 출력부(743)를 포함할 수 있다.The
디스플레이부(741)는 ECU(770)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(741)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.The
디스플레이부(741)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중 적어도 하나에 의해 구현될 수 있다.The
디스플레이부(741)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량(700)과 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(724)로써 기능함과 동시에, 차량(700)과 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이 경우, 디스플레이부(741)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(741)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(741)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, ECU(770)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 구성될 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The
한편, 디스플레이부(741)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the
한편, 실시예에 따라, 디스플레이부(741)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(741)가 HUD로 구현되는 경우, 윈드 쉴드에 구비되는 투명 디스플레이를 통해 정보를 출력할 수 있다. 또는, 디스플레이부(741)는 투사 모듈을 구비하여 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.Meanwhile, according to the embodiment, the
음향 출력부(742)는 ECU(770)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(742)는 스피커 등을 구비할 수 있다. 음향 출력부(742)는 사용자 입력부(724)에 의해 입력된 동작에 대응하는 사운드를 출력할 수도 있다.The
햅틱 출력부(743)는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(743)는 스티어링 휠, 안전 벨트, 시트를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.The haptic output unit 743 generates a tactile output. For example, the haptic output section 743 may vibrate the steering wheel, the seat belt, and the seat so that the user can operate to recognize the output.
차량 구동부(750)는 차량(700)에 포함되는 각종 장치 및 구성요소의 동작을 제어할 수 있다. 차량 구동부(750)는 동력원 구동부(751), 조향 구동부 (752), 브레이크 구동부(753), 램프 구동부(754), 공조 구동부(755), 윈도우 구동부(756), 에어백 구동부(757), 썬루프 구동부(758) 및 서스펜션 구동부(759)를 포함할 수 있다.The
동력원 구동부(751)는, 차량(700) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. The power
예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(751)는 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(751)가 엔진인 경우, ECU(770)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.For example, when a fossil fuel-based engine (not shown) is a power source, the power
다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(751)는 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.As another example, when the electric motor (not shown) is a power source, the power
조향 구동부(752)는, 차량 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.The
브레이크 구동부(753)는, 차량 내의 브레이크 장치(brake apparatus) (미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량의 구륜속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The
램프 구동부(754)는, 차량 내부 및 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The
공조 구동부(755)는, 차량 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량 내부의 온도가 높은 경우, 공조 장치를 동작시켜 냉기가 차량(700) 내부로 공급되도록 제어할 수 있다. The air
윈도우 구동부(756)는 차량 내의 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량(700)의 측면의 좌측 및 우측 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다. The
에어백 구동부(757)는, 차량 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 사고 위험시, 에어백이 터지도록 제어할 수 있다.The airbag driving unit 757 can perform electronic control of the airbag apparatus in the vehicle. For example, in the event of an accident, the airbag can be controlled to fire.
썬루프 구동부(758)는, 차량 내의 썬루프 장치(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.The
서스펜션 구동부(759)는 차량(700) 내의 서스펜션 장치(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량의 진동이 저감되도록 제어할 수 있다.The
메모리(730)는, ECU(770)와 전기적으로 연결된다. 메모리(770)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(730)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장매체 일 수 있다. 메모리(730)는 ECU(770)의 처리 또는 제어를 위한 프로그램 등, 차량 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The
인터페이스부(780)는, 차량(700)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(780)는 이동 단말기(600)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해 이동 단말기(600)와 연결될 수 있다. 이 경우, 인터페이스부(780)는 이동 단말기(600) 와 데이터를 교환할 수 있다.The
한편, 인터페이스부(780)는 연결된 이동 단말기(600)에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기(600)가 인터페이스부(780)에 전기적으로 연결되는 경우, ECU(770)의 제어에 따라 인터페이스부(780)는 전원부(790)에서 공급되는 전기 에너지를 이동 단말기(600)에 제공한다.Meanwhile, the
ECU(770)는 차량(700) 내의 각 구성요소들의 전반적인 동작을 제어할 수 있다. ECU(770)는 ECU(Electronic Contol Unit)로 명명될 수 있다.The
이러한 ECU(770)은 어라운드뷰 제공장치(100)의 실행 신호 전달에 따라, 전달된 신호에 대응되는 기능을 실행할 수 있다. The
ECU(770)는 하드웨어적으로 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러 (micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나의 형태로 구현될 수 있다.
전원부(790)는 ECU(770)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 이 경우, 전원부(790)는 차량 내부의 배터리 (미도시) 등으로부터 전원을 공급받을 수 있다.The
AVN(Audio Video Navigation) 장치(400)는 ECU(770)와 데이터를 교환할 수 있다. ECU(770)는 AVN 장치(400) 또는 별도의 네비게이션 장치 (미도시)로부터 네비게이션 정보를 수신할 수 있다. 여기서, 네비게이션 정보는 설정된 목적지 정보, 상기 목적지에 따른 경로 정보, 차량 주행과 관련한 맵 정보 또는 차량 위치 정보 등을 포함할 수 있다.AVN (Audio Video Navigation)
도 2는 실시예에 따른 카메라 장치가 차량에 배치된 모습을 도시한다.Fig. 2 shows a state in which the camera device according to the embodiment is disposed in the vehicle.
카메라장치(도1의 722)는 차량의 다수의 위치에 장착될 수 있다. The camera device (722 in Figure 1) can be mounted at multiple locations on the vehicle.
예컨대, 카메라장치(722)는 차량 바디의 전후와 좌우 및 천장 중 적어도 하나의 위치에 배치될 수 있다. For example, the
카메라장치(722)와 함께 거리센서도 장착될 수 있지만, 이에 대해서는 한정하지 않는다. A distance sensor may also be fitted with the
차량 바디의 각 위치에 장착된 카메라장치(722)에 의해 차량의 전후와 좌우를 감시할 수 있다. The front, rear, left and right sides of the vehicle can be monitored by the
구체적으로, 차량 바디의 전방에 장착된 카메라장치는 전방카메라장치(160a)이고, 차량 바디의 후방에 장착된 카메라장치는 후방카메라장치(160c)이고, 차량 바디의 우측에 장착된 카메라장치는 우측카메라장치(160c)이며, 차량 바디의 좌측에 장착된 카메라장치는 좌측카메라장치(160d)일 수 있다. Specifically, the camera device mounted on the front of the vehicle body is the
전방카메라장치(160a), 우측카메라장치(160b), 후방카메라장치(160c) 및 좌측카메라장치(160d) 각각은 제1 내지 제4 카메라장치로 명명될 수도 있다. Each of the
이와 달리, 다수의 카메라장치(160a, 160b, 160c, 160d) 중 제일 먼저 언급되는 카메라장치가 제1 카메라장치로 명명되고, 그 다음 언급되는 카메라장치가 제2 카메라장치로 언급될 수도 있다. Alternatively, among the plurality of
전방카메라장치(160a)는 앰블럼 부근 또는 라디에이터 그릴 부근에 배치될 수 있다. 전방카메라장치(160a)는 주행 방향의 전방을 촬영하여 전방영상을 획득하고, 전방영상으로부터 전방객체를 감시하여 감시결과에 따라 전방객체와의 충돌을 방지하도록 조치하기 위한 전방제어신호를 생성할 수 있다. 여기서, 조치로는 경고, 감속, 또는 정지 등이 있다.The
우측카메라장치(160b)는 우측 사이드 미러를 둘러싸는 케이스 내에 배치될 수 있다. 우측카메라장치(160b)는 우측 사이드 미러를 둘러싸는 케이스 외부에 배치되거나, 우측 프런트 도어나 우측 리어 도어 또는 우측 휀더(fender) 외측의 일 영역에 배치될 수도 있다. 우측카메라장치(160b)는 우측 방향의 영상을 촬영하여 우측영상을 획득하고, 우측영상으로부터 우측객체를 감시하여 감시결과에 따라 우측객체와의 충돌을 방지하도록 조치하기 위한 우측제어신호를 생성할 수 있다. The
후방카메라장치(160c)는 후방 번호판 또는 트렁크 스위치 부근에 배치될 수 있다. 후방카메라장치(160c)는 주행 방향의 후방을 촬영하여 후방 영상을 획득하고, 후방영상으로부터 후방객체를 감시하여 감시결과에 따라 후방객체와의 충돌을 방지하도록 조치하기 위한 후방제어신호를 생성할 수 있다. The
좌측카메라장치(160d)는 좌측 사이드 미러를 둘러싸는 케이스 내에 배치될 수 있다. 실시 예에 따라, 좌측카메라장치(160d)는 좌측 사이드 미러를 둘러싸는 케이스 외부에 배치되거나, 좌측 프런트 도어나 좌측 리어 도어 또는 좌측 휀더(fender) 외측의 일 영역에 배치될 수도 있다. 좌측카메라장치(160d)는 좌측 방향의 영상을 촬영하여 좌측영상을 획득하고, 좌측영상으로부터 좌측객체를 감시하여 감시결과에 따라 좌측객체와의 충돌을 방지하도록 조치하기 위한 좌측제어신호를 생성할 수 있다. The
도시되지 않았지만, 차량의 천장에 추가적으로 카메라장치가 설치될 수도 있다. 천장 카메라장치는 차량의 전후 및 좌우 방향을 모두 촬영할 수 있다.Although not shown, an additional camera device may be installed in the ceiling of the vehicle. The ceiling camera device can photograph both forward, backward and leftward and rightward directions of the vehicle.
아울러, 필요에 따라 전방, 우측, 후방 및 좌측 카메라장치(160a, 160b, 160c, 160d) 이외에 추가로 카메라장치가 더 설치될 수도 있다.Further, in addition to the front, right, rear and left
도 3은 실시예에 따른 충돌방지장치를 도시한 블록도이다.3 is a block diagram showing an anti-collision apparatus according to an embodiment.
도 3을 참조하면, 실시예에 따른 충돌방지장치는 카메라장치(722), ECU(770) 및 디스플레이부(741)를 포함할 수 있다.Referring to FIG. 3, the anti-collision apparatus according to the embodiment may include a
카메라장치(722)는 도 2에 도시된 다수의 카메라(160a, 160b, 160c, 150d) 중 적어도 하나의 카메라장치일 있다. The
이하의 설명에서, 카메라장치(722)는 도 2에 도시된 후방카메라장치(160c)를 가정하고 설명하지만, 이에 대해서는 한정하지 않는다.In the following description, the
카메라장치(722)는 실시간으로 영상신호를 획득할 수 있다. 예컨대, 카메라장치(722)는 차량의 후방에 보여지는 객체에 대한 영상을 실시간으로 촬영할 수 있다. 카메라장치(722)는 획득된 영상을 처리 또는 분석하여 제어신호를 생성할 수 있다. The
보다 구체적으로 설명하면, 카메라장치(722)는 센서(10) 및 카메라제어부(20)를 포함할 수 있다. More specifically, the
센서는 실시간으로 영상을 촬영하는 소자로서, 예컨대 이미지센서일 수 있다. 이미지센서는 CCD(Charge-Coupled Device) 이미지센서나 CMOS(Complementary Metal-Oxide Semiconductor) 이미지센서일 수 있다. The sensor is an element for capturing an image in real time, and may be, for example, an image sensor. The image sensor may be a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor.
센서(10)로부터 촬영된 영상은 카메라제어부(20)로 전달될 수 있다.An image photographed from the
카메라제어부(20)는 촬영된 영상을 토대로 영상신호를 획득하고, 그 획득된 영상신호를 처리 또는 분석하여 제어신호를 생성할 수 있다. The
제어신호는 충돌방지를 위한 제어신호일 수 있다. 예컨대, 제어신호는 경고음을 출력하도록 하는 경고음출력제어신호일 수 있다. 예컨대, 제어신호는 차량의 구륜속도를 줄이도록 하는 감속제어신호일 수 있다. 예컨대, 제어신호는 차량을 정지시키도록 하는 정지제어신호일 수 있다. The control signal may be a control signal for preventing collision. For example, the control signal may be a warning sound output control signal for outputting a warning sound. For example, the control signal may be a deceleration control signal to reduce the vehicle's wheel speed. For example, the control signal may be a stop control signal that causes the vehicle to stop.
이 이외에도 다양한 제어신호가 생성되어 ECU(770)로 전송될 수 있다.Various control signals may be generated and transmitted to the
카메라제어부(20)는 영상신호의 처리 또는 분석을 통해 영상에서 추출된 객체와 차량이 충돌하지 않도록 사전에 조치할 수 있는 제어신호를 생성할 수 있다.The
카메라제어부(20)에서 획득된 영상신호는 디스플레이부(741)로 전송될 수 있다. 디스플레이부(741)는 해당 영상신호를 디스플레이할 수 있다. 디스플레이부(741) 상에 디스플레이되는 영상을 통해 운전자(또는 사용자)는 해당 카메라장치(722)의 후방 상태를 파악할 수 있다. The image signal obtained by the
카메라장치(722)의 센서(10)와 디스플레이부(741) 사이에는 이더넷(Ethernet)통신이 가능하다. 따라서, 카메라장치(722)의 센서(10)로부터 촬영된 영상은 영상신호로서 이더넷통신을 이용하여 디스플레이부(741)로 전송될 수 있다.Ethernet communication is possible between the
카메라제어부(20)에서 생성된 제어신호는 ECU(770)로 전송될 수 있다. 카메라제어부(20)와 ECU(770)는 CAN(Controller Area Network)통신이 가능하다. 따라서, 카메라제어부(20)에서 생성된 제어신호는 CAN통신을 이용하여 ECU(770)로 전송될 수 있다. The control signal generated by the
CAN통신은 차량 내에서 호스트 컴퓨터 없이 ECU(770)나 장치들이 서로 통신하기 위해 설계된 표준 통신 규격으로서, 메시지 기반 프로토콜이다. CAN communication is a message-based protocol, a standard communication standard designed for the
ECU(770)는 카메라장치(722)로부터 전송된 제어신호에 응답하여 대응되는 조치가 취해지도록 제어할 수 있다.
예컨대, 경고음출력제어신호가 카메라장치(722)로부터 전송되는 경우, ECU(770)는 음향출력부(도 1의 742)를 제어하여 경고음을 출력할 수 있다.For example, when a warning sound output control signal is transmitted from the
예컨대, 감속제어신호가 카메라장치(722)로부터 전송되는 경우, ECU(770)는 브레이크구동부(도 1의 753)를 제어하여 차량의 구륜속도를 강제적으로 줄일 수 있다. 다른 예로서, ECU(770)는 감속제어신호에 응답하여 영상표시나 음성출력 등으로 사용자에게 전달하여 사용자가 브레이크를 걸도록 할 수 있다.For example, when the deceleration control signal is transmitted from the
예컨대, 정지제어신호가 카메라장치(722)로부터 전송되는 경우, ECU(770)는 브레이크구동부(도 1의 753)를 제어하여 차량을 강제로 정지시킬 수 있다. 다른 예로서, ECU(770)는 정지제어신호에 응답하여 영상표시나 음성출력 등으로 사용자에게 전달하여 사용자가 차량을 정지하도록 할 수 있다. For example, when the stop control signal is transmitted from the
ECU(770)는 도 1에서 설명한 바와 같이, 차량(700) 내의 각 구성요소들의 전반적인 동작을 제어하는 것으로서, 넓은 의미로 제어장치로 명명될 수 있다. The
ECU(770)의 제어 하에 도 1에 도시된 입력부, 통신부, 출력부, 차량구동부가 동작될 수 있다.The input unit, the communication unit, the output unit, and the vehicle driving unit shown in Fig. 1 may be operated under the control of the
이하에서 도 3에 도시된 카메라제어부(20)를 보다 더 상세하게 설명한다.Hereinafter, the
도 4는 도 3의 카메라제어부를 도시한 블록도이다.4 is a block diagram showing the camera controller of FIG.
도 4를 참조하면, 카메라제어부(20)는 영상획득부(30), 영상처리부(40) 및 전송부(50)를 포함할 수 있다. Referring to FIG. 4, the
영상획득부(30)는 센서(10)로부터 촬영된 영상을 바탕으로 영상신호를 획득할 수 있다. The image acquiring unit 30 can acquire a video signal based on the image photographed from the
영상처리부(40)는 획득된 영상신호를 분석 또는 처리하여 제어신호를 생성할 수 있다. 제어신호는 상술한 바와 같이, 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상일 수 있다. The image processing unit 40 may analyze or process the acquired image signal to generate a control signal. The control signal may be at least one of a warning sound output control signal, a deceleration control signal, and a stop control signal, as described above.
도 5는 도 4의 영상처리부를 도시한 블록도이다.5 is a block diagram showing the image processing unit of FIG.
도 5를 참조하면, 영상처리부(40)는 왜곡보정부(41), 영상변환부(43), 특징추출부(45), 객체검출부(47), 객체거리산출부(48) 및 제어신호생성부(49)를 포함할 수 있다.5, the image processing unit 40 includes a distortion correction unit 41, an image conversion unit 43, a feature extraction unit 45, an object detection unit 47, an object distance calculation unit 48, (49).
왜곡보정부(41)는 영상획득부(30)로부터 획득된 영상신호(이하, 제1 영상신호라 함)에서의 왜곡을 보정할 수 있다. 보정된 영상신호는 제2 영상신호로 명명될 수 있다. The distortion correction unit 41 can correct the distortion in the image signal obtained from the image acquisition unit 30 (hereinafter, referred to as the first image signal). The corrected video signal can be named as a second video signal.
제1 영상신호에 왜곡이 발생될 확률이 없는 경우, 왜곡보정부(41)는 생략될 수 있다. If there is no probability that distortion occurs in the first video signal, the distortion correction unit 41 may be omitted.
영상변환부(43)는 시점(viewpoint) 변환을 이용하여 제2 영상신호를 위에서 바닥을 향해 수직으로 보여지는 영상신호로 변환할 수 있다. 변환된 영상신호는 제3 영상신호로 명명될 수 있다. 다시 말해, 제2 영상신호는 수평방향으로 보여지는 영상신호이다. 따라서, 수평방향에 대한 시점을 수직방향에 대한 시점으로 변환하여 줌으로써, 제2 영상신호가 수직방향으로 보여지는 제3 영상신호로 변환될 수 있다. The image converting unit 43 may convert the second video signal into a video signal that is vertically viewed from the top to the bottom using viewpoint conversion. The converted image signal may be named as a third image signal. In other words, the second video signal is a video signal viewed in the horizontal direction. Thus, by converting the viewpoint in the horizontal direction to the viewpoint in the vertical direction, the second video signal can be converted into a third video signal viewed in the vertical direction.
제2 영상신호의 변환에는 극(polar)좌표계나 직교(Cartesian)좌표계가 사용될 수 있다. 이러한 좌표계는 점의 위치를 수치로 표현하는 방식이다. A polar coordinate system or a Cartesian coordinate system can be used for the conversion of the second video signal. Such a coordinate system is a method of expressing the position of a point by a numerical value.
예컨대, 극좌표계는 원점으로부터의 거리(r)와 그 점이 X축과의 이루는 각의 크기(θ)를 사용하여 (r, θ)로 나타낼 수 있다. 따라서, 극좌표계를 이용하여 제3 영상신호로 변환되는 경우, 제3 영상신호 내의 각 점에 대해 거리(r)와 각의 크기(θ)가 산출되어 설정될 수 있다. For example, the polar coordinate system can be expressed by (r,?) Using the distance r from the origin and the magnitude? Of the angle formed by the point with the X axis. Therefore, when the polar coordinate system is converted into the third video signal, the distance r and the magnitude? Can be calculated and set for each point in the third video signal.
예컨대, 직교좌표계는 평면이나 공간의 위치를 X,Y 또는 X,Y,Z로 나타낼 수 있다. For example, the Cartesian coordinate system can represent the position of a plane or a space by X, Y or X, Y, Z.
따라서, 도 6a에 도시한 바와 같이, 카메라장치(722)로부터 획득된 제1 영상신호가 예컨대 극좌표계를 이용하여 변환되는 경우, 도 6b에 도시한 바와 같이 위에서 바닥을 보는 것처럼 보이는 제3 영상신호로 변환될 수 있다. 이때, 제3 영상신호의 각 점은 거리(r)와 각도(θ)에 관한 정보를 포함할 수 있다. 6A, when the first video signal obtained from the
이와 같이 제3 영상신호에 보여지는 객체는 높이가 있는 객체일 수 있고, 높이가 없는 객체는 제3 영상신호에 포함되지 않게 된다. Thus, the object shown in the third video signal can be an object having a height, and the object having no height can not be included in the third video signal.
예컨대, 바닥에 서로 상이한 컬러나 에지를 갖는 객체가 있다고 하더라도, 이러한 객체는 높이가 없기 때문에 제3 영상신호에 포함되지 않게 된다. For example, even if there are objects having colors or edges different from each other on the floor, such objects are not included in the third video signal because there is no height.
따라서, 실시예는 바닥에 서로 상이한 컬러나 에지를 갖는 객체를 위험 요소 객체로 판단하는 검출오류를 방지하여 줄 수 있다.Therefore, the embodiment can prevent a detection error that determines an object having a color or an edge different from each other on the floor as a risk element object.
특징추출부(45)는 제3 영상신호로부터 객체를 바탕으로 객체의 후보가 될 수 있는 에지와 같은 특징을 추출할 수 있다. 이때, 에지는 에지의 강도와 방향을 포함할 수 있다. 이러한 객체에 대한 특징을 객체 여부가 확정될 수 있다. The feature extracting unit 45 can extract features such as edges that can be candidates of the object based on the object from the third video signal. At this time, the edge may include the strength and direction of the edge. The characteristics of these objects can be determined as objects.
도 6c에 도시한 바와 같이, 제3 영상신호에서 에지로 검출된 부분만 화이트 컬러를 가지며, 그 외의 영역은 모두 블랙 컬러를 가질 수 있다. 추출된 에지는 제3 영상신호 내에서 수직 방향 상의 에지일 수 있지만, 이에 대해서는 한정하지 않는다. As shown in FIG. 6C, only the portion detected as an edge in the third video signal has a white color, and all other regions may have a black color. The extracted edge may be an edge in the vertical direction within the third video signal, but it is not limited thereto.
객체검출부(47)는 추출된 특징을 바탕으로 일정한 구간 내에서의 특징들, 즉 에지들의 분포 등을 고려하여 객체 여부를 판단하여, 해당 객체를 검출할 수 있다. The object detecting unit 47 can detect the object by determining whether the object is an object in consideration of features within a predetermined section, that is, distribution of edges, based on the extracted feature.
도 6d에 도시한 바와 같이, 검출된 에지들을 참고하여, 이들 에지들의 분포 상태 등을 고려하여 해당 영상신호 내에 존재하는 객체들이 추출될 수 있다. Referring to the detected edges, as shown in FIG. 6D, objects existing in the corresponding video signal can be extracted in consideration of the distribution state of the edges and the like.
객체거리산출부(48)는 검출된 객체를 바탕으로 해당 객체와 차량 사이의 거리를 산출할 수 있다. The object distance calculating unit 48 may calculate the distance between the object and the vehicle based on the detected object.
앞서 상술한 바와 같이, 제2 영상신호로부터 변환된 제3 영상신호 내의 각 점은 차량과의 거리정보를 포함할 수 있다. As described above, each point in the third video signal converted from the second video signal may include distance information with respect to the vehicle.
따라서, 객체거리산출부(48)는 검출된 객체 내의 거리정보를 바탕으로 차량과의 거리를 산출할 수 있다.Therefore, the object distance calculating unit 48 can calculate the distance to the vehicle based on the distance information in the detected object.
객체 내에는 다수의 점이 존재하므로, 이들 다수의 점 모두의 거리를 평균하거나, 이들 다수의 점 중 표본으로 선택된 소수의 점에서의 거리를 평균하여, 차량과의 거리가 산출될 수 있다. 검출된 객체와 차량 사이의 거리 산출 방법은 이와 달리 다양한 방법이 가능하다.Since there are a plurality of points in the object, the distance to the vehicle can be calculated by averaging the distances of all of these points or by averaging the distances from the points of the few selected from the plurality of points. The distance between the detected object and the vehicle can be calculated in various ways.
제어신호생성부(49)는 산출된 거리정보를 바탕으로 제어신호를 생성할 수 있다. The control signal generator 49 can generate a control signal based on the calculated distance information.
예컨대, 객체와 차량 사이의 거리가 기 설정값 이하인 경우, 제어신호생성부(49)는 제어신호를 생성할 수 있다.For example, when the distance between the object and the vehicle is equal to or less than a predetermined value, the control signal generator 49 can generate a control signal.
제어신호는 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상을 포함할 수 있다. The control signal may include at least one of a warning sound output control signal, a deceleration control signal, and a stop control signal.
이러한 제어신호는 ECU(770)로 전송되어, 그 제어신호에 대응되는 조치가 ECU(770)의 제어 하에 취해질 수 있다. This control signal is transmitted to the
다시 도 4를 참조하면, 전송부(50)는 영상획득부(30)에서 획득된 영상이미지 및/또는 영상처리부(40)에서 생성된 제어신호를 전송할 수 있다. Referring again to FIG. 4, the transmitting unit 50 may transmit the image image obtained by the image obtaining unit 30 and / or the control signal generated by the image processing unit 40. FIG.
도시되지 않았지만, 전송부(50)는 제1 전송부 및 제2 전송부를 포함할 수 있다. 제1 전송부는 디스플레이부(741)와 이더넷통신이 가능하도록 설정되고, 제2 전송부는 ECU(770)와 CAN통신이 가능하도록 설정될 수 있다. Although not shown, the transfer unit 50 may include a first transfer unit and a second transfer unit. The first transmission unit is set to enable Ethernet communication with the
이러한 경우, 영상획득부(30)로부터 획득된 영상이미지는 제1 전송부로 전달되고, 제1 전송부는 영상이미지를 영상신호로서 이더넷통신을 이용하여 디스플레이부(741)로 전송할 수 있다.In this case, the image obtained from the image acquisition unit 30 is transmitted to the first transmission unit, and the first transmission unit can transmit the image image to the
또한, 영상처리부(40)로부터 생성된 제어신호는 제2 전송부로 전달되고, 제2 전송부는 제어신호를 CAN통신을 이용하여 ECU(770)로 전송할 수 있다. In addition, the control signal generated from the image processing unit 40 is transmitted to the second transmission unit, and the second transmission unit can transmit the control signal to the
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 실시예의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 실시예의 등가적 범위 내에서의 모든 변경은 실시예의 범위에 포함된다.The foregoing detailed description should not be construed in all aspects as limiting and should be considered illustrative. The scope of the embodiments should be determined by rational interpretation of the appended claims, and all changes within the equivalents of the embodiments are included in the scope of the embodiments.
10: 센서
20: 카메라제어부
30: 영상획득부
40: 영상처리부
41: 왜곡보정부
43: 영상변환부
45: 특징추출부
47: 객체검출부
48: 객체거리산출부
49: 제어신호생성부
50: 전송부
722: 카메라장치
741: 디스플레이부
770: 제어장치10: Sensor
20: camera control section
30: Image acquisition unit
40:
41: Distortion correction unit
43:
45: Feature extraction unit
47:
48: object distance calculating unit
49: control signal generating unit
50:
722: Camera device
741:
770: Control device
Claims (12)
상기 차량의 특정 방향의 영상을 촬영하는 센서; 및
상기 촬영된 영상을 바탕으로 제1 영상신호를 획득하고, 상기 획득된 제1 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성하는 카메라제어부를 포함하고,
상기 제어신호는 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상을 포함하는 카메라장치.A camera device mounted on a vehicle,
A sensor for photographing an image in a specific direction of the vehicle; And
And a camera controller for acquiring a first image signal based on the photographed image and generating a control signal based on distance information about the object in the obtained first image signal,
Wherein the control signal includes at least one of a warning sound output control signal, a deceleration control signal, and a stop control signal.
상기 카메라제어부는,
시점 변환을 이용하여 상기 획득된 제1 영상신호를 위에서 바닥으로 수직으로 보여지는 제2 영상신호로 변환하는 영상변환부;
상기 변환된 제2 영상신호로부터 객체의 후보가 될 수 있는 특징을 추출하는 특징추출부;
상기 추출된 특징을 바탕으로 객체를 검출하는 객체검출부; 및
상기 검출된 객체의 거리정보를 바탕으로 상기 제어신호를 생성하는 제어신호생성부를 포함하는 카메라장치.The method according to claim 1,
The camera control unit,
An image converter for converting the obtained first image signal into a second image signal that is vertically viewed from the top to the bottom using a viewpoint conversion;
A feature extraction unit for extracting a feature that can be a candidate of an object from the converted second video signal;
An object detection unit detecting an object based on the extracted feature; And
And a control signal generator for generating the control signal based on distance information of the detected object.
상기 제2 영상신호의 변환은 극좌표계 및 직교좌표계 중 하나가 이용되는 카메라장치.3. The method of claim 2,
Wherein the second video signal is transformed using one of a polar coordinate system and an orthogonal coordinate system.
상기 특징은 에지이며,
상기 에지는 상기 변환된 제2 영상신호 내에서 수직 방향 상의 에지인 카메라장치.3. The method of claim 2,
The feature is an edge,
Wherein the edge is an edge in the vertical direction within the converted second video signal.
상기 검출된 객체는 높이를 갖는 카메라장치.3. The method of claim 2,
Wherein the detected object has a height.
상기 객체검출부는,
일정 구간 내에서의 에지들의 분포를 바탕으로 상기 객체를 검출하는 카메라장치.The method of claim 3,
Wherein the object detection unit comprises:
And detects the object based on distribution of edges within a predetermined period.
상기 거리정보는,
상기 극좌표계를 이용하여 상기 제2 영상신호로 변환되는 경우, 상기 변환된 제2 영상신호 내의 각 점에서 설정되는 카메라장치.3. The method of claim 2,
The distance information,
And when the second video signal is converted into the second video signal using the polar coordinate system, at each point in the converted second video signal.
상기 차량의 특정 방향으로 촬영된 영상을 바탕으로 제1 영상신호를 획득하고, 시점의 변환을 이용하여 상기 획득된 제1 영상신호를 위에서 바닥을 향해 수직으로 보여지는 제2 영상신호로 변환하며, 상기 변환된 제2 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성하는 카메라장치; 및
상기 제어신호에 대응하는 조치를 취하도록 관련장치를 제어하는 제어장치를 포함하고,
상기 제어신호는 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상을 포함하는 충돌방지장치.An anti-collision apparatus mounted on a vehicle,
Acquiring a first image signal based on an image photographed in a specific direction of the vehicle and converting the obtained first image signal into a second image signal vertically viewed from the top to the bottom using a conversion of a viewpoint, A camera device for generating a control signal based on distance information about an object in the converted second video signal; And
And a control device for controlling the associated device to take an action corresponding to the control signal,
Wherein the control signal includes at least one of a warning sound output control signal, a deceleration control signal, and a stop control signal.
상기 관련장치는 음향출력부 또는 브레이크 구동부를 포함하는 충돌방지장치. 9. The method of claim 8,
Wherein the associated device comprises an acoustic output or a brake driver.
상기 제어장치는,
상기 경고음출력제어신호에 응답하여 상기 음향출력부를 제어하여 경고음을 출력하는 충돌방지장치.10. The method of claim 9,
The control device includes:
Wherein the control unit controls the sound output unit in response to the alarm output control signal to output a warning sound.
상기 제어장치는,
상기 감속제어신호 및 상기 정지제어신호 중 하나의 제어신호에 응답하여 상기 브레이크구동부를 제어하여 상기 차량의 구륜속도를 조절하는 충돌방지장치.10. The method of claim 9,
The control device includes:
And controls the brake driving unit in response to one control signal of the deceleration control signal and the stop control signal to adjust the wheel speed of the vehicle.
상기 카메라장치에서, 차량의 특정 방향으로 촬영된 영상을 바탕으로 제1 영상신호를 획득하는 단계;
상기 카메라장치에서, 시점의 변환을 이용하여 상기 획득된 제1 영상신호를 위에서 바닥을 향해 수직으로 보여지는 제2 영상신호로 변환하는 단계;
상기 카메라장치에서, 상기 변환된 제2 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성하는 단계; 및
상기 제어장치에서, 상기 제어신호에 대응하는 조치를 취하도록 관련장치를 제어하는 단계를 포함하고,
상기 제어신호는 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상을 포함하는 충돌방지방법.A method for preventing a collision in a vehicle including a camera device and a control device connected to the camera device,
In the camera device, acquiring a first image signal based on an image photographed in a specific direction of the vehicle;
Converting the obtained first video signal into a second video signal which is vertically viewed from the top to the bottom using the conversion of viewpoints in the camera apparatus;
Generating a control signal in the camera apparatus based on distance information on an object in the converted second video signal; And
Controlling, in the control device, an associated device to take an action corresponding to the control signal,
Wherein the control signal includes at least one of a warning sound output control signal, a deceleration control signal, and a stop control signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170034498A KR20180106336A (en) | 2017-03-20 | 2017-03-20 | Camera apparatus, collision prevention apparatus using the same and method of preventing collision |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170034498A KR20180106336A (en) | 2017-03-20 | 2017-03-20 | Camera apparatus, collision prevention apparatus using the same and method of preventing collision |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180106336A true KR20180106336A (en) | 2018-10-01 |
Family
ID=63877303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170034498A KR20180106336A (en) | 2017-03-20 | 2017-03-20 | Camera apparatus, collision prevention apparatus using the same and method of preventing collision |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180106336A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190039608A1 (en) * | 2017-08-07 | 2019-02-07 | CAMSYS Corp. | Apparatus and method for electric vehicle collision avoidance |
CN111806461A (en) * | 2019-03-25 | 2020-10-23 | 奇景光电股份有限公司 | Functional safety system for a vehicle fault display and related functional fault system |
-
2017
- 2017-03-20 KR KR1020170034498A patent/KR20180106336A/en not_active IP Right Cessation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190039608A1 (en) * | 2017-08-07 | 2019-02-07 | CAMSYS Corp. | Apparatus and method for electric vehicle collision avoidance |
US10625738B2 (en) * | 2017-08-07 | 2020-04-21 | CAMSYS Corp. | Apparatus and method for electric vehicle collision avoidance |
CN111806461A (en) * | 2019-03-25 | 2020-10-23 | 奇景光电股份有限公司 | Functional safety system for a vehicle fault display and related functional fault system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109789778B (en) | Automatic parking assist device and vehicle comprising same | |
CN107914713B (en) | Display device for vehicle and vehicle including same | |
KR101916993B1 (en) | Display apparatus for vehicle and control method thereof | |
CN110177723B (en) | Device for providing a peripheral field of view | |
KR20170141082A (en) | Parking Assistance Apparatus and Vehicle Having The Same | |
KR20170099188A (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR20170058188A (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR101860626B1 (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR101790426B1 (en) | Apparatus for automatic parking and vehicle having the same | |
US11548452B2 (en) | Method and device for correcting vehicle view cameras | |
KR101962348B1 (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR101732263B1 (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR102420922B1 (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR20180080939A (en) | Driving assistance apparatus and vehicle having the same | |
KR101843535B1 (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR101897350B1 (en) | Driver Assistance Apparatus | |
KR20170041072A (en) | Detecting device for monitoring noise in vehicle and vehicle having the same | |
KR20180106336A (en) | Camera apparatus, collision prevention apparatus using the same and method of preventing collision | |
CN111295876B (en) | Panoramic all-around view image control device and panoramic all-around view image processing method thereof | |
KR101894636B1 (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR101888259B1 (en) | Vehicle Assistance Apparatus and Vehicle Having The Same | |
KR101737236B1 (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR101929288B1 (en) | Parking Assistance Apparatus and Vehicle Having The Same | |
KR101796449B1 (en) | Vehicle Having Assistance Apparatus Having Function For Controlling With Center Of Weight | |
KR101929291B1 (en) | Vehicular Communication Apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X601 | Decision of rejection after re-examination |