KR20180106336A - Camera apparatus, collision prevention apparatus using the same and method of preventing collision - Google Patents

Camera apparatus, collision prevention apparatus using the same and method of preventing collision Download PDF

Info

Publication number
KR20180106336A
KR20180106336A KR1020170034498A KR20170034498A KR20180106336A KR 20180106336 A KR20180106336 A KR 20180106336A KR 1020170034498 A KR1020170034498 A KR 1020170034498A KR 20170034498 A KR20170034498 A KR 20170034498A KR 20180106336 A KR20180106336 A KR 20180106336A
Authority
KR
South Korea
Prior art keywords
control signal
vehicle
image
signal
unit
Prior art date
Application number
KR1020170034498A
Other languages
Korean (ko)
Inventor
이용진
권혁준
마종현
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020170034498A priority Critical patent/KR20180106336A/en
Publication of KR20180106336A publication Critical patent/KR20180106336A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera

Abstract

Provided is a camera apparatus, capable of obtaining and processing images so as to reduce an image processing time and allowing additional devices for image processing to be unnecessary. The camera apparatus comprises: a sensor photographing images in the certain direction of a vehicle; and a camera control unit obtaining an image signal based on the photographed images and generating a control signal based on distance information with respect to an object in the obtained image signal.

Description

카메라장치, 이를 이용한 충돌방지장치 및 충돌방지방법{Camera apparatus, collision prevention apparatus using the same and method of preventing collision}[0001] The present invention relates to a camera apparatus, a collision avoidance apparatus and a collision avoidance method using the same,

실시예는 카메라장치에 관한 것이다.An embodiment relates to a camera apparatus.

실시예는 카메라장치를 이용한 충돌방지장치에 관한 것이다.The embodiment relates to an anti-collision apparatus using a camera apparatus.

실시예는 카메라장치를 이용한 충돌방지방법에 관한 것이다.The embodiments relate to a collision avoidance method using a camera apparatus.

차량은 사람 또는 화물을 운송할 목적으로 차륜을 구동시켜 주행하는 모든 장치이다. 차량의 일반적인 예로 자동차를 들 수 있다.A vehicle is any device that drives a wheel for the purpose of transporting people or cargo. A typical example of a vehicle is a car.

자동차는 사용되는 원동기의 종류에 따라, 내연기관(internal combustion engine) 자동차, 외연기관(external combustion engine) 자동차, 가스터빈(gas turbine) 자동차 또는 전기자동차(electric vehicle) 등으로 분류될 수 있다. An automobile can be classified into an internal combustion engine automobile, an external combustion engine automobile, a gas turbine automobile or an electric vehicle depending on the type of prime mover used.

전기자동차는 전기를 에너지원으로 사용하여 전기 모터를 구동시키는 자동차로서, 다시 순수 전기자동차, 하이브리드 전기차(Hybrid Electric Vehicle: HEV), 플러그인 하이브리드 전기차(Plug-in Hybrid Electric Vehicle: PHEV), 수소연료전지차(Fuel Cell Electric Vehicle: FCEV) 등으로 분류될 수 있다.An electric vehicle is an automobile that uses electric power as an energy source to drive an electric motor. The hybrid electric vehicle, a hybrid electric vehicle (HEV), a plug-in hybrid electric vehicle (PHEV) (Fuel Cell Electric Vehicle: FCEV).

최근 운전자와 보행자의 안전이나 편의를 위해 지능형 자동차(Smart Vehicle)의 개발 및 상용화가 활발히 진행되고 있다. 지능형 자동차는 정보통신기술(Information Technology: IT)을 융합한 최첨단 자동차로, 자동차 자체의 첨단 시스템 도입은 물론 지능형 교통 시스템과의 연동을 통해 최적의 교통 효율을 제공한다. 구체적으로, 지능형 자동차는, 자동 주행 기능, 적응식 정속주행 제어(Adaptive Cruise Control: ACC), 장애물 감지, 충돌 감지, 정밀한 지도 제공, 목적지까지의 경로 설정 및 주요 장소에 대한 위치 제공 등을 수행함으로써, 운전자와 탑승자 및 보행자의 안전과 편의를 극대화한다.In recent years, the development and commercialization of an intelligent vehicle (Smart Vehicle) has been actively conducted for the safety and convenience of drivers and pedestrians. Intelligent automobile is a cutting-edge automobile that integrates information technology (IT). It provides optimal transportation efficiency through interworking with intelligent transportation system as well as introduction of advanced system of automobile itself. Specifically, the intelligent vehicle performs automatic cruise control, adaptive cruise control (ACC), obstacle detection, collision detection, precise guidance, route to destination, and location of key locations , Maximizing the safety and comfort of the driver, passengers and pedestrians.

종래에 충돌 감지를 위해 사용되는 카메라 장치는 단순히 영상을 획득하여 전송하는 기능밖에 하지 못하고, 해당 영상을 분석하는 기능은 별도의 장치에 구비된다. 이에 따라, 영상을 분석하는 기능을 수행하는 별도의 장치가 구비되어야 하므로, 별도의 장치가 장착될 공간이 필요하게 되는 문제가 있다. 또한, 카메라 장치에서 획득된 영상을 분석을 위한 장치로 보내 해당 장치에서 분석되게 되어, 영상 처리에 시간이 걸리고 영상의 전송에 따른 전력 손실이 발생되는 문제가 있다.Conventionally, a camera device used for collision detection merely has a function of acquiring and transmitting an image, and a function of analyzing the image is provided in a separate device. Accordingly, a separate apparatus for performing a function of analyzing an image must be provided, thus requiring a space for mounting a separate apparatus. In addition, the image obtained from the camera device is sent to a device for analysis, and the image is analyzed in the device. Thus, there is a problem in that it takes time to process the image and power loss occurs due to transmission of the image.

실시예는 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.The embodiments are directed to solving the above problems and other problems.

실시예의 다른 목적은 영상의 획득과 처리가 가능하여 영상처리시간을 줄이고 영상처리를 위한 별도의 장치가 필요 없는 카메라장치, 이를 이용한 충돌방지장치 및 충돌방지방법을 제공한다.Another object of the present invention is to provide a camera device capable of acquiring and processing an image, reducing image processing time and not requiring a separate device for image processing, a collision avoiding device using the same, and a collision avoiding method.

실시예의 또 다른 목적은 영상처리방법을 획기적으로 개선하여 객체검출의 신뢰성을 향상시킬 수 있는 카메라장치, 이를 이용한 충돌방지장치 및 충돌방지방법을 제공한다.Another object of the present invention is to provide a camera device, a collision avoidance device, and a collision prevention method using the same, which can improve the reliability of object detection by improving the image processing method remarkably.

상기 또는 다른 목적을 달성하기 위해 실시예의 일 측면에 따르면, 카메라장치는 차량의 특정 방향의 영상을 촬영하는 센서와, 상기 촬영된 영상을 바탕으로 제1 영상신호를 획득하고, 상기 획득된 제1 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성하는 카메라제어부를 포함한다. According to an aspect of the embodiment, a camera apparatus includes a sensor for capturing an image in a specific direction of a vehicle, a control unit for acquiring a first image signal based on the captured image, And a camera controller for generating a control signal based on distance information on an object in the video signal.

실시예의 다른 측면에 따르면, 충돌방지장치는 카메라장치와 제어장치를 포함한다. According to another aspect of the embodiment, the anti-collision device includes a camera device and a control device.

상기 카메라장치는 차량의 특정 방향으로 촬영된 영상을 바탕으로 제1 영상신호를 획득하고, 시점의 변환을 이용하여 상기 획득된 제1 영상신호를 위에서 바닥을 향해 수직으로 보여지는 제2 영상신호로 변환하며, 상기 변환된 제2 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성한다. 상기 제어장치는 상기 제어신호에 대응하는 조치를 취하도록 관련장치를 제어한다. The camera device acquires a first image signal based on an image photographed in a specific direction of the vehicle and converts the obtained first image signal into a second image signal vertically viewed from the top to the bottom And generates a control signal based on the distance information of the object in the converted second video signal. The control device controls the associated device to take an action corresponding to the control signal.

실시예의 또 다른 측면에 따르면, 충돌방지방법은 카메라장치에서 차량의 특정 방향으로 촬영된 영상을 바탕으로 제1 영상신호를 획득하고, 상기 카메라장치에서 시점의 변환을 이용하여 상기 획득된 제1 영상신호를 위에서 바닥을 향해 수직으로 보여지는 제2 영상신호로 변환하고, 상기 카메라장치에서, 상기 변환된 제2 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성하며, 상기 제어장치에서, 상기 제어신호에 대응하는 조치를 취하도록 관련장치를 제어한다.According to another aspect of the present invention, a collision avoidance method includes acquiring a first image signal based on an image captured in a specific direction of a vehicle from a camera device, and acquiring the acquired first image Converts the signal into a second video signal that is viewed vertically from the top to the bottom and generates a control signal in the camera apparatus based on distance information on the object in the converted second video signal, And controls the associated device to take an action corresponding to the control signal.

위 실시예에서, 상기 제어신호는 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상을 포함할 수 있다. In the above embodiment, the control signal may include at least one of a beep output control signal, a deceleration control signal, and a stop control signal.

실시예에 따른 카메라장치, 이를 이용한 충돌방지장치 및 충돌방지방법의 효과에 대해 설명하면 다음과 같다.Effects of the camera device, the collision avoiding device and the collision avoiding method using the camera according to the embodiment will be described as follows.

실시예들 중 적어도 하나에 의하면, 카메라장치에 센서와 차량의 제어에 사용되는 제어신호를 생성하기 위한 카메라제어부가 모두 포함되어, 별도의 카메라제어부를 구비할 필요가 없어 공간 마진이 확보되고 차량의 내부 구조가 단순해지며 또한 센서에서 감지된 영상을 처리하기 위해 별도로 구비되는 카메라제어부까지 보낼 필요가 없어 신호의 왜곡이나 전력 손실을 방지할 수 있다 있다는 장점이 있다.According to at least one of the embodiments, the camera device includes both a sensor and a camera control unit for generating a control signal used for controlling the vehicle, so that it is not necessary to provide a separate camera control unit, The internal structure is simplified and there is no need to send a separately provided camera control unit for processing the image sensed by the sensor, thereby preventing signal distortion and power loss.

실시예들 중 적어도 하나에 의하면, 시점 변환을 이용한 영상변환을 통해 객체를 검출할 수 있어, 객체 검출 오류를 획기적으로 줄일 수 있다는 장점이 있다.According to at least one of the embodiments, the object can be detected through the image conversion using the viewpoint conversion, and the object detection error can be remarkably reduced.

실시예들 중 적어도 하나에 의하면, 시점 변환을 이용한 영상변환의 각 점에 설정되는 거리정보를 바탕으로 차량과의 충돌을 사전에 예측 및 방지할 수 있다는 장점이 있다.According to at least one of the embodiments, there is an advantage that the collision with the vehicle can be predicted and prevented based on the distance information set at each point of the image conversion using the viewpoint conversion.

실시예의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 실시예의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 바람직한 실시예와 같은 특정 실시예는 단지 예시로 주어진 것으로 이해되어야 한다. Additional ranges of applicability of the embodiments will be apparent from the following detailed description. It should be understood, however, that various changes and modifications within the spirit and scope of the embodiments will become apparent to those skilled in the art, and that specific embodiments, such as the detailed description and the preferred embodiments, are given by way of example only.

도 1은 실시예에 따른 차량의 시스템을 도시한 블록도이다.
도 2는 실시예에 따른 카메라장치가 장착된 차량의 외관을 도시한 도면이다.
도 3은 실시예에 따른 충돌방지장치를 도시한 블록도이다.
도 4는 도 3의 카메라제어부를 도시한 블록도이다.
도 5는 도 4의 영상처리부를 도시한 블록도이다.
도 6은 도 4의 영상처리부에 의해 객체가 검출되는 모습을 도시한 도면이다.
1 is a block diagram showing a system of a vehicle according to an embodiment.
2 is a view showing an appearance of a vehicle equipped with a camera apparatus according to an embodiment.
3 is a block diagram showing an anti-collision apparatus according to an embodiment.
4 is a block diagram showing the camera controller of FIG.
5 is a block diagram showing the image processing unit of FIG.
FIG. 6 is a diagram illustrating a state in which an object is detected by the image processing unit of FIG. 4. FIG.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 실시예의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. The accompanying drawings are included to provide a further understanding of the invention and are incorporated in and constitute a part of this application, It is to be understood that the invention includes equivalents and alternatives.

도 1은 실시예에 따른 차량의 시스템을 도시한 블록도이다.1 is a block diagram showing a system of a vehicle according to an embodiment.

도 1을 참조하면, 차량(700)은 통신부(710), 입력부(720), 센싱부(760), 출력부(740), 차량 구동부(750), 메모리(730), 인터페이스부(780), ECU(770), 전원부(790), 어라운드뷰 제공장치(100) 및 AVN 장치(400)를 포함할 수 있다.1, a vehicle 700 includes a communication unit 710, an input unit 720, a sensing unit 760, an output unit 740, a vehicle driving unit 750, a memory 730, an interface unit 780, An ECU 770, a power supply unit 790, an around view providing apparatus 100, and an AVN apparatus 400. [

통신부(710)는, 차량(700)과 이동 단말기(600) 사이, 차량(700)과 외부 서버(500) 사이 또는 차량(700)과 타 차량(510)과의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(710)는 차량(700)을 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The communication unit 710 is connected to the communication unit 710 to communicate with the vehicle 700 and the mobile terminal 600, Modules. In addition, the communication unit 710 may include one or more modules that connect the vehicle 700 to one or more networks.

통신부(710)는, 방송 수신 모듈(711), 무선 인터넷 모듈(712), 근거리 통신 모듈(713), 위치 정보 모듈(714) 및 광통신 모듈(715)을 포함할 수 있다.The communication unit 710 may include a broadcast receiving module 711, a wireless Internet module 712, a local area communication module 713, a location information module 714, and an optical communication module 715.

방송 수신 모듈(711)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 또는 방송 관련된 정보를 수신한다. 여기서, 방송은 라디오 방송 또는 TV 방송을 포함한다.The broadcast receiving module 711 receives broadcast signals or broadcast-related information from an external broadcast management server through a broadcast channel. Here, the broadcast includes a radio broadcast or a TV broadcast.

무선 인터넷 모듈(712)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 차량(700)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(712)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The wireless Internet module 712 refers to a module for wireless Internet access, and may be embedded in the vehicle 700 or externally. The wireless Internet module 712 is configured to transmit and receive wireless signals in a communication network according to wireless Internet technologies.

무선 인터넷 기술로는, 예를 들면, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(712)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 예를 들면, 무선 인터넷 모듈(712)은 외부 서버(500)와 무선으로 데이터를 교환할 수 있다. 무선 인터넷 모듈(712)은 외부 서버(500)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))정보를 수신할 수 있다.Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA, WiBro World Wide Interoperability for Microwave Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), and Long Term Evolution-Advanced (LTE-A) (712) transmits and receives data according to at least one wireless Internet technology in a range including internet technologies not listed above. For example, the wireless Internet module 712 can exchange data with the external server 500 wirelessly. The wireless Internet module 712 can receive weather information and road traffic situation information (for example, TPEG (Transport Protocol Expert Group)) information from the external server 500. [

근거리 통신 모듈(713)은, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. The short-range communication module 713 is for short-range communication and may be a Bluetooth ™, a Radio Frequency Identification (RFID), an Infrared Data Association (IrDA), an Ultra Wideband (UWB) It is possible to support near-field communication using at least one of Near Field Communication (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct and Wireless USB (Universal Serial Bus)

이러한, 근거리 통신 모듈(713)은, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신 모듈(713)은 이동 단말기(600) 와 무선으로 데이터를 교환할 수 있다. 근거리 통신 모듈(713)은 이동 단말기 (600)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 가령, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기(600)와 차량은 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.The short range communication module 713 may form short range wireless communication networks (Wireless Area Networks) to perform short range communication between the vehicle and at least one external device. For example, the short-range communication module 713 can exchange data with the mobile terminal 600 wirelessly. The short distance communication module 713 can receive weather information and traffic situation information (e.g., TPEG (Transport Protocol Expert Group)) from the mobile terminal 600. For example, when the user has boarded the vehicle, the user's mobile terminal 600 and the vehicle can perform pairing with each other automatically or by execution of the user's application.

위치 정보 모듈(714)은, 차량의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들어, 차량(700)은 GPS 모듈을 이용하여, GPS 위성에서 보내는 신호를 기초하여 차량(700)의 위치를 획득할 수 있다. The position information module 714 is a module for acquiring the position of the vehicle, and a representative example thereof is a Global Positioning System (GPS) module. For example, the vehicle 700 can use the GPS module to obtain the position of the vehicle 700 based on the signal sent from the GPS satellite.

광통신 모듈(715)은 광발신부와 광수신부를 포함할 수 있다. The optical communication module 715 may include a light emitting portion and a light receiving portion.

광수신부는 광(light)신호를 전기 신호로 전환하여, 정보를 수신할 수 있다. 광수신부는 광을 수신하기 위한 포토 다이오드(PD, Photo Diode)를 포함할 수 있다. 포토 다이오드는 빛을 전기 신호로 전환할 수 있다. 예를 들면, 광수신부는 전방 차량에 포함된 광원에서 방출되는 광을 통해, 전방 차량의 정보를 수신할 수 있다. The light receiving section can convert the light signal into an electric signal and receive the information. The light receiving unit may include a photodiode (PD) for receiving light. Photodiodes can convert light into electrical signals. For example, the light receiving section can receive information of the front vehicle through light emitted from the light source included in the front vehicle.

광발신부는 전기 신호를 광 신호로 전환하기 위한 발광 소자를 적어도 하나 이상 포함할 수 있다. 여기서, 발광 소자는 LED(Light Emitting Diode)인 것이 바람직하다. 광발신부는 전기 신호를 광 신호로 전환하여, 외부에 발신한다. 예를 들면, 광 발신부는 소정 주파수에 대응하는 발광소자의 점멸을 통해, 광신호를 외부에 방출할 수 있다. 실시 예에 따라, 광발신부는 복수의 발광 소자 어레이를 포함할 수 있다. 실시 예에 따라, 광발신부는 차량에 구비된 램프와 일체화될 수 있다. 예를 들어, 광발신부는 전조등, 후미등, 제동등, 방향 지시등 및 차폭등 중 적어도 어느 하나일 수 있다. The light emitting unit may include at least one light emitting element for converting an electric signal into an optical signal. Here, the light emitting element is preferably an LED (Light Emitting Diode). The optical transmitter converts the electrical signal into an optical signal and transmits it to the outside. For example, the optical transmitter can emit the optical signal to the outside through the blinking of the light emitting element corresponding to the predetermined frequency. According to an embodiment, the light emitting portion may include a plurality of light emitting element arrays. According to the embodiment, the light emitting portion can be integrated with the lamp provided in the vehicle. For example, the light emitting portion may be at least one of a headlight, a tail light, a brake light, a turn signal lamp, and a car light.

일 실시 예에 의하면, 광통신 모듈(715)은 광 통신을 통해 타 차량 (510)과 데이터를 교환할 수 있다.According to one embodiment, the optical communication module 715 can exchange data with another vehicle 510 via optical communication.

입력부(720)는 운전 조작 수단(721), 카메라 장치(722), 마이크로 폰(723), 사용자 입력부(724) 및 모니터링부(725)를 포함할 수 있다.The input unit 720 may include a driving operation unit 721, a camera unit 722, a microphone 723, a user input unit 724, and a monitoring unit 725.

운전 조작 수단(721)은 차량 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단(721)은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단 등을 포함할 수 있다. The driving operation means 721 receives a user input for driving the vehicle. The driving operation means 721 may include a steering input means, a shift input means, an acceleration input means, a brake input means, and the like.

조향 입력 수단은 차량(700)의 진행 방향에 대한 입력을 수신한다. 조향 입력 수단은 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성되는 것이 바람직하다. 실시 예에 따라, 조향 입력 수단은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.The steering input means receives an input for the traveling direction of the vehicle 700. It is preferable that the steering input means is formed in a wheel shape so that steering input can be performed by rotation. According to an embodiment, the steering input means may be formed of a touch screen, a touch pad or a button.

쉬프트 입력 수단은, 차량의 주차(P), 전진(D), 중립(N) 및 후진(R)에 대한 입력을 수신한다. 쉬프트 입력 수단은 레버 형태로 형성되는 것이 바람직하다. 실시 예에 따라, 쉬프트 입력 수단은 터치 스크린이나 터치 패드 또는 버튼으로 형성될 수 있다. The shift input means receives inputs for parking (P), forward (D), neutral (N) and reverse (R) of the vehicle. The shift input means is preferably formed in a lever shape. According to an embodiment, the shift input means may be formed of a touch screen, a touch pad or a button.

가속 입력 수단은 차량의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은 차량의 감속을 위한 입력을 수신한다. 이 경우, 가속 입력 수단 및 브레이크 입력 수단은 페달 형태로 형성되는 것이 바람직하다. 실시 예에 따라, 가속 입력 수단 또는 브레이크 입력 수단은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수 있다.The acceleration input means receives an input for acceleration of the vehicle. The brake input means receives an input for deceleration of the vehicle. In this case, the acceleration input means and the brake input means are preferably formed in a pedal shape. According to an embodiment, the acceleration input means or the brake input means may be formed of a touch screen, a touch pad or a button.

카메라 장치(722)는 이미지 센서와 영상처리모듈을 포함할 수 있다. 카메라 장치 (722)는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상처리모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여 필요한 정보를 추출하고, 추출된 정보를 ECU(770)에 전달할 수 있다. 한편, 차량(700)은 차량 전방 영상 또는 차량 주변 영상을 촬영하는 카메라 장치(722) 및 차량 내부 영상을 촬영하는 모니터링부(725)를 포함할 수 있다.The camera device 722 may include an image sensor and an image processing module. The camera device 722 may process still images or moving images obtained by an image sensor (e.g., CMOS or CCD). The image processing module may process the still image or moving image obtained through the image sensor to extract necessary information, and may transmit the extracted information to the ECU 770. Meanwhile, the vehicle 700 may include a camera device 722 for photographing a vehicle front image or a vehicle periphery image, and a monitoring unit 725 for photographing an in-vehicle image.

모니터링부(725)는 탑승자에 대한 이미지를 획득할 수 있다. 모니터링부(725)는 탑승자의 생체 인식을 위한 이미지를 획득할 수 있다.The monitoring unit 725 may acquire an image of the occupant. The monitoring unit 725 may obtain an image for biometrics of the occupant.

한편, 도 1에서는 모니터링부(725)와 카메라 장치(722)가 입력부(720)에 포함되는 것으로 도시하였으나, 카메라 장치(722)는 전술한 바와 같이 어라운드뷰 제공장치(100)에 포함될 수도 있다.1, the monitoring unit 725 and the camera device 722 are included in the input unit 720. However, the camera device 722 may be included in the surround view providing apparatus 100 as described above.

마이크로폰(723)은 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량(700)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 마이크로폰(723)은 사용자의 음성 명령을 전기적 데이터로 전환할 수 있다. 전환된 전기적 데이터는 ECU(770)에 전달될 수 있다.The microphone 723 can process an external acoustic signal into electrical data. The processed data can be utilized variously according to functions performed in the vehicle 700. The microphone 723 can convert the voice command of the user into electrical data. The converted electrical data may be transmitted to the ECU 770.

사용자 입력부(724)는 사용자로부터 정보를 입력 받을 수 있다. 사용자 입력부(724)를 통해 정보가 입력되면, ECU(770)는 입력된 정보에 대응되도록 차량(700)의 동작을 제어할 수 있다. 사용자 입력부(724)는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다. 실시 예에 따라, 사용자 입력부(724) 는 스티어링 휠의 일 영역에 배치될 수 있다. 이 경우, 운전자는 스티어링 휠을 잡은 상태에서, 손가락으로 사용자 입력부(724)를 조작할 수 있다.The user input unit 724 can receive information from the user. When information is input through the user input unit 724, the ECU 770 can control the operation of the vehicle 700 to correspond to the input information. The user input unit 724 may include touch input means or mechanical input means. According to an embodiment, the user input 724 may be located in one area of the steering wheel. In this case, the driver can operate the user input portion 724 with his / her finger while holding the steering wheel.

센싱부(760)는, 차량의 주행 등과 관련한 신호를 센싱한다. 이를 위해, 센싱부(760)는 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 레이더, 라이더 등을 포함할 수 있다.The sensing unit 760 senses a signal related to the running or the like of the vehicle. For this purpose, the sensing unit 760 may include a sensor, a wheel sensor, a speed sensor, a tilt sensor, a weight sensor, a heading sensor, a yaw sensor, a gyro sensor, It can include a position module, a vehicle forward / backward sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor by steering wheel rotation, a vehicle internal temperature sensor, an internal humidity sensor, an ultrasonic sensor, a radar, have.

이에 의해, 센싱부(760)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도 등에 대한 센싱 신호를 획득할 수 있다.Thereby, the sensing unit 760 can acquire the vehicle collision information, vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, , Fuel information, tire information, vehicle lamp information, vehicle interior temperature information, vehicle interior humidity information, steering wheel rotation angle, and the like.

한편, 센싱부(760)는, 그 외에도 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS) 등을 더 포함할 수 있다.In addition, the sensing unit 760 may include an acceleration pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor AFS, an intake air temperature sensor ATS, a water temperature sensor WTS, A sensor (TPS), a TDC sensor, a crank angle sensor (CAS), and the like.

센싱부(760)는 생체 인식 정보 감지부를 포함할 수 있다. 생체 인식 정보 감지부는 탑승자의 생체 인식 정보를 감지하여 획득한다. 생체 인식 정보는 지문 인식(Fingerprint) 정보, 홍채 인식(Iris-scan) 정보, 망막 인식(Retina-scan) 정보, 손모양(Hand geo-metry) 정보, 안면 인식(Facial recognition) 정보, 음성 인식(Voice recognition) 정보를 포함할 수 있다. 생체 인식 정보 감지부는 탑승자의 생체 인식 정보를 센싱하는 센서를 포함할 수 있다. 여기서, 모니터링부(725) 및 마이크로 폰(723)이 센서로 동작할 수 있다. 생체 인식 정보 감지부는 모니터링부(725)를 통해, 손모양 정보, 안면 인식 정보를 획득할 수 있다. The sensing unit 760 may include a biometric information sensing unit. The biometric information sensing unit senses and acquires the biometric information of the passenger. The biometric information may include fingerprint information, iris-scan information, retina-scan information, hand geo-metry information, facial recognition information, Voice recognition information. The biometric information sensing unit may include a sensor that senses the passenger's biometric information. Here, the monitoring unit 725 and the microphones 723 may operate as sensors. The biometric information sensing unit can acquire the hand shape information and the face recognition information through the monitoring unit 725.

출력부(740)는 ECU(770)에서 처리된 정보를 출력하기 위한 구성요소로서, 디스플레이부(741), 음향 출력부(742) 및 햅틱 출력부(743)를 포함할 수 있다.The output unit 740 may include a display unit 741, an acoustic output unit 742, and a haptic output unit 743 as components for outputting information processed by the ECU 770. [

디스플레이부(741)는 ECU(770)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(741)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.The display unit 741 can display information processed by the ECU 770. [ For example, the display unit 741 can display the vehicle-related information. Here, the vehicle-related information may include vehicle control information for direct control of the vehicle, or vehicle driving assistance information for a driving guide to the vehicle driver. Further, the vehicle-related information may include vehicle state information indicating the current state of the vehicle or vehicle driving information related to the driving of the vehicle.

디스플레이부(741)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중 적어도 하나에 의해 구현될 수 있다.The display unit 741 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) display, a 3D display, and an e-ink display.

디스플레이부(741)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량(700)과 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(724)로써 기능함과 동시에, 차량(700)과 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이 경우, 디스플레이부(741)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(741)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(741)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, ECU(770)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 구성될 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The display unit 741 may have a mutual layer structure with the touch sensor or may be integrally formed to realize a touch screen. This touch screen may function as a user input 724 that provides an input interface between the vehicle 700 and the user and may provide an output interface between the vehicle 700 and the user. In this case, the display unit 741 may include a touch sensor that senses a touch with respect to the display unit 741 so that a control command can be received by a touch method. When a touch is made to the display unit 741, the touch sensor senses the touch, and the ECU 770 generates a control command corresponding to the touch based on the touch. The content input by the touch method may be a letter or a number, an instruction in various modes, a menu item which can be designated, and the like.

한편, 디스플레이부(741)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the display unit 741 may include a cluster so that the driver can check the vehicle state information or the vehicle driving information while driving. Clusters can be located on the dashboard. In this case, the driver can confirm the information displayed in the cluster while keeping the line of sight ahead of the vehicle.

한편, 실시예에 따라, 디스플레이부(741)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(741)가 HUD로 구현되는 경우, 윈드 쉴드에 구비되는 투명 디스플레이를 통해 정보를 출력할 수 있다. 또는, 디스플레이부(741)는 투사 모듈을 구비하여 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.Meanwhile, according to the embodiment, the display unit 741 may be implemented as a Head Up Display (HUD). When the display unit 741 is implemented as a HUD, information can be output through a transparent display provided in the windshield. Alternatively, the display unit 741 may include a projection module to output information through an image projected on the windshield.

음향 출력부(742)는 ECU(770)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(742)는 스피커 등을 구비할 수 있다. 음향 출력부(742)는 사용자 입력부(724)에 의해 입력된 동작에 대응하는 사운드를 출력할 수도 있다.The sound output unit 742 converts an electric signal from the ECU 770 into an audio signal and outputs it. For this purpose, the sound output unit 742 may include a speaker or the like. The sound output section 742 may output a sound corresponding to the operation input by the user input section 724. [

햅틱 출력부(743)는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(743)는 스티어링 휠, 안전 벨트, 시트를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.The haptic output unit 743 generates a tactile output. For example, the haptic output section 743 may vibrate the steering wheel, the seat belt, and the seat so that the user can operate to recognize the output.

차량 구동부(750)는 차량(700)에 포함되는 각종 장치 및 구성요소의 동작을 제어할 수 있다. 차량 구동부(750)는 동력원 구동부(751), 조향 구동부 (752), 브레이크 구동부(753), 램프 구동부(754), 공조 구동부(755), 윈도우 구동부(756), 에어백 구동부(757), 썬루프 구동부(758) 및 서스펜션 구동부(759)를 포함할 수 있다.The vehicle drive unit 750 can control the operation of various devices and components included in the vehicle 700. [ The vehicle driving unit 750 includes a power source driving unit 751, a steering driving unit 752, a brake driving unit 753, a lamp driving unit 754, an air conditioning driving unit 755, a window driving unit 756, an airbag driving unit 757, A driving unit 758 and a suspension driving unit 759.

동력원 구동부(751)는, 차량(700) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. The power source driving unit 751 can perform electronic control on the power source in the vehicle 700. [

예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(751)는 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(751)가 엔진인 경우, ECU(770)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.For example, when a fossil fuel-based engine (not shown) is a power source, the power source drive unit 751 can perform electronic control of the engine. Thus, the output torque of the engine and the like can be controlled. When the power source driving unit 751 is an engine, the speed of the vehicle can be limited by limiting the engine output torque under the control of the ECU 770. [

다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(751)는 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.As another example, when the electric motor (not shown) is a power source, the power source driving unit 751 can perform control on the motor. Thus, the rotation speed, torque, etc. of the motor can be controlled.

조향 구동부(752)는, 차량 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.The steering driver 752 may perform electronic control of a steering apparatus in the vehicle. Thus, the traveling direction of the vehicle can be changed.

브레이크 구동부(753)는, 차량 내의 브레이크 장치(brake apparatus) (미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량의 구륜속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driver 753 can perform electronic control of a brake apparatus (not shown) in the vehicle. For example, the operation of the brake disposed on the wheel can be controlled to reduce the wheel speed of the vehicle. As another example, it is possible to adjust the traveling direction of the vehicle to the left or right by differently operating the brakes respectively disposed on the left wheel and the right wheel.

램프 구동부(754)는, 차량 내부 및 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driving unit 754 can control the turn-on / turn-off of the lamp disposed inside and outside the vehicle. Also, the intensity, direction, etc. of the light of the lamp can be controlled. For example, it is possible to perform control on a direction indicating lamp, a brake lamp, and the like.

공조 구동부(755)는, 차량 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량 내부의 온도가 높은 경우, 공조 장치를 동작시켜 냉기가 차량(700) 내부로 공급되도록 제어할 수 있다. The air conditioning driving unit 755 can perform electronic control on an air conditioner (not shown) in the vehicle. For example, when the temperature inside the vehicle is high, it is possible to control the air conditioner to operate so that the cool air is supplied to the interior of the vehicle 700.

윈도우 구동부(756)는 차량 내의 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량(700)의 측면의 좌측 및 우측 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다. The window driving unit 756 may perform electronic control of the window apparatus in the vehicle. For example, it may control the opening or closing of left and right windows of side 700 of the vehicle.

에어백 구동부(757)는, 차량 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 사고 위험시, 에어백이 터지도록 제어할 수 있다.The airbag driving unit 757 can perform electronic control of the airbag apparatus in the vehicle. For example, in the event of an accident, the airbag can be controlled to fire.

썬루프 구동부(758)는, 차량 내의 썬루프 장치(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.The sunroof driving unit 758 can perform electronic control of a sunroof device (not shown) in the vehicle. For example, the opening or closing of the sunroof can be controlled.

서스펜션 구동부(759)는 차량(700) 내의 서스펜션 장치(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량의 진동이 저감되도록 제어할 수 있다.The suspension driving unit 759 can perform electronic control on a suspension device (not shown) in the vehicle 700. [ For example, when there is a curvature on the road surface, it is possible to control the suspension device so as to reduce the vibration of the vehicle.

메모리(730)는, ECU(770)와 전기적으로 연결된다. 메모리(770)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(730)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장매체 일 수 있다. 메모리(730)는 ECU(770)의 처리 또는 제어를 위한 프로그램 등, 차량 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The memory 730 is electrically connected to the ECU 770. The memory 770 may store basic data for the unit, control data for controlling the operation of the unit, and input / output data. The memory 730 may be, in hardware, various storage media such as ROM, RAM, EPROM, flash drive, hard drive, and the like. The memory 730 may store various data for operation throughout the vehicle, such as a program for processing or controlling the ECU 770. [

인터페이스부(780)는, 차량(700)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(780)는 이동 단말기(600)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해 이동 단말기(600)와 연결될 수 있다. 이 경우, 인터페이스부(780)는 이동 단말기(600) 와 데이터를 교환할 수 있다.The interface unit 780 may serve as a pathway to various kinds of external devices connected to the vehicle 700. For example, the interface unit 780 may include a port that can be connected to the mobile terminal 600, and may be connected to the mobile terminal 600 through the port. In this case, the interface unit 780 can exchange data with the mobile terminal 600.

한편, 인터페이스부(780)는 연결된 이동 단말기(600)에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기(600)가 인터페이스부(780)에 전기적으로 연결되는 경우, ECU(770)의 제어에 따라 인터페이스부(780)는 전원부(790)에서 공급되는 전기 에너지를 이동 단말기(600)에 제공한다.Meanwhile, the interface unit 780 may serve as a channel for supplying electrical energy to the connected mobile terminal 600. The interface unit 780 provides electric energy supplied from the power supply unit 790 to the mobile terminal 600 under the control of the ECU 770 when the mobile terminal 600 is electrically connected to the interface unit 780 .

ECU(770)는 차량(700) 내의 각 구성요소들의 전반적인 동작을 제어할 수 있다. ECU(770)는 ECU(Electronic Contol Unit)로 명명될 수 있다.The ECU 770 can control the overall operation of each component in the vehicle 700. [ The ECU 770 may be referred to as an ECU (Electronic Control Unit).

이러한 ECU(770)은 어라운드뷰 제공장치(100)의 실행 신호 전달에 따라, 전달된 신호에 대응되는 기능을 실행할 수 있다. The ECU 770 can perform a function corresponding to the delivered signal in accordance with the execution signal transfer of the surrounding view providing apparatus 100. [

ECU(770)는 하드웨어적으로 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러 (micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나의 형태로 구현될 수 있다.ECU 770 may be implemented in hardware as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs) Controllers, micro-controllers, microprocessors, and other electronic units for performing other functions.

전원부(790)는 ECU(770)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 이 경우, 전원부(790)는 차량 내부의 배터리 (미도시) 등으로부터 전원을 공급받을 수 있다.The power supply unit 790 can supply power necessary for the operation of each component under the control of the ECU 770. [ In this case, the power supply unit 790 can receive power from a battery (not shown) or the like inside the vehicle.

AVN(Audio Video Navigation) 장치(400)는 ECU(770)와 데이터를 교환할 수 있다. ECU(770)는 AVN 장치(400) 또는 별도의 네비게이션 장치 (미도시)로부터 네비게이션 정보를 수신할 수 있다. 여기서, 네비게이션 정보는 설정된 목적지 정보, 상기 목적지에 따른 경로 정보, 차량 주행과 관련한 맵 정보 또는 차량 위치 정보 등을 포함할 수 있다.AVN (Audio Video Navigation) device 400 can exchange data with ECU 770. ECU 770 can receive navigation information from AVN device 400 or a separate navigation device (not shown). Here, the navigation information may include set destination information, route information according to the destination, map information related to driving the vehicle, or vehicle location information.

도 2는 실시예에 따른 카메라 장치가 차량에 배치된 모습을 도시한다.Fig. 2 shows a state in which the camera device according to the embodiment is disposed in the vehicle.

카메라장치(도1의 722)는 차량의 다수의 위치에 장착될 수 있다. The camera device (722 in Figure 1) can be mounted at multiple locations on the vehicle.

예컨대, 카메라장치(722)는 차량 바디의 전후와 좌우 및 천장 중 적어도 하나의 위치에 배치될 수 있다. For example, the camera device 722 may be disposed at positions of at least one of the front, back, right, left, and ceiling of the vehicle body.

카메라장치(722)와 함께 거리센서도 장착될 수 있지만, 이에 대해서는 한정하지 않는다. A distance sensor may also be fitted with the camera device 722, but this is not limiting.

차량 바디의 각 위치에 장착된 카메라장치(722)에 의해 차량의 전후와 좌우를 감시할 수 있다. The front, rear, left and right sides of the vehicle can be monitored by the camera device 722 mounted at each position of the vehicle body.

구체적으로, 차량 바디의 전방에 장착된 카메라장치는 전방카메라장치(160a)이고, 차량 바디의 후방에 장착된 카메라장치는 후방카메라장치(160c)이고, 차량 바디의 우측에 장착된 카메라장치는 우측카메라장치(160c)이며, 차량 바디의 좌측에 장착된 카메라장치는 좌측카메라장치(160d)일 수 있다. Specifically, the camera device mounted on the front of the vehicle body is the front camera device 160a, the camera device mounted on the rear side of the vehicle body is the rear camera device 160c, and the camera device mounted on the right- The camera device 160c, and the camera device mounted on the left side of the vehicle body may be the left camera device 160d.

전방카메라장치(160a), 우측카메라장치(160b), 후방카메라장치(160c) 및 좌측카메라장치(160d) 각각은 제1 내지 제4 카메라장치로 명명될 수도 있다. Each of the front camera device 160a, the right camera device 160b, the rear camera device 160c and the left camera device 160d may be referred to as first to fourth camera devices.

이와 달리, 다수의 카메라장치(160a, 160b, 160c, 160d) 중 제일 먼저 언급되는 카메라장치가 제1 카메라장치로 명명되고, 그 다음 언급되는 카메라장치가 제2 카메라장치로 언급될 수도 있다. Alternatively, among the plurality of camera devices 160a, 160b, 160c, and 160d, the first-mentioned camera device may be referred to as a first camera device, and the next-mentioned camera device may be referred to as a second camera device.

전방카메라장치(160a)는 앰블럼 부근 또는 라디에이터 그릴 부근에 배치될 수 있다. 전방카메라장치(160a)는 주행 방향의 전방을 촬영하여 전방영상을 획득하고, 전방영상으로부터 전방객체를 감시하여 감시결과에 따라 전방객체와의 충돌을 방지하도록 조치하기 위한 전방제어신호를 생성할 수 있다. 여기서, 조치로는 경고, 감속, 또는 정지 등이 있다.The front camera device 160a may be disposed in the vicinity of the ambulance or in the vicinity of the radiator grill. The front camera device 160a may generate a forward control signal for capturing a forward image by capturing a forward direction in the driving direction, monitoring a forward object from the forward image, and preventing collision with the forward object according to the monitoring result have. Here, the action may be warning, decelerating, or stopping.

우측카메라장치(160b)는 우측 사이드 미러를 둘러싸는 케이스 내에 배치될 수 있다. 우측카메라장치(160b)는 우측 사이드 미러를 둘러싸는 케이스 외부에 배치되거나, 우측 프런트 도어나 우측 리어 도어 또는 우측 휀더(fender) 외측의 일 영역에 배치될 수도 있다. 우측카메라장치(160b)는 우측 방향의 영상을 촬영하여 우측영상을 획득하고, 우측영상으로부터 우측객체를 감시하여 감시결과에 따라 우측객체와의 충돌을 방지하도록 조치하기 위한 우측제어신호를 생성할 수 있다. The right camera device 160b may be disposed in a case surrounding the right side mirror. The right camera device 160b may be disposed outside the case surrounding the right side mirror, or may be disposed in one area outside the right front door, the right rear door, or the right fender. The right camera device 160b may generate a right control signal for capturing a right image to acquire a right image and monitoring the right object from the right image to prevent collision with the right object according to the monitoring result have.

후방카메라장치(160c)는 후방 번호판 또는 트렁크 스위치 부근에 배치될 수 있다. 후방카메라장치(160c)는 주행 방향의 후방을 촬영하여 후방 영상을 획득하고, 후방영상으로부터 후방객체를 감시하여 감시결과에 따라 후방객체와의 충돌을 방지하도록 조치하기 위한 후방제어신호를 생성할 수 있다. The rear camera device 160c may be disposed in the vicinity of a rear license plate or a trunk switch. The rear camera device 160c may generate a rear control signal for capturing a backward image in the driving direction to acquire a backward image and monitoring a rearward object from the rearward image to prevent collision with the rearward object according to the monitoring result have.

좌측카메라장치(160d)는 좌측 사이드 미러를 둘러싸는 케이스 내에 배치될 수 있다. 실시 예에 따라, 좌측카메라장치(160d)는 좌측 사이드 미러를 둘러싸는 케이스 외부에 배치되거나, 좌측 프런트 도어나 좌측 리어 도어 또는 좌측 휀더(fender) 외측의 일 영역에 배치될 수도 있다. 좌측카메라장치(160d)는 좌측 방향의 영상을 촬영하여 좌측영상을 획득하고, 좌측영상으로부터 좌측객체를 감시하여 감시결과에 따라 좌측객체와의 충돌을 방지하도록 조치하기 위한 좌측제어신호를 생성할 수 있다. The left camera device 160d may be disposed in a case surrounding the left side mirror. According to the embodiment, the left camera device 160d may be disposed outside the case surrounding the left side mirror, or may be disposed in one area outside the left front door, the left rear door, or the left fender. The left camera device 160d may generate a left control signal to capture a left side image to acquire a left side image and to monitor a left side object from the left side image and to prevent a collision with the left side object according to a monitoring result have.

도시되지 않았지만, 차량의 천장에 추가적으로 카메라장치가 설치될 수도 있다. 천장 카메라장치는 차량의 전후 및 좌우 방향을 모두 촬영할 수 있다.Although not shown, an additional camera device may be installed in the ceiling of the vehicle. The ceiling camera device can photograph both forward, backward and leftward and rightward directions of the vehicle.

아울러, 필요에 따라 전방, 우측, 후방 및 좌측 카메라장치(160a, 160b, 160c, 160d) 이외에 추가로 카메라장치가 더 설치될 수도 있다.Further, in addition to the front, right, rear and left camera devices 160a, 160b, 160c, and 160d, a camera device may be additionally provided if necessary.

도 3은 실시예에 따른 충돌방지장치를 도시한 블록도이다.3 is a block diagram showing an anti-collision apparatus according to an embodiment.

도 3을 참조하면, 실시예에 따른 충돌방지장치는 카메라장치(722), ECU(770) 및 디스플레이부(741)를 포함할 수 있다.Referring to FIG. 3, the anti-collision apparatus according to the embodiment may include a camera apparatus 722, an ECU 770, and a display unit 741.

카메라장치(722)는 도 2에 도시된 다수의 카메라(160a, 160b, 160c, 150d) 중 적어도 하나의 카메라장치일 있다. The camera device 722 is at least one of the plurality of cameras 160a, 160b, 160c, and 150d shown in FIG.

이하의 설명에서, 카메라장치(722)는 도 2에 도시된 후방카메라장치(160c)를 가정하고 설명하지만, 이에 대해서는 한정하지 않는다.In the following description, the camera device 722 is assumed to be the rear camera device 160c shown in Fig. 2, but the present invention is not limited thereto.

카메라장치(722)는 실시간으로 영상신호를 획득할 수 있다. 예컨대, 카메라장치(722)는 차량의 후방에 보여지는 객체에 대한 영상을 실시간으로 촬영할 수 있다. 카메라장치(722)는 획득된 영상을 처리 또는 분석하여 제어신호를 생성할 수 있다. The camera device 722 can acquire a video signal in real time. For example, the camera device 722 can photograph an image of an object seen behind the vehicle in real time. The camera device 722 may process or analyze the acquired image to generate a control signal.

보다 구체적으로 설명하면, 카메라장치(722)는 센서(10) 및 카메라제어부(20)를 포함할 수 있다. More specifically, the camera device 722 may include a sensor 10 and a camera control unit 20. [

센서는 실시간으로 영상을 촬영하는 소자로서, 예컨대 이미지센서일 수 있다. 이미지센서는 CCD(Charge-Coupled Device) 이미지센서나 CMOS(Complementary Metal-Oxide Semiconductor) 이미지센서일 수 있다. The sensor is an element for capturing an image in real time, and may be, for example, an image sensor. The image sensor may be a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor.

센서(10)로부터 촬영된 영상은 카메라제어부(20)로 전달될 수 있다.An image photographed from the sensor 10 may be transmitted to the camera controller 20. [

카메라제어부(20)는 촬영된 영상을 토대로 영상신호를 획득하고, 그 획득된 영상신호를 처리 또는 분석하여 제어신호를 생성할 수 있다. The camera control unit 20 can acquire a video signal based on the photographed image and process or analyze the obtained video signal to generate a control signal.

제어신호는 충돌방지를 위한 제어신호일 수 있다. 예컨대, 제어신호는 경고음을 출력하도록 하는 경고음출력제어신호일 수 있다. 예컨대, 제어신호는 차량의 구륜속도를 줄이도록 하는 감속제어신호일 수 있다. 예컨대, 제어신호는 차량을 정지시키도록 하는 정지제어신호일 수 있다. The control signal may be a control signal for preventing collision. For example, the control signal may be a warning sound output control signal for outputting a warning sound. For example, the control signal may be a deceleration control signal to reduce the vehicle's wheel speed. For example, the control signal may be a stop control signal that causes the vehicle to stop.

이 이외에도 다양한 제어신호가 생성되어 ECU(770)로 전송될 수 있다.Various control signals may be generated and transmitted to the ECU 770.

카메라제어부(20)는 영상신호의 처리 또는 분석을 통해 영상에서 추출된 객체와 차량이 충돌하지 않도록 사전에 조치할 수 있는 제어신호를 생성할 수 있다.The camera control unit 20 can generate a control signal that can be taken in advance to prevent the vehicle and the object extracted from the image from colliding with each other through processing or analysis of the video signal.

카메라제어부(20)에서 획득된 영상신호는 디스플레이부(741)로 전송될 수 있다. 디스플레이부(741)는 해당 영상신호를 디스플레이할 수 있다. 디스플레이부(741) 상에 디스플레이되는 영상을 통해 운전자(또는 사용자)는 해당 카메라장치(722)의 후방 상태를 파악할 수 있다. The image signal obtained by the camera control unit 20 can be transmitted to the display unit 741. [ The display unit 741 can display the corresponding video signal. The driver (or user) can grasp the rear state of the camera device 722 through the image displayed on the display unit 741. [

카메라장치(722)의 센서(10)와 디스플레이부(741) 사이에는 이더넷(Ethernet)통신이 가능하다. 따라서, 카메라장치(722)의 센서(10)로부터 촬영된 영상은 영상신호로서 이더넷통신을 이용하여 디스플레이부(741)로 전송될 수 있다.Ethernet communication is possible between the sensor 10 of the camera device 722 and the display unit 741. [ Therefore, the image photographed from the sensor 10 of the camera device 722 can be transmitted to the display unit 741 using the Ethernet communication as a video signal.

카메라제어부(20)에서 생성된 제어신호는 ECU(770)로 전송될 수 있다. 카메라제어부(20)와 ECU(770)는 CAN(Controller Area Network)통신이 가능하다. 따라서, 카메라제어부(20)에서 생성된 제어신호는 CAN통신을 이용하여 ECU(770)로 전송될 수 있다. The control signal generated by the camera control unit 20 may be transmitted to the ECU 770. [ The camera control unit 20 and the ECU 770 are capable of CAN (Controller Area Network) communication. Therefore, the control signal generated by the camera control unit 20 can be transmitted to the ECU 770 using the CAN communication.

CAN통신은 차량 내에서 호스트 컴퓨터 없이 ECU(770)나 장치들이 서로 통신하기 위해 설계된 표준 통신 규격으로서, 메시지 기반 프로토콜이다. CAN communication is a message-based protocol, a standard communication standard designed for the ECU 770 or devices to communicate with each other without a host computer in the vehicle.

ECU(770)는 카메라장치(722)로부터 전송된 제어신호에 응답하여 대응되는 조치가 취해지도록 제어할 수 있다.ECU 770 can control so that a corresponding action is taken in response to the control signal transmitted from camera device 722. [

예컨대, 경고음출력제어신호가 카메라장치(722)로부터 전송되는 경우, ECU(770)는 음향출력부(도 1의 742)를 제어하여 경고음을 출력할 수 있다.For example, when a warning sound output control signal is transmitted from the camera apparatus 722, the ECU 770 may control the sound output section (742 in FIG. 1) to output a warning sound.

예컨대, 감속제어신호가 카메라장치(722)로부터 전송되는 경우, ECU(770)는 브레이크구동부(도 1의 753)를 제어하여 차량의 구륜속도를 강제적으로 줄일 수 있다. 다른 예로서, ECU(770)는 감속제어신호에 응답하여 영상표시나 음성출력 등으로 사용자에게 전달하여 사용자가 브레이크를 걸도록 할 수 있다.For example, when the deceleration control signal is transmitted from the camera device 722, the ECU 770 can control the brake driver (753 in Fig. 1) to forcibly reduce the vehicle's wheel speed. As another example, the ECU 770 can transmit a video display, an audio output, or the like to the user in response to the deceleration control signal so that the user can apply a brake.

예컨대, 정지제어신호가 카메라장치(722)로부터 전송되는 경우, ECU(770)는 브레이크구동부(도 1의 753)를 제어하여 차량을 강제로 정지시킬 수 있다. 다른 예로서, ECU(770)는 정지제어신호에 응답하여 영상표시나 음성출력 등으로 사용자에게 전달하여 사용자가 차량을 정지하도록 할 수 있다. For example, when the stop control signal is transmitted from the camera device 722, the ECU 770 can control the brake driver (753 in Fig. 1) to forcibly stop the vehicle. As another example, the ECU 770 can transmit the image display, the audio output, or the like to the user in response to the stop control signal so that the user can stop the vehicle.

ECU(770)는 도 1에서 설명한 바와 같이, 차량(700) 내의 각 구성요소들의 전반적인 동작을 제어하는 것으로서, 넓은 의미로 제어장치로 명명될 수 있다. The ECU 770, as described in FIG. 1, controls the overall operation of each component in the vehicle 700, and can be broadly termed a control device.

ECU(770)의 제어 하에 도 1에 도시된 입력부, 통신부, 출력부, 차량구동부가 동작될 수 있다.The input unit, the communication unit, the output unit, and the vehicle driving unit shown in Fig. 1 may be operated under the control of the ECU 770. [

이하에서 도 3에 도시된 카메라제어부(20)를 보다 더 상세하게 설명한다.Hereinafter, the camera control unit 20 shown in FIG. 3 will be described in more detail.

도 4는 도 3의 카메라제어부를 도시한 블록도이다.4 is a block diagram showing the camera controller of FIG.

도 4를 참조하면, 카메라제어부(20)는 영상획득부(30), 영상처리부(40) 및 전송부(50)를 포함할 수 있다. Referring to FIG. 4, the camera control unit 20 may include an image acquisition unit 30, an image processing unit 40, and a transmission unit 50.

영상획득부(30)는 센서(10)로부터 촬영된 영상을 바탕으로 영상신호를 획득할 수 있다. The image acquiring unit 30 can acquire a video signal based on the image photographed from the sensor 10. [

영상처리부(40)는 획득된 영상신호를 분석 또는 처리하여 제어신호를 생성할 수 있다. 제어신호는 상술한 바와 같이, 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상일 수 있다. The image processing unit 40 may analyze or process the acquired image signal to generate a control signal. The control signal may be at least one of a warning sound output control signal, a deceleration control signal, and a stop control signal, as described above.

도 5는 도 4의 영상처리부를 도시한 블록도이다.5 is a block diagram showing the image processing unit of FIG.

도 5를 참조하면, 영상처리부(40)는 왜곡보정부(41), 영상변환부(43), 특징추출부(45), 객체검출부(47), 객체거리산출부(48) 및 제어신호생성부(49)를 포함할 수 있다.5, the image processing unit 40 includes a distortion correction unit 41, an image conversion unit 43, a feature extraction unit 45, an object detection unit 47, an object distance calculation unit 48, (49).

왜곡보정부(41)는 영상획득부(30)로부터 획득된 영상신호(이하, 제1 영상신호라 함)에서의 왜곡을 보정할 수 있다. 보정된 영상신호는 제2 영상신호로 명명될 수 있다. The distortion correction unit 41 can correct the distortion in the image signal obtained from the image acquisition unit 30 (hereinafter, referred to as the first image signal). The corrected video signal can be named as a second video signal.

제1 영상신호에 왜곡이 발생될 확률이 없는 경우, 왜곡보정부(41)는 생략될 수 있다. If there is no probability that distortion occurs in the first video signal, the distortion correction unit 41 may be omitted.

영상변환부(43)는 시점(viewpoint) 변환을 이용하여 제2 영상신호를 위에서 바닥을 향해 수직으로 보여지는 영상신호로 변환할 수 있다. 변환된 영상신호는 제3 영상신호로 명명될 수 있다. 다시 말해, 제2 영상신호는 수평방향으로 보여지는 영상신호이다. 따라서, 수평방향에 대한 시점을 수직방향에 대한 시점으로 변환하여 줌으로써, 제2 영상신호가 수직방향으로 보여지는 제3 영상신호로 변환될 수 있다. The image converting unit 43 may convert the second video signal into a video signal that is vertically viewed from the top to the bottom using viewpoint conversion. The converted image signal may be named as a third image signal. In other words, the second video signal is a video signal viewed in the horizontal direction. Thus, by converting the viewpoint in the horizontal direction to the viewpoint in the vertical direction, the second video signal can be converted into a third video signal viewed in the vertical direction.

제2 영상신호의 변환에는 극(polar)좌표계나 직교(Cartesian)좌표계가 사용될 수 있다. 이러한 좌표계는 점의 위치를 수치로 표현하는 방식이다. A polar coordinate system or a Cartesian coordinate system can be used for the conversion of the second video signal. Such a coordinate system is a method of expressing the position of a point by a numerical value.

예컨대, 극좌표계는 원점으로부터의 거리(r)와 그 점이 X축과의 이루는 각의 크기(θ)를 사용하여 (r, θ)로 나타낼 수 있다. 따라서, 극좌표계를 이용하여 제3 영상신호로 변환되는 경우, 제3 영상신호 내의 각 점에 대해 거리(r)와 각의 크기(θ)가 산출되어 설정될 수 있다. For example, the polar coordinate system can be expressed by (r,?) Using the distance r from the origin and the magnitude? Of the angle formed by the point with the X axis. Therefore, when the polar coordinate system is converted into the third video signal, the distance r and the magnitude? Can be calculated and set for each point in the third video signal.

예컨대, 직교좌표계는 평면이나 공간의 위치를 X,Y 또는 X,Y,Z로 나타낼 수 있다. For example, the Cartesian coordinate system can represent the position of a plane or a space by X, Y or X, Y, Z.

따라서, 도 6a에 도시한 바와 같이, 카메라장치(722)로부터 획득된 제1 영상신호가 예컨대 극좌표계를 이용하여 변환되는 경우, 도 6b에 도시한 바와 같이 위에서 바닥을 보는 것처럼 보이는 제3 영상신호로 변환될 수 있다. 이때, 제3 영상신호의 각 점은 거리(r)와 각도(θ)에 관한 정보를 포함할 수 있다. 6A, when the first video signal obtained from the camera device 722 is transformed using, for example, a polar coordinate system, as shown in FIG. 6B, a third video signal Lt; / RTI > At this time, each point of the third video signal may include information on the distance r and the angle?.

이와 같이 제3 영상신호에 보여지는 객체는 높이가 있는 객체일 수 있고, 높이가 없는 객체는 제3 영상신호에 포함되지 않게 된다. Thus, the object shown in the third video signal can be an object having a height, and the object having no height can not be included in the third video signal.

예컨대, 바닥에 서로 상이한 컬러나 에지를 갖는 객체가 있다고 하더라도, 이러한 객체는 높이가 없기 때문에 제3 영상신호에 포함되지 않게 된다. For example, even if there are objects having colors or edges different from each other on the floor, such objects are not included in the third video signal because there is no height.

따라서, 실시예는 바닥에 서로 상이한 컬러나 에지를 갖는 객체를 위험 요소 객체로 판단하는 검출오류를 방지하여 줄 수 있다.Therefore, the embodiment can prevent a detection error that determines an object having a color or an edge different from each other on the floor as a risk element object.

특징추출부(45)는 제3 영상신호로부터 객체를 바탕으로 객체의 후보가 될 수 있는 에지와 같은 특징을 추출할 수 있다. 이때, 에지는 에지의 강도와 방향을 포함할 수 있다. 이러한 객체에 대한 특징을 객체 여부가 확정될 수 있다. The feature extracting unit 45 can extract features such as edges that can be candidates of the object based on the object from the third video signal. At this time, the edge may include the strength and direction of the edge. The characteristics of these objects can be determined as objects.

도 6c에 도시한 바와 같이, 제3 영상신호에서 에지로 검출된 부분만 화이트 컬러를 가지며, 그 외의 영역은 모두 블랙 컬러를 가질 수 있다. 추출된 에지는 제3 영상신호 내에서 수직 방향 상의 에지일 수 있지만, 이에 대해서는 한정하지 않는다. As shown in FIG. 6C, only the portion detected as an edge in the third video signal has a white color, and all other regions may have a black color. The extracted edge may be an edge in the vertical direction within the third video signal, but it is not limited thereto.

객체검출부(47)는 추출된 특징을 바탕으로 일정한 구간 내에서의 특징들, 즉 에지들의 분포 등을 고려하여 객체 여부를 판단하여, 해당 객체를 검출할 수 있다. The object detecting unit 47 can detect the object by determining whether the object is an object in consideration of features within a predetermined section, that is, distribution of edges, based on the extracted feature.

도 6d에 도시한 바와 같이, 검출된 에지들을 참고하여, 이들 에지들의 분포 상태 등을 고려하여 해당 영상신호 내에 존재하는 객체들이 추출될 수 있다. Referring to the detected edges, as shown in FIG. 6D, objects existing in the corresponding video signal can be extracted in consideration of the distribution state of the edges and the like.

객체거리산출부(48)는 검출된 객체를 바탕으로 해당 객체와 차량 사이의 거리를 산출할 수 있다. The object distance calculating unit 48 may calculate the distance between the object and the vehicle based on the detected object.

앞서 상술한 바와 같이, 제2 영상신호로부터 변환된 제3 영상신호 내의 각 점은 차량과의 거리정보를 포함할 수 있다. As described above, each point in the third video signal converted from the second video signal may include distance information with respect to the vehicle.

따라서, 객체거리산출부(48)는 검출된 객체 내의 거리정보를 바탕으로 차량과의 거리를 산출할 수 있다.Therefore, the object distance calculating unit 48 can calculate the distance to the vehicle based on the distance information in the detected object.

객체 내에는 다수의 점이 존재하므로, 이들 다수의 점 모두의 거리를 평균하거나, 이들 다수의 점 중 표본으로 선택된 소수의 점에서의 거리를 평균하여, 차량과의 거리가 산출될 수 있다. 검출된 객체와 차량 사이의 거리 산출 방법은 이와 달리 다양한 방법이 가능하다.Since there are a plurality of points in the object, the distance to the vehicle can be calculated by averaging the distances of all of these points or by averaging the distances from the points of the few selected from the plurality of points. The distance between the detected object and the vehicle can be calculated in various ways.

제어신호생성부(49)는 산출된 거리정보를 바탕으로 제어신호를 생성할 수 있다. The control signal generator 49 can generate a control signal based on the calculated distance information.

예컨대, 객체와 차량 사이의 거리가 기 설정값 이하인 경우, 제어신호생성부(49)는 제어신호를 생성할 수 있다.For example, when the distance between the object and the vehicle is equal to or less than a predetermined value, the control signal generator 49 can generate a control signal.

제어신호는 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상을 포함할 수 있다. The control signal may include at least one of a warning sound output control signal, a deceleration control signal, and a stop control signal.

이러한 제어신호는 ECU(770)로 전송되어, 그 제어신호에 대응되는 조치가 ECU(770)의 제어 하에 취해질 수 있다. This control signal is transmitted to the ECU 770, and a measure corresponding to the control signal can be taken under the control of the ECU 770. [

다시 도 4를 참조하면, 전송부(50)는 영상획득부(30)에서 획득된 영상이미지 및/또는 영상처리부(40)에서 생성된 제어신호를 전송할 수 있다. Referring again to FIG. 4, the transmitting unit 50 may transmit the image image obtained by the image obtaining unit 30 and / or the control signal generated by the image processing unit 40. FIG.

도시되지 않았지만, 전송부(50)는 제1 전송부 및 제2 전송부를 포함할 수 있다. 제1 전송부는 디스플레이부(741)와 이더넷통신이 가능하도록 설정되고, 제2 전송부는 ECU(770)와 CAN통신이 가능하도록 설정될 수 있다. Although not shown, the transfer unit 50 may include a first transfer unit and a second transfer unit. The first transmission unit is set to enable Ethernet communication with the display unit 741, and the second transmission unit can be set to enable CAN communication with the ECU 770. [

이러한 경우, 영상획득부(30)로부터 획득된 영상이미지는 제1 전송부로 전달되고, 제1 전송부는 영상이미지를 영상신호로서 이더넷통신을 이용하여 디스플레이부(741)로 전송할 수 있다.In this case, the image obtained from the image acquisition unit 30 is transmitted to the first transmission unit, and the first transmission unit can transmit the image image to the display unit 741 using the Ethernet communication as a video signal.

또한, 영상처리부(40)로부터 생성된 제어신호는 제2 전송부로 전달되고, 제2 전송부는 제어신호를 CAN통신을 이용하여 ECU(770)로 전송할 수 있다. In addition, the control signal generated from the image processing unit 40 is transmitted to the second transmission unit, and the second transmission unit can transmit the control signal to the ECU 770 via the CAN communication.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 실시예의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 실시예의 등가적 범위 내에서의 모든 변경은 실시예의 범위에 포함된다.The foregoing detailed description should not be construed in all aspects as limiting and should be considered illustrative. The scope of the embodiments should be determined by rational interpretation of the appended claims, and all changes within the equivalents of the embodiments are included in the scope of the embodiments.

10: 센서
20: 카메라제어부
30: 영상획득부
40: 영상처리부
41: 왜곡보정부
43: 영상변환부
45: 특징추출부
47: 객체검출부
48: 객체거리산출부
49: 제어신호생성부
50: 전송부
722: 카메라장치
741: 디스플레이부
770: 제어장치
10: Sensor
20: camera control section
30: Image acquisition unit
40:
41: Distortion correction unit
43:
45: Feature extraction unit
47:
48: object distance calculating unit
49: control signal generating unit
50:
722: Camera device
741:
770: Control device

Claims (12)

차량에 장착된 카메라장치에 있어서,
상기 차량의 특정 방향의 영상을 촬영하는 센서; 및
상기 촬영된 영상을 바탕으로 제1 영상신호를 획득하고, 상기 획득된 제1 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성하는 카메라제어부를 포함하고,
상기 제어신호는 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상을 포함하는 카메라장치.
A camera device mounted on a vehicle,
A sensor for photographing an image in a specific direction of the vehicle; And
And a camera controller for acquiring a first image signal based on the photographed image and generating a control signal based on distance information about the object in the obtained first image signal,
Wherein the control signal includes at least one of a warning sound output control signal, a deceleration control signal, and a stop control signal.
제1항에 있어서,
상기 카메라제어부는,
시점 변환을 이용하여 상기 획득된 제1 영상신호를 위에서 바닥으로 수직으로 보여지는 제2 영상신호로 변환하는 영상변환부;
상기 변환된 제2 영상신호로부터 객체의 후보가 될 수 있는 특징을 추출하는 특징추출부;
상기 추출된 특징을 바탕으로 객체를 검출하는 객체검출부; 및
상기 검출된 객체의 거리정보를 바탕으로 상기 제어신호를 생성하는 제어신호생성부를 포함하는 카메라장치.
The method according to claim 1,
The camera control unit,
An image converter for converting the obtained first image signal into a second image signal that is vertically viewed from the top to the bottom using a viewpoint conversion;
A feature extraction unit for extracting a feature that can be a candidate of an object from the converted second video signal;
An object detection unit detecting an object based on the extracted feature; And
And a control signal generator for generating the control signal based on distance information of the detected object.
제2항에 있어서,
상기 제2 영상신호의 변환은 극좌표계 및 직교좌표계 중 하나가 이용되는 카메라장치.
3. The method of claim 2,
Wherein the second video signal is transformed using one of a polar coordinate system and an orthogonal coordinate system.
제2항에 있어서,
상기 특징은 에지이며,
상기 에지는 상기 변환된 제2 영상신호 내에서 수직 방향 상의 에지인 카메라장치.
3. The method of claim 2,
The feature is an edge,
Wherein the edge is an edge in the vertical direction within the converted second video signal.
제2항에 있어서,
상기 검출된 객체는 높이를 갖는 카메라장치.
3. The method of claim 2,
Wherein the detected object has a height.
제3항에 있어서,
상기 객체검출부는,
일정 구간 내에서의 에지들의 분포를 바탕으로 상기 객체를 검출하는 카메라장치.
The method of claim 3,
Wherein the object detection unit comprises:
And detects the object based on distribution of edges within a predetermined period.
제2항에 있어서,
상기 거리정보는,
상기 극좌표계를 이용하여 상기 제2 영상신호로 변환되는 경우, 상기 변환된 제2 영상신호 내의 각 점에서 설정되는 카메라장치.
3. The method of claim 2,
The distance information,
And when the second video signal is converted into the second video signal using the polar coordinate system, at each point in the converted second video signal.
차량에 장착된 충돌방지장치에 있어서,
상기 차량의 특정 방향으로 촬영된 영상을 바탕으로 제1 영상신호를 획득하고, 시점의 변환을 이용하여 상기 획득된 제1 영상신호를 위에서 바닥을 향해 수직으로 보여지는 제2 영상신호로 변환하며, 상기 변환된 제2 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성하는 카메라장치; 및
상기 제어신호에 대응하는 조치를 취하도록 관련장치를 제어하는 제어장치를 포함하고,
상기 제어신호는 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상을 포함하는 충돌방지장치.
An anti-collision apparatus mounted on a vehicle,
Acquiring a first image signal based on an image photographed in a specific direction of the vehicle and converting the obtained first image signal into a second image signal vertically viewed from the top to the bottom using a conversion of a viewpoint, A camera device for generating a control signal based on distance information about an object in the converted second video signal; And
And a control device for controlling the associated device to take an action corresponding to the control signal,
Wherein the control signal includes at least one of a warning sound output control signal, a deceleration control signal, and a stop control signal.
제8항에 있어서,
상기 관련장치는 음향출력부 또는 브레이크 구동부를 포함하는 충돌방지장치.
9. The method of claim 8,
Wherein the associated device comprises an acoustic output or a brake driver.
제9항에 있어서,
상기 제어장치는,
상기 경고음출력제어신호에 응답하여 상기 음향출력부를 제어하여 경고음을 출력하는 충돌방지장치.
10. The method of claim 9,
The control device includes:
Wherein the control unit controls the sound output unit in response to the alarm output control signal to output a warning sound.
제9항에 있어서,
상기 제어장치는,
상기 감속제어신호 및 상기 정지제어신호 중 하나의 제어신호에 응답하여 상기 브레이크구동부를 제어하여 상기 차량의 구륜속도를 조절하는 충돌방지장치.
10. The method of claim 9,
The control device includes:
And controls the brake driving unit in response to one control signal of the deceleration control signal and the stop control signal to adjust the wheel speed of the vehicle.
카메라장치와 상기 카메라장치와 연결된 제어장치를 포함하는 차량에서의 충돌방지방법에 있어서,
상기 카메라장치에서, 차량의 특정 방향으로 촬영된 영상을 바탕으로 제1 영상신호를 획득하는 단계;
상기 카메라장치에서, 시점의 변환을 이용하여 상기 획득된 제1 영상신호를 위에서 바닥을 향해 수직으로 보여지는 제2 영상신호로 변환하는 단계;
상기 카메라장치에서, 상기 변환된 제2 영상신호 내의 객체에 대한 거리정보를 바탕으로 제어신호를 생성하는 단계; 및
상기 제어장치에서, 상기 제어신호에 대응하는 조치를 취하도록 관련장치를 제어하는 단계를 포함하고,
상기 제어신호는 경고음출력제어신호, 감속제어신호 및 정지제어신호 중 적어도 하나 이상을 포함하는 충돌방지방법.
A method for preventing a collision in a vehicle including a camera device and a control device connected to the camera device,
In the camera device, acquiring a first image signal based on an image photographed in a specific direction of the vehicle;
Converting the obtained first video signal into a second video signal which is vertically viewed from the top to the bottom using the conversion of viewpoints in the camera apparatus;
Generating a control signal in the camera apparatus based on distance information on an object in the converted second video signal; And
Controlling, in the control device, an associated device to take an action corresponding to the control signal,
Wherein the control signal includes at least one of a warning sound output control signal, a deceleration control signal, and a stop control signal.
KR1020170034498A 2017-03-20 2017-03-20 Camera apparatus, collision prevention apparatus using the same and method of preventing collision KR20180106336A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170034498A KR20180106336A (en) 2017-03-20 2017-03-20 Camera apparatus, collision prevention apparatus using the same and method of preventing collision

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170034498A KR20180106336A (en) 2017-03-20 2017-03-20 Camera apparatus, collision prevention apparatus using the same and method of preventing collision

Publications (1)

Publication Number Publication Date
KR20180106336A true KR20180106336A (en) 2018-10-01

Family

ID=63877303

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170034498A KR20180106336A (en) 2017-03-20 2017-03-20 Camera apparatus, collision prevention apparatus using the same and method of preventing collision

Country Status (1)

Country Link
KR (1) KR20180106336A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190039608A1 (en) * 2017-08-07 2019-02-07 CAMSYS Corp. Apparatus and method for electric vehicle collision avoidance
CN111806461A (en) * 2019-03-25 2020-10-23 奇景光电股份有限公司 Functional safety system for a vehicle fault display and related functional fault system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190039608A1 (en) * 2017-08-07 2019-02-07 CAMSYS Corp. Apparatus and method for electric vehicle collision avoidance
US10625738B2 (en) * 2017-08-07 2020-04-21 CAMSYS Corp. Apparatus and method for electric vehicle collision avoidance
CN111806461A (en) * 2019-03-25 2020-10-23 奇景光电股份有限公司 Functional safety system for a vehicle fault display and related functional fault system

Similar Documents

Publication Publication Date Title
CN109789778B (en) Automatic parking assist device and vehicle comprising same
CN107914713B (en) Display device for vehicle and vehicle including same
KR101916993B1 (en) Display apparatus for vehicle and control method thereof
CN110177723B (en) Device for providing a peripheral field of view
KR20170141082A (en) Parking Assistance Apparatus and Vehicle Having The Same
KR20170099188A (en) Driver Assistance Apparatus and Vehicle Having The Same
KR20170058188A (en) Driver Assistance Apparatus and Vehicle Having The Same
KR101860626B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
KR101790426B1 (en) Apparatus for automatic parking and vehicle having the same
US11548452B2 (en) Method and device for correcting vehicle view cameras
KR101962348B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
KR101732263B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
KR102420922B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
KR20180080939A (en) Driving assistance apparatus and vehicle having the same
KR101843535B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
KR101897350B1 (en) Driver Assistance Apparatus
KR20170041072A (en) Detecting device for monitoring noise in vehicle and vehicle having the same
KR20180106336A (en) Camera apparatus, collision prevention apparatus using the same and method of preventing collision
CN111295876B (en) Panoramic all-around view image control device and panoramic all-around view image processing method thereof
KR101894636B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
KR101888259B1 (en) Vehicle Assistance Apparatus and Vehicle Having The Same
KR101737236B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
KR101929288B1 (en) Parking Assistance Apparatus and Vehicle Having The Same
KR101796449B1 (en) Vehicle Having Assistance Apparatus Having Function For Controlling With Center Of Weight
KR101929291B1 (en) Vehicular Communication Apparatus

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination