KR20180097247A - System and Method Of User Experiential vehicle controlling - Google Patents

System and Method Of User Experiential vehicle controlling Download PDF

Info

Publication number
KR20180097247A
KR20180097247A KR1020170023985A KR20170023985A KR20180097247A KR 20180097247 A KR20180097247 A KR 20180097247A KR 1020170023985 A KR1020170023985 A KR 1020170023985A KR 20170023985 A KR20170023985 A KR 20170023985A KR 20180097247 A KR20180097247 A KR 20180097247A
Authority
KR
South Korea
Prior art keywords
vehicle
operation pattern
data
driver
sensor
Prior art date
Application number
KR1020170023985A
Other languages
Korean (ko)
Inventor
조민관
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020170023985A priority Critical patent/KR20180097247A/en
Publication of KR20180097247A publication Critical patent/KR20180097247A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a user-friendly system and method for controlling a vehicle, capable of controlling a braking time and braking strength similar to driver′s habits by collecting and analyzing the driver′s habits. The user-friendly system for controlling a vehicle according to an embodiment of the present invention includes: a plurality of vehicle sensors disposed in each vehicle for sensing a driving pattern and a surrounding situation of the vehicle when the vehicle is travelling to output sensing data; a data collecting unit for collecting and classifying the respective sensing data received from the plurality of vehicle sensors and outputting driving pattern information including the driving pattern and surrounding situation information including the surrounding situation of the vehicle; a transmission unit for transmitting the driving pattern information and the surrounding situation information to a server; a receiving unit for receiving driving pattern parameters received from the server; and a control unit for updating the received driving pattern parameters and controlling the traveling of the vehicle based on the driving pattern parameters.

Description

사용자 친화적 차량 제어 시스템 및 방법{System and Method Of User Experiential vehicle controlling}Technical Field [0001] The present invention relates to a user-friendly vehicle control system,

본 발명은 사용자 친화적 차량 제어 시스템 및 방법에 관한 것으로, 보다 자세하게는 운전자의 주행 습관을 수집 및 분석하여 운전자의 습관과 유사하게 제동의 시간과 강도를 조절할 수 있는 사용자 친화적 차량 제어 시스템 및 방법에 관한 것이다.The present invention relates to a user-friendly vehicle control system and method, and more particularly, to a user-friendly vehicle control system and method capable of controlling the time and intensity of braking similar to a driver's habit by collecting and analyzing a driver's driving habits will be.

긴급제동 장치는 전방의 차량 또는 보행자와의 충돌이 예측되는 경우, 충돌 경보 및 자동 제동 제어를 제공한다. 이를 위해, 전방의 충돌 위험 요소들과 자차량의 상대속도, 상대가속도를 계산하여 충돌 시점을 확인하고, 자차량의 제동 제어 시점을 결정한다.The emergency braking system provides collision warning and automatic braking control when a collision with a forward vehicle or a pedestrian is predicted. To this end, the collision risk factors, the relative speed of the vehicle, and the relative acceleration are calculated to determine the collision point, and the braking control point of the vehicle is determined.

그러나, 종래 기술의 긴급제동 장치는 전방 차량 또는 보행자와의 충돌이 예측될 때 자동 제어를 수행하게 되는데, 충돌 회피를 위해서 최대 제동력을 가하고 제동 시간도 길게 유지함으로 운전자에게 불쾌감을 주는 문제점이 있다.However, the emergency braking system of the related art performs automatic control when a collision with a forward vehicle or a pedestrian is predicted. In addition, a maximum braking force is applied for avoiding collision and a braking time is kept long.

대한민국 공개특허번호: 특2002-0015135(2002. 02. 27)Korean Patent Publication No. 2002-0015135 (Feb. 27, 2002)

본 발명은 앞에서 설명한 문제점을 해결하기 위한 것으로, 자동긴급제동 시 평소 운전자의 습관과 동일 또는 유사한 제동력이 발생하도록 하고, 이를 통해 편안한 주행감을 제공할 수 있는 사용자 친화적 차량 제어 시스템 및 방법을 제공하는 것을 기술적 과제로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a user-friendly vehicle control system and method capable of generating a braking force that is the same as or similar to a habit of a driver at the time of automatic emergency braking, It is a technical task.

본 발명은 앞에서 설명한 문제점을 해결하기 위한 것으로, 자율주행 시 평소 운전자의 습관과 동일 또는 유사한 스티어링 제어, 가속 제어, 제동 제어가 이루어지도록 함으로써 편안한 주행감을 제공할 수 있는 사용자 친화적 차량 제어 시스템 및 방법을 제공하는 것을 기술적 과제로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a user-friendly vehicle control system and method capable of providing a comfortable driving feeling by allowing steering control, acceleration control, and braking control to be the same as or similar to usual driver's habit during self- The technical problem is to provide.

위에서 언급된 본 발명의 기술적 과제 외에도, 본 발명의 다른 특징 및 이점들이 이하에서 기술되거나, 그러한 기술 및 설명으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Other features and advantages of the invention will be set forth in the description which follows, or may be obvious to those skilled in the art from the description and the claims.

앞에서 설명한 목적을 달성하기 위한 본 발명의 실시 예에 따른 사용자 친화적 차량 제어 시스템은, 각 차량에 배치되어 주행에 따른 운전 패턴 및 차량 주변 상황을 센싱하여 센싱 데이터를 출력하는 복수의 차량 센서와, 상기 복수의 차량 센서에서 수신된 각각의 센싱 데이터를 수집 및 분류하여, 운전 패턴을 포함하는 운전 패턴 정보 및 차량 주변의 상황을 포함하는 주변 상황 정보를 출력하는 데이터 수집부와, 상기 운전 패턴 정보 및 주변 상황 정보를 서버로 전송하는 송신부와, 상기 서버로부터 수신된 운전패턴 파라미터를 수신하는 수신부와, 수신된 상기 운전패턴 파라미터를 업데이트하고, 상기 운전패턴 파라미터에 차량의 주행을 제어하는 제어부를 포함한다.According to another aspect of the present invention, there is provided a user-friendly vehicle control system including: a plurality of vehicle sensors disposed in respective vehicles to sense driving patterns and surroundings of the vehicle in response to driving to output sensing data; A data collecting unit for collecting and classifying the respective sensing data received from the plurality of vehicle sensors and outputting the surrounding pattern information including the driving pattern information including the driving pattern and the surroundings of the vehicle; And a control unit for updating the received operation pattern parameter and controlling driving of the vehicle based on the operation pattern parameter. The control unit may be configured to receive the operation pattern parameter from the server.

또한, 상기 복수의 차량 센서는, 차량 거동을 센싱하는 차량 거동 센서, 차량의 전방, 후방, 좌/우 측방의 이미지 데이터를 생성하는 카메라 센서, 차량 주변의 레이더 센싱 데이터를 생성하는 레이더 센서, 차량 주변의 Lidar 센서 데이터를 생성하는 Lidar 센서, 초음파 데이터를 생성하는 초음파 센서, 적외선 데이터를 생성하는 적외선 센서 및 조도 데이터를 생성하는 조도 센서를 포함한다.The plurality of vehicle sensors may include a vehicle behavior sensor that senses vehicle behavior, a camera sensor that generates image data of the front, rear, left and right sides of the vehicle, a radar sensor that generates radar sensing data of the surroundings of the vehicle, A Lidar sensor for generating surrounding Lidar sensor data, an ultrasonic sensor for generating ultrasonic data, an infrared sensor for generating infrared data, and an illuminance sensor for generating illuminance data.

또한, 상기 제어부는, 상기 운전패턴 파라미터에 기초하여 차량의 조향 제어 장치 및 제동 제어 장치를 제어한다.The control unit controls the steering control device and the braking control device of the vehicle on the basis of the operation pattern parameter.

앞에서 설명한 목적을 달성하기 위한 본 발명의 실시 예에 따른 사용자 친화적 차량 제어 시스템은, 복수의 차량 각각의 제어 유닛으로부터 수신된 운전 패턴 정보 및 주변 상황 정보를 각 차량의 운전자 별로 분류 및 분석하여 각 운전자 별 운전패턴 파라미터를 생성하는 데이터 분석부와, 상기 각 운전자 별 운전패턴 파라미터를 업데이트 및 메모리에 저장하고, 상기 복수의 차량 각각의 제어 유닛에 대응되는 운전패턴 파라미터를 전송하는 업데이트부를 구비한 서버를 포함한다.According to an embodiment of the present invention, there is provided a user-friendly vehicle control system for classifying and analyzing operation pattern information and surrounding state information received from a control unit of each of a plurality of vehicles, A data analysis unit for generating a separate operation pattern parameter; and an update unit for updating the operation pattern parameters for each driver and storing the updated operation pattern parameters in a memory, and transmitting an operation pattern parameter corresponding to each control unit of the plurality of vehicles .

또한, 상기 운전패턴 파라미터는, 각 차량의 조향 제어 장치 및 제동 제어 장치의 제어를 위한 파라미터를 포함한다.The operation pattern parameter includes parameters for controlling the steering control device and the braking control device of each vehicle.

또한, 상기 운전패턴 파라미터는, 각 차량의 운전자의 운전패턴과 동일 또는 유사한 제동 강동, 제동 시간, 제도 시간 시점, 선행 차량과의 거리, 조향 각도, 조향 시작 시점에 대한 파라미터를 포함한다.The operation pattern parameters include parameters for the braking effort, braking time, drafting time, distance to the preceding vehicle, steering angle, and steering start time, which are the same as or similar to the driving pattern of the driver of each vehicle.

앞에서 설명한 목적을 달성하기 위한 본 발명의 실시 예에 따른 사용자 친화적 차량 제어 방법은, 각 차량 별로 운전자의 운전 패턴 정보 및 주변 상황 정보를 수집하는 단계와, 복수의 차량 각각에서 수집된 운전 패턴 정보 및 주변 상황 정보를 서버로 전송하는 단계와, 상기 서버에서 수신된 운전자 별 운전패턴 파라미터에 기초하여 차량의 조향 제어 장치 및 제동 제어 장치를 제어하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of controlling a user-friendly vehicle, comprising: collecting driving pattern information and surrounding information of a driver for each vehicle; And controlling the steering control device and the braking control device of the vehicle based on the driver-specific operation pattern parameters received from the server.

또한, 상기 운전패턴 파라미터는, 상기 복수의 차량 각각의 운전자의 운전패턴과 동일 또는 유사한 제동 강동, 제동 시간, 제도 시간 시점, 선행 차량과의 거리, 조향 각도, 조향 시작 시점에 대한 파라미터를 포함한다.In addition, the operation pattern parameter includes parameters for the braking effort, braking time, drafting time, distance to the preceding vehicle, steering angle, and steering start time that are the same as or similar to the driving pattern of the driver of each of the plurality of vehicles .

또한, 차량 거동 데이터, 차량의 전방, 후방, 좌/우 측방의 이미지 데이터, 차량 주변의 레이더 센싱 데이터, 차량 주변의 Lidar 센서 데이터, 초음파 데이터, 적외선 데이터 및 조도 데이터에 기초하여 상기 운전 패턴 정보 및 상기 주변 상황 정보를 생성한다.Also, Based on the vehicle behavior data, the image data of the front, rear, left and right sides of the vehicle, radar sensing data of the surroundings of the vehicle, Lidar sensor data of the surroundings of the vehicle, ultrasound data, infrared data and illuminance data, And generates context information.

앞에서 설명한 목적을 달성하기 위한 본 발명의 실시 예에 따른 사용자 친화적 차량 제어 방법은, 복수의 차량 각각에서 수신된 운전 패턴 정보 및 주변 상황 정보를 각 차량의 운전자 별로 분류 및 분석하여 각 운전자 별 운전패턴 파라미터를 생성하는 단계와, 상기 운전패턴 파라미터를 업데이트 저장하는 단계와, 상기 운전패턴 파라미터를 복수의 차량 각각으로 전송하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of controlling a user-friendly vehicle, the method comprising: classifying and analyzing operation pattern information and surrounding state information received from each of a plurality of vehicles, Generating a parameter, updating and storing the operation pattern parameter, and transmitting the operation pattern parameter to each of the plurality of vehicles.

또한, 상기 운전패턴 파라미터는, 상기 복수의 차량 각각의 운전자의 운전패턴과 동일 또는 유사한 제동 강동, 제동 시간, 제도 시간 시점, 선행 차량과의 거리, 조향 각도, 조향 시작 시점에 대한 파라미터를 포함한다.In addition, the operation pattern parameter includes parameters for the braking effort, braking time, drafting time, distance to the preceding vehicle, steering angle, and steering start time that are the same as or similar to the driving pattern of the driver of each of the plurality of vehicles .

이 밖에도, 본 발명의 실시 예들을 통해 본 발명의 또 다른 특징 및 이점들이 새롭게 파악될 수도 있을 것이다.In addition, other features and advantages of the present invention may be newly understood through embodiments of the present invention.

본 발명의 실시 예에 따른 사용자 친화적 차량 제어 시스템 및 방법은, 자동긴급제동 시 평소 운전자의 습관과 동일 또는 유사한 제동력이 발생하도록 하고, 이를 통해 편안한 주행감을 제공할 수 있다. The user-friendly vehicle control system and method according to the embodiment of the present invention can generate a braking force that is the same as or similar to the normal driver's habit during automatic emergency braking, thereby providing a comfortable driving feeling.

본 발명의 실시 예에 따른 사용자 친화적 차량 제어 시스템 및 방법은, 자율주행 시 평소 운전자의 습관과 동일 또는 유사한 스티어링 제어, 가속 제어, 제동 제어가 이루어지도록 함으로써 편안한 주행감을 제공할 수 있다.The user-friendly vehicle control system and method according to the embodiment of the present invention can provide a comfortable driving feeling by allowing steering control, acceleration control, and braking control to be the same as or similar to the habit of an ordinary driver at the time of autonomous driving.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.

도 1은 본 발명의 실시 예에 따른 사용자 친화적 차량 제어 시스템을 나타내는 도면이다.
도 2는 도 1에 도시된 서버를 나타내는 도면이다.
도 3은 본 발명의 실시 예에 따른 사용자 친화적 차량 제어 방법을 나타내는 도면이다.
1 is a diagram showing a user friendly vehicle control system according to an embodiment of the present invention.
Fig. 2 is a diagram showing the server shown in Fig. 1. Fig.
3 is a diagram illustrating a user-friendly vehicle control method according to an embodiment of the present invention.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention may be embodied in many different forms and is not limited to the embodiments described herein.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same or similar components are denoted by the same reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

어느 부분이 다른 부분의 "위에" 있다고 언급하는 경우, 이는 바로 다른 부분의 위에 있을 수 있거나 그 사이에 다른 부분이 수반될 수 있다. 대조적으로 어느 부분이 다른 부분의 "바로 위에" 있다고 언급하는 경우, 그 사이에 다른 부분이 수반되지 않는다.If any part is referred to as being "on" another part, it may be directly on the other part or may be accompanied by another part therebetween. In contrast, when a section is referred to as being "directly above" another section, no other section is involved.

제1, 제2 및 제3 등의 용어들은 다양한 부분, 성분, 영역, 층 및/또는 섹션들을 설명하기 위해 사용되나 이들에 한정되지 않는다. 이들 용어들은 어느 부분, 성분, 영역, 층 또는 섹션을 다른 부분, 성분, 영역, 층 또는 섹션과 구별하기 위해서만 사용된다. 따라서, 이하에서 서술하는 제1 부분, 성분, 영역, 층 또는 섹션은 본 발명의 범위를 벗어나지 않는 범위 내에서 제2 부분, 성분, 영역, 층 또는 섹션으로 언급될 수 있다.The terms first, second and third, etc. are used to describe various portions, components, regions, layers and / or sections, but are not limited thereto. These terms are only used to distinguish any moiety, element, region, layer or section from another moiety, moiety, region, layer or section. Thus, a first portion, component, region, layer or section described below may be referred to as a second portion, component, region, layer or section without departing from the scope of the present invention.

여기서 사용되는 전문 용어는 단지 특정 실시 예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the invention. The singular forms as used herein include plural forms as long as the phrases do not expressly express the opposite meaning thereto. Means that a particular feature, region, integer, step, operation, element and / or component is specified and that the presence or absence of other features, regions, integers, steps, operations, elements, and / It does not exclude addition.

"아래", "위" 등의 상대적인 공간을 나타내는 용어는 도면에서 도시된 한 부분의 다른 부분에 대한 관계를 보다 쉽게 설명하기 위해 사용될 수 있다. 이러한 용어들은 도면에서 의도한 의미와 함께 사용 중인 장치의 다른 의미나 동작을 포함하도록 의도된다. 예를 들면, 도면 중의 장치를 뒤집으면, 다른 부분들의 "아래"에 있는 것으로 설명된 어느 부분들은 다른 부분들의 "위"에 있는 것으로 설명된다. 따라서 "아래"라는 예시적인 용어는 위와 아래 방향을 전부 포함한다. 장치는 90˚ 회전 또는 다른 각도로 회전할 수 있고, 상대적인 공간을 나타내는 용어도 이에 따라서 해석된다.Terms indicating relative space such as "below "," above ", and the like may be used to more easily describe the relationship to other portions of a portion shown in the figures. These terms are intended to include other meanings or acts of the apparatus in use, as well as intended meanings in the drawings. For example, when inverting a device in the figures, certain portions that are described as being "below" other portions are described as being "above " other portions. Thus, an exemplary term "below" includes both up and down directions. The device can be rotated by 90 degrees or rotated at different angles, and terms indicating relative space are interpreted accordingly.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련 기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms including technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Commonly used predefined terms are further interpreted as having a meaning consistent with the relevant technical literature and the present disclosure, and are not to be construed as ideal or very formal meanings unless defined otherwise.

이하, 첨부한 도면을 참조하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

도 1은 본 발명의 실시 예에 따른 사용자 친화적 차량 제어 시스템을 나타내는 도면이다.1 is a diagram showing a user friendly vehicle control system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 사용자 친화적 차량 제어 시스템은 제어 유닛(100), 센서부(200), 서버(300), 조향 제어 장치(410) 및 제동 제어 장치(420)를 포함한다.1, a user-friendly vehicle control system according to an embodiment of the present invention includes a control unit 100, a sensor unit 200, a server 300, a steering control unit 410 and a braking control unit 420 .

제어 유닛(100)은 데이터 수집부(110), 송신부(120), 수신부(130) 및 제어부(140)를 포함한다.The control unit 100 includes a data collecting unit 110, a transmitting unit 120, a receiving unit 130, and a control unit 140.

센서부(200)는 차량 거동 센서(210), 카메라 센서(220), 레이더 센서(230), 라이더(Lidar) 센서(240), 초음파 센서(250), 적외선 센서(260) 및 조도 센서(270)를 포함한다.The sensor unit 200 includes a vehicle behavior sensor 210, a camera sensor 220, a radar sensor 230, a lidar sensor 240, an ultrasonic sensor 250, an infrared sensor 260, and an illuminance sensor 270 ).

차량 거동 센서(210)는 자차량의 주행 시 움직임을 센싱하고, 그 결과로 차량 거동 센싱 데이터를 생성하여 제어 유닛(100)으로 전송한다. 이때, 자차량의 속도, 스티어링 조작, 제동 장치의 조작, 가속 장치의 조작에 따른 차량 거동 데이터를 생성하여 제어 유닛(100)으로 전송한다.The vehicle behavior sensor 210 senses the motion of the subject vehicle while traveling, and as a result, generates vehicle behavior sensing data and transmits it to the control unit 100. At this time, vehicle behavior data according to the speed of the vehicle, the steering operation, the operation of the braking device, and the operation of the accelerator are generated and transmitted to the control unit 100.

카메라 센서(220)는 렌즈, 렌즈 홀더, 이미지 센서, 이미지 프로세서 및 카메라 MCU(micro controller unit)을 포함하며, 이미지 프로세서는 이미지 센서로부터 이미지 데이터를 수신하며 이를 위해 이미지 프로세서와 이미지 센서는 커넥터를 통해 연결될 수 있다. 카메라 MCU는 이미지 프로세서가 프로세싱 한 이미지 데이터를 수신하며, 그 이미지 데이터를 제어 유닛(100)으로 전송한다. 이러한, 카메라 센서(220)는 자차량의 전방, 후박 및 좌/우 측방에 적어도 하나가 배치된다. 카메라 센서(220)에 의해서 자차량의 전방 영상, 후방 영상, 좌/우 측방을 촬영하고, 생성된 이미지 데이터를 제어 유닛(100)으로 전송한다.The camera sensor 220 includes a lens, a lens holder, an image sensor, an image processor, and a camera microcontroller unit (MCU), wherein the image processor receives image data from the image sensor, Can be connected. The camera MCU receives the image data processed by the image processor and transmits the image data to the control unit 100. [ At least one of the camera sensors 220 is disposed on the front, back, and left / right sides of the vehicle. The rear image, and the left and right sides of the subject vehicle by the camera sensor 220, and transmits the generated image data to the control unit 100. [

레이더 센서(230)는 레이더 모듈 및 레이더 MCU를 포함하여, 레이더 모듈과 레이더 MCU는 상호 연결되어 데이터를 송수신한다. 레이더 센서(230)는 물체의 거리나 속도, 각도를 측정하기 위해 전자기파를 사용하는 센서 장치이다. 레이더 센서(230)는 주파수 변조 반송파(FMCW, Frequency Modulation Carrier Wave) 또는 펄스 반송파(Pulse Carrier) 방식을 이용하여 수평각도 30도 범위에서 150m 전방까지의 물체를 감지할 수 있다. 레이더 MCU는 레이더 모듈에 연결된 자차량의 다른 장치(예를 들면, 레이더 센싱 출력을 프로세싱하는 레이더 프로세서)를 제어할 수 있다. 이러한 제어는 예를 들면 전원 공급 제어, 리셋 제어, 클럭(CLK) 제어, 데이터 통신 제어, 메모리 제어 등을 포함한다. 레이더 센서(230)는 대표적으로 77GHz 대역 레이더 또는 적합한 다른 대역을 사용하며, 자동차의 전방, 후방, 좌/우 측방 영역을 센싱하고, 레이더 센싱 데이터를 생성한다. 레이더 센서(230)의 레이더 센싱 데이터는 제어 유닛(100)으로 전송된다. 한편, 레이더 프로세서는 레이더 센서(230)에서 출력한 센싱 데이터를 프로세싱할 수 있고, 이러한 프로세싱은 센싱한 전방의 물체를 확대하거나 전체 시야 영역 중에서 물체의 영역에 포커스를 맞추는 것을 포함한다.The radar sensor 230 includes a radar module and a radar MCU, and the radar module and the radar MCU are interconnected to transmit and receive data. The radar sensor 230 is a sensor device that uses electromagnetic waves to measure the distance, velocity, and angle of an object. The radar sensor 230 can detect an object up to 150 meters in a horizontal angle range of 30 degrees by using a frequency modulation carrier wave (FMCW) or a pulse carrier method. The radar MCU may control other devices of the vehicle connected to the radar module (e.g., a radar processor that processes the radar sensing output). Such control includes, for example, power supply control, reset control, clock (CLK) control, data communication control, memory control, and the like. The radar sensor 230 typically uses a 77 GHz band radar or other suitable band and senses the front, rear, left / right sideways areas of the vehicle and generates radar sensing data. The radar sensor data of the radar sensor 230 is transmitted to the control unit 100. Meanwhile, the radar processor can process the sensing data output from the radar sensor 230, which includes magnifying the object ahead of the sensing or focusing the area of the object in the entire field of view.

Lidar 센서(240)는 Lidar 센서(240)는 자동차의 전방 영역을 센싱하기 위해 사용된다. 이러한 Lidar 센서(240)는 자동차의 내부 전면, 구체적으로는 전면 유리 아래에 위치하여 전면 유리를 통해서 레이저(laser) 광원을 송수신한다. 이러한, Lidar 센서(240)는 레이저 송신 모듈, 레이저 검출 모듈, 신호 수집 모듈 및 신호 처리 모듈, 데이터 송수신 모듈 및 Lidar MCU를 포함한다. 레이저 송신 모듈을 통해서 자차량의 전방, 후방, 좌/우 측방으로 레이저를 송출하고, 레이저 검출 모듈을 통해서 반사되는 레이저를 검출한다. 이후, 신호 수집 모듈에서 수신된 레이저 신호를 수집한 후, 신호 처리 모듈에서 수집된 레이저 신호를 신호 처리한다. 그리고, 데이터 송수신 모듈을 통해서 신호 처리된 Lidar 신호를 Lidar MCU로 전송한다. Lidar MCU는 수신된 Lidar 신호를 분석하여 자차량의 전방, 후방, 좌/우 측방에 위치하는 물체(차량 및 보행자)를 검출하고, 그 결과인 Lidar 센싱 데이터를 생성하여 제어 유닛(100)으로 전송한다. 이때, Lidar 센싱 데이터는 시각적 및/또는 청각적 데이터로 생성될 수 있다.The Lidar sensor 240 is used by the Lidar sensor 240 to sense the front area of the vehicle. The Lidar sensor 240 is disposed on the inner surface of the vehicle, specifically, under the front glass, and transmits and receives a laser light source through the front glass. The Lidar sensor 240 includes a laser transmission module, a laser detection module, a signal acquisition module and a signal processing module, a data transmission / reception module, and a Lidar MCU. The laser is transmitted to the front, rear, left and right sides of the vehicle through the laser transmission module, and the laser reflected through the laser detection module is detected. After collecting the laser signal received by the signal collecting module, the signal processing module processes the collected laser signal. Then, the Lidar signal processed through the data transmission / reception module is transmitted to the Lidar MCU. The Lidar MCU analyzes the received Lidar signal to detect objects (vehicles and pedestrians) located on the front, rear, left and right sides of the vehicle, generates Lidar sensing data as a result of the detection and transmits the Lidar sensing data to the control unit 100 do. At this time, the Lidar sensing data can be generated as visual and / or audible data.

초음파 센서(250)는 초음파 모듈 및 초음파 MCU를 포함한다. 초음파 모듈은 사람의 귀에 들리지 20[KHz] 이상의 높은 주파수의 초음파를 생성하여 자차량의 전방, 후방, 좌/우 측방으로 송출한 후, 반사되어 돌아온 초음파를 수신하여 초음파 MCU로 전송한다. 초음파 MCU는 수신된 초음파를 분석하여 물체의 속도, 거리, 크기(높이, 폭, 넓이), 농도, 점성도를 산출한 초음파 데이터를 생성하고, 상기 초음파 데이터를 제어 유닛(100)으로 전송한다.The ultrasonic sensor 250 includes an ultrasonic module and an ultrasonic MCU. The ultrasonic module generates ultrasonic waves having a frequency of 20 [KHz] or higher that can be heard by the human ear and transmits the ultrasonic waves to the front, rear, left and right sides of the vehicle, receives the reflected ultrasonic waves, and transmits them to the ultrasonic MCU. The ultrasonic MCU analyzes the received ultrasonic waves and generates ultrasonic data by calculating velocity, distance, size (height, width, width), concentration and viscosity of the object, and transmits the ultrasonic data to the control unit 100.

적외선 센서(260)는 적외선 모듈 및 적외선 MCU를 포함한다. 적외선 모듈은 적외선을 생성하여 자차량의 전방, 후방, 좌/우 측방으로 송출하고, 자차량의 주변에서 수신된 적외선을 검출한 결과로 적외선 데이터를 생성한다. 적외선 모듈에서 생성된 적외선 데이터는 적외선 MCU로 전송된다. 적외선 MCU는 수신된 적외선 데이터를 분석하여 자차량의 주변에 위치한 물체 및 물체의 온도를 검출하고, 그 검출 결과인 적외선 데이터를 제어 유닛(100)으로 전송한다.The infrared sensor 260 includes an infrared module and an infrared MCU. The infrared module generates infrared rays and sends them to the front, rear, left and right sides of the vehicle, and generates infrared data as a result of detecting infrared rays received from the surroundings of the vehicle. The infrared data generated by the infrared module is transmitted to the infrared MCU. The infrared MCU analyzes the received infrared data to detect temperatures of objects and objects located in the vicinity of the vehicle, and transmits the infrared data as a result of the detection to the control unit 100.

조도 센서(270)는 CDS(황화카드뮬) 반도체 소자를 이용하여 자차량 주변의 조도를 센싱하고, 센싱한 결과로 조도 데이터를 생성하여 제어 유닛(100)으로 전송한다. 이러한, 조도 데이터를 이용하여 자차량 주변의 밝기에 맞춰 전도등의 밝기 및 각도를 조절할 수 있고, 자동으로 전도등을 온(on)/오프(off) 시킬 수 있다.The illuminance sensor 270 senses illuminance around the vehicle using a CDS (Sulfur Card Mule) semiconductor device, generates illuminance data as a result of sensing, and transmits the illuminance data to the control unit 100. By using the illuminance data, the brightness and the angle of the conduction etc. can be adjusted according to the brightness of the vehicle, and the conduction etc. can be automatically turned on / off.

제어 유닛(100)은 운전자의 운전 습관을 분석하기 위한 다양한 센싱 데이터를 수집하고, 수집된 센싱 데이터를 서버(300)로 전송한다. 이때, 수집된 센싱 데이터는 운전자의 운전 패턴을 포함하는 운전 패턴 정보 및 차량 주변의 상황을 포함하는 주변 상황 정보를 포함한다.The control unit 100 collects various sensing data for analyzing the driving habits of the driver and transmits the collected sensing data to the server 300. [ At this time, the collected sensing data includes driving pattern information including the driving pattern of the driver and surrounding situation information including the surroundings of the vehicle.

제어 유닛(100)의 데이터 수집부(110)는 운전자의 제동 및 스티어링 조작 시, 차량의 거동 정보와 운전자 패턴 정보 및 차량 주변 상황에 대한 데이터를 수집한다. 차량의 주변 상황은 맵(Map) 정보에서 추출 가능한 도로 속성 정보, 카메라 센서(210), 레이더 센서(230), Lidar 센서(240), 초음파 센서(250), 적외선 센서(260) 및 조도 센서(270)에서 추출 가능한 주변 물체(object) 정보, 차선 정보 및 날씨 정보를 포함한다.The data collecting unit 110 of the control unit 100 collects data on the behavior of the vehicle, the driver pattern information, and the surroundings of the vehicle during the driver's braking and steering operations. The surrounding conditions of the vehicle include road attribute information extractable from map information, a camera sensor 210, a radar sensor 230, a Lidar sensor 240, an ultrasonic sensor 250, an infrared sensor 260, 270, and lane information and weather information.

이를 위해서, 제어 유닛(100)의 데이터 수집부(110)는 센서부(200)에서 수신된 복수의 센싱 데이터를 수신 및 수집한 후, 수집된 각각의 센싱 데이터를 분류하여 운전자의 운전 패턴을 포함하는 운전 패턴 정보 및 차량 주변의 상황을 포함하는 주변 상황 정보를 송신부(120)로 전송한다. 예로서, 데이터 수집부(110)는 차량 거동 센서(210)에서 수신된 차량 거동 데이터, 카메라 센서(220)에서 수신된 이미지 데이터, 레이더 센서(230)에서 수신된 레이더 센싱 데이터, Lidar 센서(240)에서 수신된 Lidar 센싱 데이터, 초음파 센서(250)에서 수신된 초음파 데이터, 적외선 센서(260)에서 수신된 적외선 데이터 및 조도 센서(270)에서 수신된 조도 데이터를 수집한다. 그리고, 수집된 각각의 센싱 데이터를 분류하여 운전자의 운전 패턴을 포함하는 운전 패턴 정보 및 차량 주변의 상황을 포함하는 주변 상황 정보를 송신부(120)로 전송한다.To this end, the data collecting unit 110 of the control unit 100 receives and collects a plurality of sensing data received by the sensor unit 200, classifies each collected sensing data, and includes the driving pattern of the driver To the transmission unit 120, the operation state information including the operation pattern information and the surrounding situation of the vehicle. The data collecting unit 110 collects vehicle behavior data received from the vehicle behavior sensor 210, image data received from the camera sensor 220, radar sensing data received from the radar sensor 230, and Lidar sensor 240 The ultrasound data received from the ultrasonic sensor 250, the infrared data received from the infrared sensor 260, and the illuminance data received from the illuminance sensor 270 are collected. Then, the collected sensing data is classified and transmitted to the transmission unit 120, including the driving pattern information including the driving pattern of the driver, and the surrounding information including the surroundings of the vehicle.

송신부(120)는 복수의 센싱 데이터에 기초한 운전 패턴 정보 및 주변 상황 정보를 서버(300)로 전송한다.The transmission unit 120 transmits operation pattern information and surrounding state information based on a plurality of sensing data to the server 300.

제어 유닛(100)의 수신부(130)는 서버(300)로부터 운전패턴 파라미터를 수신한 후, 수신된 운전패턴 파라미터를 제어부(140)로 전송한다. 여기서, 운전패턴 파라미터는 각 차량별로 운전자에게 최적화된 것으로 조향 제어 장치(410) 및 제동 제어 장치(420)를 제어에 필요한 파라미터를 포함한다.The receiving unit 130 of the control unit 100 receives the operation pattern parameter from the server 300 and then transmits the received operation pattern parameter to the control unit 140. [ Here, the operation pattern parameters are optimized for the driver for each vehicle and include parameters necessary for controlling the steering control device 410 and the braking control device 420.

제어 유닛(100)의 제어부(140)는 수신된 운전패턴 파라미터에 기초하여 조향 제어 장치(410) 및 제동 제어 장치(420)를 제어하기 위한 파라미터를 업데이트 한다. 그리고, 업데이트된 파라미터를 적용하여 조향 제어 장치(410) 및 제동 제어 장치(420)의 구동을 제어한다.The control unit 140 of the control unit 100 updates the parameters for controlling the steering control device 410 and the braking control device 420 based on the received operation pattern parameters. Then, it controls the operation of the steering control device 410 and the brake control device 420 by applying the updated parameters.

도 2는 도 1에 도시된 서버를 나타내는 도면이다.Fig. 2 is a diagram showing the server shown in Fig. 1. Fig.

도 2를 참조하면, 서버(300)는 데이터 분석부(310), 메모리(320) 및 업데이트부(330)를 포함한다. 여기서, 각 차량의 제어 유닛(100)과 서버(300)는 4G/LTE(Long Term Evolution) 통신 방식으로 무선으로 접속되어 데이터를 송/수신 한다.Referring to FIG. 2, the server 300 includes a data analysis unit 310, a memory 320, and an update unit 330. Here, the control unit 100 and the server 300 of each vehicle are connected wirelessly by 4G / LTE (Long Term Evolution) communication method to transmit / receive data.

데이터 분석부(310)는 딥 러닝(deep learning)과 같은 신경망 알고리즘 기법을 적용하여 복수의 차량 각각의 제어 유닛(100)에서 수신된 운전 패턴 정보 및 주변 상황 정보를 각 차량의 운전자 별로 분류하고, 각 운전자 별로 운전 패턴을 분석한다. 그리고, 각 운전자 별로 운전 패턴을 분석한 결과로서 운전패턴 파라미터를 생성하고, 생성된 운전패턴 파라미터를 메모리(320)에 저장 및 업데이트부(330)로 전송한다.The data analyzer 310 classifies the operation pattern information and the surrounding situation information received by the control unit 100 of each of the plurality of vehicles by driver of each vehicle by applying a neural network algorithm technique such as deep learning, Analyze the driving pattern for each driver. The operation pattern parameter is generated as a result of analyzing the operation pattern for each driver, and the generated operation pattern parameter is stored in the memory 320 and transmitted to the update unit 330.

여기서, 운전 패턴 정보 및 주변 상황 정보는 각 차량의 차량 거동 센서(210)에서 수신된 차량 거동 데이터, 카메라 센서(220)에서 수신된 이미지 데이터, 레이더 센서(230)에서 수신된 레이더 센싱 데이터, Lidar 센서(240)에서 수신된 Lidar 센싱 데이터, 초음파 센서(250)에서 수신된 초음파 데이터, 적외선 센서(260)에서 수신된 적외선 데이터 및 조도 센서(270)에서 수신된 조도 데이터에 기초한 것으로, 각 차량에서 수신된 운전 패턴 정보 및 주변 상황 정보를 통해서 각 차량의 운전자에게 친화적인 운전패턴 파라미터를 생성할 수 있다. 이때, 생성된 운전패턴 파라미터에 기초하여 각 차량에서 조향 제어 장치(410) 및 제동 제어 장치(420)를 제어할 수 있다.Here, the operation pattern information and the surrounding situation information include vehicle behavior data received from the vehicle behavior sensor 210 of each vehicle, image data received from the camera sensor 220, radar sensing data received from the radar sensor 230, Lidar sensing data received at the sensor 240, ultrasound data received at the ultrasonic sensor 250, infrared data received at the infrared sensor 260, and illuminance data received at the illuminance sensor 270, It is possible to generate an operation pattern parameter that is friendly to the driver of each vehicle through the received operation pattern information and the surrounding situation information. At this time, it is possible to control the steering control device 410 and the braking control device 420 in each vehicle based on the generated operation pattern parameters.

업데이트부(330)는 각 차량의 운전자 별로 생성된 운전패턴 파라미터를 업데이트한 후, 메모리(320)에 저장한다. 그리고, 업데이트 된 운전패턴 파라미터를 차량의 제어 유닛(100)으로 전송한다. 이때, 각 차량의 운전자 별로 운전패턴 파라미터가 생성됨으로, 각 차량의 운전자에 대응되는 운전패턴 파라미터를 해당 차량의 제어 유닛(100)으로 전송한다.The update unit 330 updates the operation pattern parameters generated for each driver of each vehicle and stores the updated operation pattern parameters in the memory 320. [ Then, the updated operation pattern parameter is transmitted to the control unit 100 of the vehicle. At this time, an operation pattern parameter is generated for each driver of each vehicle, so that the operation pattern parameter corresponding to the driver of each vehicle is transmitted to the control unit 100 of the corresponding vehicle.

이때, 운전습관 파라미터는 각 차량의 운전자의 운전패턴과 동일 또는 유사한 제동 강도, 제동 시간, 제동 시간 시점, 선행 차량과의 거리, 스티어링의 제어, 조향 각도, 조향 시작 시점을 제어하기 위한 파라미터를 포함한다. 각 차량의 운전자의 운전패턴은 도로의 특성, 차량의 주변 상태에 따라서 달라질 수 있음으로, 지속적으로 각 차량의 제어 유닛(100)으로부터 운전 패턴 정보 및 주변 상황 정보를 수신한 후, 이를 분석하여 각 차량의 운전자에 대응되는 운전패턴 파라미터를 생성한다.At this time, the driving habit parameter includes parameters for controlling the braking intensity, braking time, braking time, distance to the preceding vehicle, steering control, steering angle, and steering start point which are the same as or similar to the driving pattern of the driver of each vehicle do. Since the operation pattern of the driver of each vehicle can be changed according to the characteristics of the road and the surrounding state of the vehicle, the operation pattern information and the surrounding situation information are continuously received from the control unit 100 of each vehicle, And generates an operation pattern parameter corresponding to the driver of the vehicle.

제어 유닛(100)의 제어부(140)는 서버(300)에서 수신된 운전패턴 파라미터를 업데이트 하고, 업데이트된 운전패턴 파라미터에 기초하여 조향 제어 장치(410) 및 제동 제어 장치(420)를 제어한다.The control unit 140 of the control unit 100 updates the operation pattern parameters received from the server 300 and controls the steering control device 410 and the braking control device 420 based on the updated operation pattern parameters.

조향 제어 장치(410)는 스티어링 휠을 구동시키는 전동식 파워스티어링 시스템(MPDS)에 대한 제어를 수행한다. 예를 들어, 자동차가 충돌이 예상되는 경우에 조향 컨트롤러(334)는 충돌을 회피하거나 피해를 최소화할 수 있는 방향으로 자동차의 조향을 제어한다.The steering control device 410 performs control on an electric power steering system (MPDS) that drives a steering wheel. For example, when the vehicle is expected to collide, the steering controller 334 controls the steering of the vehicle in such a direction as to avoid collision or minimize damage.

제동 제어 장치(420)는 자동차의 브레이크의 동작 여부를 제어하고 브레이크의 압력을 제어한다. 예를 들어, 전방 충돌이 예상되는 경우에 운전자가 브레이크를 동작 시켰는지 여부와 무관하게 제동 제어 장치(420)는 제어 유닛(100)에서 수신된 제어 명령에 따라서 자동적으로 긴급 브레이크를 작동시키도록 제어한다.The braking control device 420 controls whether or not the brakes of the vehicle are operated and controls the pressures of the brakes. For example, regardless of whether or not the driver has operated the brake in the case where a forward collision is expected, the braking control device 420 automatically controls the emergency brake in accordance with the control command received from the control unit 100 do.

조향 제어 장치(410) 및 제동 제어 장치(420)는 업데이트 된 각각의 파라미터에 의해서 조향 제어 및 제동 제어가 이루어지도록 함으로써, 자동긴급제동 시 평소 운전자의 습관과 동일 또는 유사한 제동력이 발생하도록 하고, 이를 통해 편안한 주행감을 제공할 수 있다. 나아가, 자율주행 시 평소 운전자의 습관과 동일 또는 유사한 스티어링 제어, 가속 제어, 제동 제어가 이루어지도록 함으로써 편안한 주행감을 제공할 수 있다.The steering control device 410 and the braking control device 420 allow the steering control and the braking control to be performed according to the updated parameters, so that the braking force that is the same as or similar to the habit of the driver at the time of the automatic emergency braking is generated, Thereby providing a comfortable driving feeling. Furthermore, when the autonomous vehicle is driven, steering control, acceleration control, and braking control that are the same as or similar to the habit of an ordinary driver are performed, thereby providing a comfortable driving feeling.

도 3은 본 발명의 실시 예에 따른 사용자 친화적 차량 제어 방법을 나타내는 도면이다.3 is a diagram illustrating a user-friendly vehicle control method according to an embodiment of the present invention.

도 3을 참조하면, 각 차량의 제어 유닛(100)은 운전자의 운전 패턴을 수집한다(S10). 이와 함께, 각 차량의 주변 상황 정보를 수집한다. 이후, 운전자의 운전 패턴 정보 및 주변 상황 정보를 생성한다.Referring to FIG. 3, the control unit 100 of each vehicle collects the driver's driving pattern (S10). At the same time, information on the surrounding situation of each vehicle is collected. Then, the driver's operation pattern information and surrounding situation information are generated.

여기서, 운전 패턴 정보 및 주변 상황 정보는 각 차량의 차량 거동 센서(210)에서 수신된 차량 거동 데이터, 카메라 센서(220)에서 수신된 이미지 데이터, 레이더 센서(230)에서 수신된 레이더 센싱 데이터, Lidar 센서(240)에서 수신된 Lidar 센싱 데이터, 초음파 센서(250)에서 수신된 초음파 데이터, 적외선 센서(260)에서 수신된 적외선 데이터 및 조도 센서(270)에서 수신된 조도 데이터에 기초한 것으로, 각 차량에서 수신된 운전 패턴 정보 및 주변 상황 정보를 통해서 각 차량의 운전자에게 친화적인 운전패턴 파라미터를 생성할 수 있다. 이때, 생성된 운전패턴 파라미터에 기초하여 각 차량에서 조향 제어 장치(410) 및 제동 제어 장치(420)를 제어할 수 있다.Here, the operation pattern information and the surrounding situation information include vehicle behavior data received from the vehicle behavior sensor 210 of each vehicle, image data received from the camera sensor 220, radar sensing data received from the radar sensor 230, Lidar sensing data received at the sensor 240, ultrasound data received at the ultrasonic sensor 250, infrared data received at the infrared sensor 260, and illuminance data received at the illuminance sensor 270, It is possible to generate an operation pattern parameter that is friendly to the driver of each vehicle through the received operation pattern information and the surrounding situation information. At this time, it is possible to control the steering control device 410 and the braking control device 420 in each vehicle based on the generated operation pattern parameters.

이어서, 각 차량의 제어 유닛(100)은 운전 패턴 정보 및 주변 상황 정보를 서버(300)로 전송한다(S20).Then, the control unit 100 of each vehicle transmits the operation pattern information and the surrounding situation information to the server 300 (S20).

이어서, 서버(300)는 복수의 차량 각각에서 수신된 운전 패턴 정보 및 주변 상황 정보를 각 차량의 운전자 별로 분류한 후, 분석하여 차량 제어 파라미터, 즉, 각 운전자 별 운전패턴 파라미터를 생성한다. 이후, 기존의 운전패턴 파라미터와 새로 생성된 운전패턴 파라미터를 비교한 후, 차이가 있는 경에, 새로운 운전패턴 파라미터로 업데이트 한다(S30).Subsequently, the server 300 After classifying the operation pattern information and the surrounding situation information received by each of the plurality of vehicles by the driver of each vehicle, And generates vehicle control parameters, that is, operation pattern parameters for each driver. Thereafter, the existing operation pattern parameter is compared with the newly generated operation pattern parameter, and the difference is updated to the new operation pattern parameter (S30).

여기서, 운전패턴 파라미터는 각 차량의 운전자의 운전패턴과 동일 또는 유사한 제동 강동, 제동 시간, 제도 시간 시점, 선행 차량과의 거리, 조향 각도, 조향 시작 시점에 대한 파라미터를 포함한다.Here, the operation pattern parameter includes the same or similar braking acceleration, braking time, drafting time, distance to the preceding vehicle, steering angle, and starting point of the steering of the driver of each vehicle.

이어서, 서버(300)는 각 차량 별로 차량의 제어를 위한 파라미터인 운전패턴 파라미터를 송신하고, 각 차량 별로 제어 유닛(100)이 운전패턴 파라미터를 수신한다(S40).Subsequently, the server 300 transmits the operation pattern parameters, which are parameters for controlling the vehicle, for each vehicle, and the control unit 100 receives the operation pattern parameters for each vehicle (S40).

이어서, 각 차량의 제어 유닛(100)은 수신된 운전패턴 파라미터를 업데이트 한 후, 업데이트된 운전패턴 파라미터에 기초하여 조향 제어 장치(410) 및 제동 제어 장치(420)를 제어한다. 이를 통해, 자동긴급제동 시 평소 운전자의 습관과 동일 또는 유사한 제동력이 발생하도록 하고, 이를 통해 편안한 주행감을 제공할 수 있다. 나아가, 자율주행 시 평소 운전자의 습관과 동일 또는 유사한 스티어링 제어, 가속 제어, 제동 제어가 이루어지도록 함으로써 편안한 주행감을 제공할 수 있다.Subsequently, the control unit 100 of each vehicle updates the received operation pattern parameters and then controls the steering control device 410 and the braking control device 420 based on the updated operation pattern parameters. As a result, when the automatic emergency braking is performed, the same or similar braking force as that of the normal driver is generated, thereby providing a comfortable driving feeling. Furthermore, when the autonomous vehicle is driven, steering control, acceleration control, and braking control that are the same as or similar to the habit of an ordinary driver are performed, thereby providing a comfortable driving feeling.

본 발명이 속하는 기술 분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims and their equivalents. Only. It is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. .

하나 이상의 예시적인 실시 예에서, 설명한 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수 있다. 소프트웨어로 구현된다면, 이 기능들은 컴퓨터 판독 가능 매체 상에 하나 이상의 명령 또는 코드로서 저장 또는 전송될 수 있다. 컴퓨터 판독 가능 매체는 한 장소에서 다른 장소로 컴퓨터 프로그램의 전달을 용이하게 하는 임의의 매체를 포함하는 통신 매체 및 컴퓨터 저장 매체를 모두 포함한다. 저장 매체는 컴퓨터에 의해 액세스 가능한 임의의 이용 가능한 매체일 수 있다. 한정이 아닌 예시로, 이러한 컴퓨터 판독 가능 매체는 RAM, ROM, EEPROM, CD-ROM이나 다른 광 디스크 저장소, 자기 디스크 저장소 또는 다른 자기 저장 디바이스, 또는 명령이나 데이터 구조의 형태로 원하는 프로그램코드를 전달 또는 저장하는데 사용될 수 있으며 컴퓨터에 의해 액세스 가능한 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터 판독 가능 매체로 적절히 지칭된다. 예를 들어, 소프트웨어가 동축 케이블, 광섬유 케이블, 꼬임 쌍선, 디지털 가입자 회선(DSL), 또는 적외선, 라디오 및 초고주파와 같은 무선 기술을 이용하여 웹사이트, 서버 또는 다른 원격 소스로부터 전송된다면, 동축 케이블, 광섬유 케이블, 꼬임 쌍선, DSL, 또는 적외선, 라디오 및 초고주파와 같은 무선 기술들이 매체의 정의에 포함된다. 여기서 사용된 것과 같은 디스크(disk 및 disc)는 콤팩트 디스크(CD), 레이저 디스크, 광 디스크, 디지털 다목적 디스크(DVD), 플로피디스크 및 블루레이 디스크를 포함하며, 디스크(disk)들은 보통 데이터를 자기적으로 재생하는 반면, 디스크(disc)들은 데이터를 레이저에 의해 광학적으로 재생한다. 상기의 조합들 또한 컴퓨터 판독 가능 매체의 범위 내에 포함되어야 한다.In one or more exemplary embodiments, the functions described may be implemented in hardware, software, firmware, or any combination thereof. If implemented in software, these functions may be stored or transmitted as one or more instructions or code on a computer readable medium. Computer-readable media includes both communication media and computer storage media including any medium that facilitates transfer of a computer program from one place to another. The storage medium may be any available media that is accessible by a computer. By way of example, and not limitation, such computer-readable media can comprise any computer-readable medium, such as RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage devices, And any other medium that can be used to store and be accessed by a computer. Also, any connection is properly referred to as a computer-readable medium. For example, if the software is transmitted from a web site, server, or other remote source using a wireless technology such as coaxial cable, fiber optic cable, twisted pair cable, digital subscriber line (DSL), or infrared, radio and ultra high frequency, Wireless technologies such as fiber optic cable, twisted pair, DSL, or infrared, radio and microwave are included in the definition of media. Disks and discs as used herein include compact discs (CDs), laser discs, optical discs, digital versatile discs (DVD), floppy discs and Blu-ray discs, While discs reproduce data optically by means of a laser. Combinations of the above should also be included within the scope of computer readable media.

실시 예들이 프로그램 코드나 코드 세그먼트들로 구현될 때, 코드 세그먼트는 프로시저, 함수, 서브프로그램, 프로그램, 루틴, 서브루틴, 모듈, 소프트웨어 패키지, 클래스, 또는 명령들, 데이터 구조들, 또는 프로그램 명령문들의 임의의 조합을 나타낼 수 있는 것으로 인식해야 한다. 코드 세그먼트는 정보, 데이터, 인수(argument), 파라미터 또는 메모리 콘텐츠를 전달 및/또는 수신함으로써 다른 코드 세그먼트 또는 하드웨어 회로에 연결될 수 있다. 정보, 인수, 파라미터, 데이터 등은 메모리 공유, 메시지 전달, 토큰 전달, 네트워크 송신 등을 포함하는 임의의 적당한 수단을 이용하여 전달, 발송 또는 전송될 수 있다. 추가로, 어떤 측면들에서 방법 또는 알고리즘의 단계들 및/또는 동작들은 컴퓨터 프로그램 물건으로 통합될 수 있는 기계 판독 가능 매체 및/또는 컴퓨터 판독 가능 매체 상에 코드들 및/또는 명령들 중 하나 또는 이들의 임의의 조합이나 세트로서 상주할 수 있다.When embodiments are implemented as program code or code segments, the code segments may be stored as a procedure, a function, a subprogram, a program, a routine, a subroutine, a module, a software package, a class, As well as any combination thereof. A code segment may be coupled to another code segment or hardware circuit by conveying and / or receiving information, data, arguments, parameters or memory contents. Information, arguments, parameters, data, etc. may be communicated, sent, or transmitted using any suitable means including memory sharing, message passing, token passing, Additionally, in some aspects, steps and / or operations of a method or algorithm may be performed on one or more of the codes and / or instructions on a machine readable medium and / or computer readable medium that may be integrated into a computer program product As a combination or set of < / RTI >

소프트웨어에서 구현에서, 여기서 설명한 기술들은 여기서 설명한 기능들을 수행하는 모듈들(예를 들어, 프로시저, 함수 등)로 구현될 수 있다. 소프트웨어 코드들은 메모리 유닛들에 저장될 수 있으며 프로세서들에 의해 실행될 수 있다. 메모리 유닛은 프로세서 내에 구현될 수도 있고 프로세서 외부에 구현될 수 있으며, 이 경우 메모리 유닛은 공지된 바와 같이 다양한 수단에 의해 프로세서에 통신 가능하게 연결될 수 있다.In an implementation in software, the techniques described herein may be implemented with modules (e.g., procedures, functions, and so on) that perform the functions described herein. The software codes may be stored in memory units and executed by processors. The memory unit may be implemented within the processor and external to the processor, in which case the memory unit may be communicatively coupled to the processor by various means as is known.

하드웨어 구현에서, 처리 유닛들은 하나 이상의 주문형 집적 회로(ASIC), 디지털 신호 프로세서(DSP), 디지털 신호 처리 디바이스(DSPD), 프로그래밍 가능 로직 디바이스(PLD), 현장 프로그래밍 가능 게이트 어레이(FPGA), 프로세서, 제어기, 마이크로컨트롤러, 마이크로프로세서, 여기서 설명한 기능들을 수행하도록 설계된 다른 전자 유닛들, 또는 이들의 조합 내에 구현될 수 있다.In a hardware implementation, the processing units may be implemented as one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays Controllers, microcontrollers, microprocessors, other electronic units designed to perform the functions described herein, or a combination thereof.

상술한 것은 하나 이상의 실시 예의 실례를 포함한다. 물론, 상술한 실시 예들을 설명할 목적으로 컴포넌트들 또는 방법들의 가능한 모든 조합을 기술할 수 있는 것이 아니라, 당 업자들은 다양한 실시 예의 많은 추가 조합 및 치환이 가능함을 인식할 수 있다. 따라서 설명한 실시 예들은 첨부된 청구범위의 진의 및 범위 내에 있는 모든 대안, 변형 및 개조를 포함하는 것이다. 더욱이, 상세한 설명 또는 청구범위에서 "포함한다"라는 용어가 사용되는 범위에 대해, 이러한 용어는 "구성되는"이라는 용어가 청구범위에서 과도적인 단어로 사용될 때 해석되는 것과 같이 "구성되는"과 비슷한 식으로 포함되는 것이다.What has been described above includes examples of one or more embodiments. It is, of course, not possible to describe all possible combinations of components or methods for purposes of describing the embodiments described, but those skilled in the art will recognize that many further combinations and permutations of various embodiments are possible. Accordingly, the described embodiments are intended to embrace all such alterations, modifications and variations that fall within the spirit and scope of the appended claims. Furthermore, to the extent that the term "comprises" is used in the detailed description or the claims, such terms are intended to be inclusive in a manner similar to "consisting" .

더욱이, 본 출원에서 사용된 바와 같이, "컴포넌트", "모듈", "시스템" 등의 용어는 이에 한정되는 것은 아니지만, 하드웨어, 펌웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어 또는 실행중인 소프트웨어와 같은 컴퓨터 관련 엔티티를 포함하는 것이다. 예를 들어, 컴포넌트는 이에 한정되는 것은 아니지만, 프로세서상에서 실행하는 프로세스, 프로세서, 객체, 실행 가능한 실행 스레드, 프로그램 및/또는 컴퓨터일 수도 있다. 예시로, 연산 디바이스 상에서 구동하는 애플리케이션과 연산 디바이스 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트가 프로세스 및/또는 실행 스레드 내에 상주할 수 있으며, 컴포넌트가 하나의 컴퓨터에 집중될 수도 있고 그리고/또는 2개 이상의 컴퓨터 사이에 분산될 수도 있다. 또한, 이들 컴포넌트는 각종 데이터 구조를 저장한 각종 컴퓨터 판독 가능 매체로부터 실행될 수 있다. 컴포넌트들은 하나 이상의 데이터 패킷(예를 들어, 로컬 시스템, 분산 시스템의 다른 컴포넌트와 그리고/또는 신호에 의해 다른 시스템들과 인터넷과 같은 네트워크를 거쳐 상호 작용하는 어떤 컴포넌트로부터의 데이터)을 갖는 신호에 따르는 등 로컬 및/또는 원격 프로세스에 의해 통신할 수 있다.Furthermore, as used in this application, the terms "component," "module," "system," and the like are intended to encompass all types of computer- Entity. For example, a component may be, but is not limited to, a process running on a processor, a processor, an object, an executable execution thread, a program, and / or a computer. By way of illustration, both the application running on the computing device and the computing device can be components. One or more components may reside within a process and / or thread of execution, and the components may be centralized on one computer and / or distributed between two or more computers. These components may also be executed from various computer readable media having various data structures stored thereon. The components may be associated with a signal having one or more data packets (e.g., data from a local system, data from another component of the distributed system and / or signals from other components interacting with other systems via a network such as the Internet) Lt; RTI ID = 0.0 > and / or < / RTI > remote processes.

100: 제어 유닛 110: 데이터 수집부
120: 송신부 130: 수신부
140: 제어부 200: 센서부
210: 차량 거동 센서 220: 카메라 센서
230: 레이더 센서 240: Lidar 센서
250: 초음파 센서 260: 적외선 센서
270: 조도 센서 300: 서버
410: 조향 제어 장치 420: 제동 제어 장치
100: control unit 110:
120: transmitting unit 130: receiving unit
140: control unit 200:
210: vehicle behavior sensor 220: camera sensor
230: Radar sensor 240: Lidar sensor
250: Ultrasonic sensor 260: Infrared sensor
270: illuminance sensor 300: server
410: Steering control device 420: Braking control device

Claims (11)

각 차량에 배치되어 주행에 따른 운전 패턴 및 차량 주변 상황을 센싱하여 센싱 데이터를 출력하는 복수의 차량 센서;
상기 복수의 차량 센서에서 수신된 각각의 센싱 데이터를 수집 및 분류하여, 운전 패턴을 포함하는 운전 패턴 정보 및 차량 주변의 상황을 포함하는 주변 상황 정보를 출력하는 데이터 수집부;
상기 운전 패턴 정보 및 주변 상황 정보를 서버로 전송하는 송신부;
상기 서버로부터 수신된 운전패턴 파라미터를 수신하는 수신부;
수신된 상기 운전패턴 파라미터를 업데이트하고, 상기 운전패턴 파라미터에 차량의 주행을 제어하는 제어부;를 포함하는 사용자 친화적 차량 제어 시스템.
A plurality of vehicle sensors disposed in each of the plurality of vehicles and sensing the operation pattern and surrounding conditions of the vehicle according to the traveling to output sensing data;
A data collecting unit collecting and classifying each sensing data received from the plurality of vehicle sensors and outputting surrounding pattern information including operation pattern information including an operation pattern and a situation around the vehicle;
A transmitter for transmitting the operation pattern information and the surrounding situation information to a server;
A receiving unit for receiving an operation pattern parameter received from the server;
And a controller for updating the received operation pattern parameter and controlling driving of the vehicle to the operation pattern parameter.
제1 항에 있어서, 상기 복수의 차량 센서는,
차량 거동을 센싱하는 차량 거동 센서, 차량의 전방, 후방, 좌/우 측방의 이미지 데이터를 생성하는 카메라 센서, 차량 주변의 레이더 센싱 데이터를 생성하는 레이더 센서, 차량 주변의 Lidar 센서 데이터를 생성하는 Lidar 센서, 초음파 데이터를 생성하는 초음파 센서, 적외선 데이터를 생성하는 적외선 센서 및 조도 데이터를 생성하는 조도 센서를 포함하는 사용자 친화적 차량 제어 시스템.
The vehicle sensor system according to claim 1,
A vehicle behavior sensor that senses vehicle behavior, a camera sensor that generates image data of the front, rear, left and right sides of the vehicle, a radar sensor that generates radar sensing data around the vehicle, and Lidar A user-friendly vehicle control system including a sensor, an ultrasonic sensor for generating ultrasonic data, an infrared sensor for generating infrared data, and an illuminance sensor for generating illumination data.
제1 항에 있어서, 상기 제어부는,
상기 운전패턴 파라미터에 기초하여 차량의 조향 제어 장치 및 제동 제어 장치를 제어하는 사용자 친화적 차량 제어 시스템.
The apparatus of claim 1,
And controls the steering control device and the braking control device of the vehicle based on the operation pattern parameter.
복수의 차량 각각의 제어 유닛으로부터 수신된 운전 패턴 정보 및 주변 상황 정보를 각 차량의 운전자 별로 분류 및 분석하여 각 운전자 별 운전패턴 파라미터를 생성하는 데이터 분석부; 및
상기 각 운전자 별 운전패턴 파라미터를 업데이트 및 메모리에 저장하고, 상기 복수의 차량 각각의 제어 유닛에 대응되는 운전패턴 파라미터를 전송하는 업데이트부;를 구비한 서버를 포함하는 사용자 친화적 차량 제어 시스템.
A data analysis unit for classifying and analyzing the operation pattern information and the surrounding situation information received from the control units of the plurality of vehicles for each driver of each vehicle to generate operation pattern parameters for each driver; And
And an update unit for updating the operation pattern parameters for each driver and storing them in a memory and transmitting operation pattern parameters corresponding to the control units of the plurality of vehicles.
제4 항에 있어서, 상기 운전패턴 파라미터는,
각 차량의 조향 제어 장치 및 제동 제어 장치의 제어를 위한 파라미터를 포함하는 사용자 친화적 차량 제어 시스템.
5. The method according to claim 4,
And a parameter for controlling the steering control device and the braking control device of each vehicle.
제4 항에 있어서, 상기 운전패턴 파라미터는,
각 차량의 운전자의 운전패턴과 동일 또는 유사한 제동 강동, 제동 시간, 제도 시간 시점, 선행 차량과의 거리, 조향 각도, 조향 시작 시점에 대한 파라미터를 포함하는 사용자 친화적 차량 제어 시스템.
5. The method according to claim 4,
A user-friendly vehicle control system including parameters for braking dynamics, braking time, drafting time point, distance to preceding vehicle, steering angle, and steering start time that are the same as or similar to the driver's driving pattern of each vehicle.
각 차량 별로 운전자의 운전 패턴 정보 및 주변 상황 정보를 수집하는 단계;
복수의 차량 각각에서 수집된 운전 패턴 정보 및 주변 상황 정보를 서버로 전송하는 단계; 및
상기 서버에서 수신된 운전자 별 운전패턴 파라미터에 기초하여 차량의 조향 제어 장치 및 제동 제어 장치를 제어하는 단계;를 포함하는 사용자 친화적 차량 제어 방법.
Collecting the driver's operation pattern information and surrounding situation information for each vehicle;
Transmitting operation pattern information and surrounding situation information collected from each of the plurality of vehicles to a server; And
And controlling the steering control device and the braking control device of the vehicle based on the driver-specific operation pattern parameters received from the server.
제7 항에 있어서, 상기 운전패턴 파라미터는,
상기 복수의 차량 각각의 운전자의 운전패턴과 동일 또는 유사한 제동 강동, 제동 시간, 제도 시간 시점, 선행 차량과의 거리, 조향 각도, 조향 시작 시점에 대한 파라미터를 포함하는 사용자 친화적 차량 제어 방법.
8. The method according to claim 7,
A braking time, a drafting time point, a distance to a preceding vehicle, a steering angle, and a steering start time, which are the same as or similar to an operation pattern of a driver of each of the plurality of vehicles.
제7 항에 있어서,
차량 거동 데이터, 차량의 전방, 후방, 좌/우 측방의 이미지 데이터, 차량 주변의 레이더 센싱 데이터, 차량 주변의 Lidar 센서 데이터, 초음파 데이터, 적외선 데이터 및 조도 데이터에 기초하여 상기 운전 패턴 정보 및 상기 주변 상황 정보를 생성하는 사용자 친화적 차량 제어 방법.
8. The method of claim 7,
Based on the vehicle behavior data, the image data of the front, rear, left and right sides of the vehicle, radar sensing data of the surroundings of the vehicle, Lidar sensor data of the surroundings of the vehicle, ultrasound data, infrared data and illuminance data, A user-friendly vehicle control method for generating situation information.
복수의 차량 각각에서 수신된 운전 패턴 정보 및 주변 상황 정보를 각 차량의 운전자 별로 분류 및 분석하여 각 운전자 별 운전패턴 파라미터를 생성하는 단계;
상기 운전패턴 파라미터를 업데이트 저장하는 단계;
상기 운전패턴 파라미터를 복수의 차량 각각으로 전송하는 단계;를 포함하는 사용자 친화적 차량 제어 방법.
Generating driving pattern parameters for each driver by classifying and analyzing operation pattern information and surrounding situation information received from each of the plurality of vehicles for each driver of each vehicle;
Updating and storing the operation pattern parameter;
And transmitting the operation pattern parameter to each of the plurality of vehicles.
제10 항에 있어서, 상기 운전패턴 파라미터는,
상기 복수의 차량 각각의 운전자의 운전패턴과 동일 또는 유사한 제동 강동, 제동 시간, 제도 시간 시점, 선행 차량과의 거리, 조향 각도, 조향 시작 시점에 대한 파라미터를 포함하는 사용자 친화적 차량 제어 방법.
11. The method according to claim 10,
A braking time, a drafting time point, a distance to a preceding vehicle, a steering angle, and a steering start time, which are the same as or similar to an operation pattern of a driver of each of the plurality of vehicles.
KR1020170023985A 2017-02-23 2017-02-23 System and Method Of User Experiential vehicle controlling KR20180097247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170023985A KR20180097247A (en) 2017-02-23 2017-02-23 System and Method Of User Experiential vehicle controlling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170023985A KR20180097247A (en) 2017-02-23 2017-02-23 System and Method Of User Experiential vehicle controlling

Publications (1)

Publication Number Publication Date
KR20180097247A true KR20180097247A (en) 2018-08-31

Family

ID=63407654

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170023985A KR20180097247A (en) 2017-02-23 2017-02-23 System and Method Of User Experiential vehicle controlling

Country Status (1)

Country Link
KR (1) KR20180097247A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109814552A (en) * 2018-12-28 2019-05-28 百度在线网络技术(北京)有限公司 Vehicular control unit, the Vehicular automatic driving method and device based on FPGA
KR20200046139A (en) * 2018-10-15 2020-05-07 삼성전자주식회사 Method and apparatus of controlling vehicel
CN112477872A (en) * 2020-11-26 2021-03-12 中国第一汽车股份有限公司 Parameter calibration method, device, equipment and storage medium
CN114586081A (en) * 2019-10-31 2022-06-03 索尼集团公司 Information processing apparatus, information processing system, and information processing method
WO2022212939A1 (en) * 2021-04-02 2022-10-06 Renovo Motors, Inc. Indexing sensor data about the physical world

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020015135A (en) 2000-08-21 2002-02-27 이계안 System for alarming crash a cross roads

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020015135A (en) 2000-08-21 2002-02-27 이계안 System for alarming crash a cross roads

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200046139A (en) * 2018-10-15 2020-05-07 삼성전자주식회사 Method and apparatus of controlling vehicel
US11550326B2 (en) 2018-10-15 2023-01-10 Samsung Electronics Co., Ltd. Method and apparatus for controlling vehicle
CN109814552A (en) * 2018-12-28 2019-05-28 百度在线网络技术(北京)有限公司 Vehicular control unit, the Vehicular automatic driving method and device based on FPGA
CN109814552B (en) * 2018-12-28 2024-05-24 阿波罗智能技术(北京)有限公司 Vehicle-mounted control unit, and automatic vehicle driving method and device based on FPGA
US12022237B2 (en) 2018-12-28 2024-06-25 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Vehicle-mounted control unit, and method and apparatus for FPGA based automatic driving of vehicle
CN114586081A (en) * 2019-10-31 2022-06-03 索尼集团公司 Information processing apparatus, information processing system, and information processing method
CN112477872A (en) * 2020-11-26 2021-03-12 中国第一汽车股份有限公司 Parameter calibration method, device, equipment and storage medium
CN112477872B (en) * 2020-11-26 2022-05-27 中国第一汽车股份有限公司 Parameter calibration method, device, equipment and storage medium
WO2022212939A1 (en) * 2021-04-02 2022-10-06 Renovo Motors, Inc. Indexing sensor data about the physical world

Similar Documents

Publication Publication Date Title
KR101915167B1 (en) Automatically parking system and automatically parking method
KR101915165B1 (en) Automatically parking system and automatically parking method
KR20180097247A (en) System and Method Of User Experiential vehicle controlling
US10906530B2 (en) Automatic parking system and automatic parking method
US9694736B2 (en) Vehicle state indication system
JP2020164162A (en) Vehicle state display system
CN108263375B (en) Automatic parking system and automatic parking method
US9878659B2 (en) Vehicle state indication system
US9868389B2 (en) Vehicle state indication system
CN110371018B (en) Improving vehicle behavior using information from other vehicle lights
KR20180078982A (en) Automatically parking system and automatically parking method
KR101915164B1 (en) Automatically parking system and automatically parking method
KR20160075134A (en) Radar system for the Vehicles
US10933867B2 (en) Artificial intelligence based collision avoidance system and method
CN107209993A (en) Vehicle cognition radar method and system
KR101915163B1 (en) Automatically parking system and automatically parking method
KR102669526B1 (en) A camera system for ADAS, system and method for collision avoidance
KR102669183B1 (en) A camera system for ADAS, And Apparatus and Method for controlling vehicle
KR102666315B1 (en) A camera system for ADAS, System and Method for Intersection Collision prevention
KR20180085530A (en) A camera system for ADAS, system and method for intersection collision avoidance
KR20180129420A (en) System And Method Of Virtual Speed Bump Controlling
KR20180085548A (en) A camera system for ADAS and driving Assistance System by using the same
KR20180085529A (en) A camera system for ADAS, System and Method for Autonomous Emergency Braking
KR102670844B1 (en) A camera system for ADAS and driving Assistance System by using the same
KR102670773B1 (en) A camera system for ADAS and driving Assistance System by using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application