KR102443980B1 - Vehicle control method - Google Patents

Vehicle control method Download PDF

Info

Publication number
KR102443980B1
KR102443980B1 KR1020200154123A KR20200154123A KR102443980B1 KR 102443980 B1 KR102443980 B1 KR 102443980B1 KR 1020200154123 A KR1020200154123 A KR 1020200154123A KR 20200154123 A KR20200154123 A KR 20200154123A KR 102443980 B1 KR102443980 B1 KR 102443980B1
Authority
KR
South Korea
Prior art keywords
driver
vehicle
vehicle control
control method
tracking
Prior art date
Application number
KR1020200154123A
Other languages
Korean (ko)
Other versions
KR20220067434A (en
Inventor
아베드 라마
소니 비벡
Original Assignee
주식회사 아르비존
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아르비존 filed Critical 주식회사 아르비존
Priority to KR1020200154123A priority Critical patent/KR102443980B1/en
Publication of KR20220067434A publication Critical patent/KR20220067434A/en
Application granted granted Critical
Publication of KR102443980B1 publication Critical patent/KR102443980B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Vehicle Body Suspensions (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

본 발명은 차량 제어 방법에 관한 것이다.
본 발명의 일례에 따른 센서가 구비된 차량에 탑재된 차량 제어 장치의 차량 제어 방법은, 상기 차량의 내부를 센싱하는 상기 센서로부터 센싱 정보를 수신하는 단계; 상기 센싱 정보를 이용하여, 상기 차량의 탑승자를 분석하는 단계; 상기 탑승자가 운전하는 것으로 정의된 기설정된 제스처들 중 적어도 하나를 수행하는지 탐색하는 단계; 및 상기 제스처들 중 적어도 하나가 탐색되는 경우, 상기 탐색된 제스처를 수행한 탑승자를 운전자로 결정하는 단계를 포함한다.
The present invention relates to a vehicle control method.
According to an embodiment of the present invention, there is provided a vehicle control method of a vehicle control apparatus mounted on a vehicle equipped with a sensor, the method comprising: receiving sensing information from the sensor sensing the interior of the vehicle; analyzing the occupants of the vehicle by using the sensing information; searching for whether the passenger performs at least one of preset gestures defined as driving; and when at least one of the gestures is detected, determining the occupant who performed the detected gesture as a driver.

Description

차량 제어 방법 {VEHICLE CONTROL METHOD}Vehicle control method {VEHICLE CONTROL METHOD}

본 발명은 차량 내 탑재된 차량 제어 장치의 차량 제어 방법에 관한 것이다.The present invention relates to a vehicle control method of a vehicle control device mounted in a vehicle.

차량은 운동 에너지를 이용하여 사람이나 짐을 이동시킬 수 있는 교통 수단을 의미한다. 차량의 대표적인 예로, 자동차 및 오토바이를 들 수 있다. A vehicle refers to a means of transportation capable of moving a person or a load by using kinetic energy. Representative examples of vehicles include automobiles and motorcycles.

차량을 이용하는 사용자의 안전 및 편의를 위해, 차량에는 각종 센서와 장치가 구비되고 있으며, 차량의 기능이 다양화되고 있다. For the safety and convenience of users using the vehicle, various sensors and devices are provided in the vehicle, and the functions of the vehicle are being diversified.

차량의 기능은 운전자의 편의를 도모하기 위한 편의 기능, 그리고 운전자 및/또는 보행자의 안전을 도모하기 위한 안전 기능으로 나뉠 수 있다. The function of the vehicle may be divided into a convenience function for promoting the convenience of the driver and a safety function for promoting the safety of the driver and/or pedestrian.

먼저, 편의 기능은 차량에 인포테인먼트(information + entertainment) 기능을 부여하고, 부분적인 자율 주행 기능을 지원하거나, 야간 시야나 사각 지대와 같은 운전자의 시야 확보를 돕는 등의 운전자 편의와 관련된 개발 동기를 가진다. 예를 들어, 적응 순향 제어(active cruise control, ACC), 스마트주자시스템(smart parking assist system, SPAS), 나이트비전(night vision, NV), 헤드 업 디스플레이(head up display, HUD), 어라운드 뷰 모니터(around view monitor, AVM), 적응형 상향등 제어(adaptive headlight system, AHS) 기능 등이 있다. First, convenience functions have a motive for development related to driver convenience, such as giving infotainment (information + entertainment) functions to vehicles, supporting partial autonomous driving functions, or helping drivers to secure their vision, such as night vision or blind spots. . For example, adaptive cruise control (ACC), smart parking assist system (SPAS), night vision (NV), head up display (HUD), around view monitor (around view monitor, AVM) and adaptive headlight system (AHS) functions.

안전 기능은 운전자의 안전 및/또는 보행자의 안전을 확보하는 기술로, 차선 이탈 경고 시스템(lane departure warning system, LDWS), 차선 유지 보조 시스템(lane keeping assist system, LKAS), 자동 긴급 제동(autonomous emergency braking, AEB) 기능 등이 있다. The safety function is a technology that secures driver safety and/or pedestrian safety. Lane departure warning system (LDWS), lane keeping assist system (LKAS), automatic emergency braking (autonomous emergency) braking, AEB) functions, etc.

현재 교통사고의 대부분은 운전자의 부주의에 의해 발생하는 것으로 자율주행이 개발되면서 운전자의 부주의를 보완하고 있으나, 여전히 운전자가 운전에 집중하지 못하는 경우가 빈번히 발생하고 있다. 따라서, 운전자가 운전 중에 졸음운전을 하는 경우 등과 같이 부주의한 경우 알림을 주어 운전자가 다시 집중할 수 있게 하는 차량 제어 방법의 개발이 필요하다.Most of the current traffic accidents are caused by the driver's negligence, and although autonomous driving has been developed to compensate for the driver's carelessness, there are still frequent cases in which the driver cannot concentrate on driving. Therefore, it is necessary to develop a vehicle control method that allows the driver to concentrate again by giving a notification when the driver is careless, such as when the driver is drowsy while driving.

본 발명은 차량 제어 방법을 제공하는데, 그 목적이 있다. 본 발명이 해결하려는 과제는 졸음 운전 등 운전자가 운전에 집중하지 못하는 경우 알람을 주어 운전자가 다시 집중할 수 있게 하는 챠랑 제어 방법을 제공하는 것이다.An object of the present invention is to provide a vehicle control method. SUMMARY OF THE INVENTION An object of the present invention is to provide a charang control method that provides an alarm when a driver fails to concentrate on driving, such as drowsy driving, so that the driver can concentrate again.

본 발명이 해결하려는 다른 과제는 차량에 다수의 탑승자가 있는 경우, 탑승자 중 운전자를 결정하고 운전자의 집중 여부를 분석하는 챠랑 제어 방법을 제공하는 것이다.Another problem to be solved by the present invention is to provide a charang control method for determining a driver among occupants and analyzing whether or not the driver is focused, when there are a plurality of occupants in a vehicle.

본 발명의 일례에 따른 센서가 구비된 차량에 탑재된 차량 제어 장치의 상기 차량의 내부를 센싱하는 상기 센서로부터 센싱 정보를 수신하는 단계; 상기 센싱 정보를 이용하여, 상기 차량의 탑승자를 분석하는 단계; 상기 탑승자가 운전하는 것으로 정의된 기설정된 제스처들 중 적어도 하나를 수행하는지 탐색하는 단계; 및 상기 제스처들 중 적어도 하나가 탐색되는 경우, 상기 탐색된 제스처를 수행한 탑승자를 운전자로 결정하는 단계를 포함한다.Receiving sensing information from the sensor for sensing the interior of the vehicle of a vehicle control device mounted on a vehicle equipped with a sensor according to an example of the present invention; analyzing the occupants of the vehicle by using the sensing information; searching for whether the passenger performs at least one of preset gestures defined as driving; and when at least one of the gestures is detected, determining the occupant who performed the detected gesture as a driver.

본 발명의 일 실시예에 있어서, 상기 센서는 카메라를 포함하며, 상기 센싱 정보는 상기 카메라가 측정한 영상 정보일 수 있다.In one embodiment of the present invention, the sensor may include a camera, and the sensing information may be image information measured by the camera.

본 발명의 일 실시예에 있어서, 상기 카메라는 360°촬영이 가능할 수 있다.In one embodiment of the present invention, the camera may be capable of taking 360 °.

본 발명의 일 실시예에 있어서, 상기 운전자의 위치를 분석하고, 상기 차량이 주행 중인 지역의 교통 규칙과 비교할 수 있다.In one embodiment of the present invention, the location of the driver may be analyzed and compared with traffic rules of a region in which the vehicle is driving.

본 발명의 일 실시예에 있어서, 상기 운전자의 위치가 상기 지역의 교통규칙과 다른 경우, 상기 운전자에게 알람을 제공할 수 있다.In one embodiment of the present invention, when the location of the driver is different from the local traffic rules, an alarm may be provided to the driver.

본 발명의 일 실시예에 있어서, 상기 센서가 상기 운전자의 얼굴을 추적하는 단계를 더 포함할 수 있다.In an embodiment of the present invention, the method may further include tracking the driver's face by the sensor.

본 발명의 일 실시예에 있어서, 상기 추적하는 단계는 미리 학습된 CNN 모델에 의해 이루어질 수 있다.In an embodiment of the present invention, the tracking may be performed by a pre-trained CNN model.

본 발명의 일 실시예에 있어서, 상기 운전자의 얼굴을 추적하는 것은 상기 운전자의 눈의 움직임과 입의 움직임 중 적어도 어느 하나를 추적할 수 있다.In one embodiment of the present invention, the tracking of the driver's face may include tracking at least one of an eye movement and a mouth movement of the driver.

본 발명의 일 실시예에 있어서, 상기 운전자의 눈의 움직임을 추적하는 것은 상기 눈의 깜박임 정도를 분석하고, 상기 눈의 깜박임 정도를 기설정된 기준과 비교할 수 있다.In one embodiment of the present invention, tracking the eye movement of the driver may analyze the degree of blinking of the eyes and compare the degree of blinking with a preset reference.

본 발명의 일 실시예에 있어서, 상기 비교 결과를 기반으로 상기 운전자의 상태 소정의 상태 중 어느 하나로 판단할 수 있다.In one embodiment of the present invention, the driver's state may be determined as any one of a predetermined state based on the comparison result.

본 발명의 일 실시예에 있어서, 상기 운전자의 입의 움직임을 추적하는 것은 상기 입의 벌어짐 정도를 분석하고, 상기 입의 벌어짐 정도를 기설정된 기준과 비교할 수 있다.In one embodiment of the present invention, tracking the movement of the driver's mouth may analyze the degree of mouth gaping and compare the degree of mouth gaping with a preset standard.

본 발명의 일 실시예에 있어서, 상기 비교 결과를 기반으로 상기 운전자의 상태 소정의 상태 중 어느 하나로 판단할 수 있다.In one embodiment of the present invention, the driver's state may be determined as any one of a predetermined state based on the comparison result.

본 발명은 다음과 같은 문제를 해결하는 것을 목적으로 한다. An object of the present invention is to solve the following problems.

본 발명의 일 목적은, 차량의 안전한 운행을 위해 운전자를 분석할 수 있도록 운전자의 위치를 결정하는 차량 제어 방법을 제공하는 것이다.SUMMARY OF THE INVENTION One object of the present invention is to provide a vehicle control method for determining the location of a driver so that the driver can be analyzed for safe driving of the vehicle.

또한, 본 발명의 일 목적은, 다른 행동에 집중하고 있어 운전에 부주의한 운전자에게 알람을 주어 운전에 집중하도록 하는 차량 제어 방법을 제공하는 것이다.Another object of the present invention is to provide a vehicle control method for concentrating on driving by giving an alarm to a driver who is inattentive in driving because he is concentrating on another action.

도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 차량 제어 방법을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시 예에 따른 차량 제어 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 일 실시 예에 따른 차량 제어 방법의 구체적인 예시를 설명한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 차량 제어 방법의 구체적인 예시를 설명한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 차량 제어 방법의 구체적인 예시를 설명한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 차량 제어 방법의 구체적인 예시를 설명한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 차량 제어 방법의 구체적인 예시를 설명한 도면이다.
1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
2 is a view showing the interior of a vehicle according to an embodiment of the present invention.
3 is an exemplary view for explaining a vehicle control method according to an embodiment of the present invention.
4 is a flowchart illustrating a vehicle control method according to an embodiment of the present invention.
5 is a view for explaining a specific example of a vehicle control method according to an embodiment of the present invention.
6 is a view for explaining a specific example of a vehicle control method according to an embodiment of the present invention.
7 is a view for explaining a specific example of a vehicle control method according to an embodiment of the present invention.
8 is a view for explaining a specific example of a vehicle control method according to an embodiment of the present invention.
9 is a view for explaining a specific example of a vehicle control method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

본 명세서에 있어서 네트워크의 통신 방식은 제한되지 않으며, 각 구성요소간 연결이 동일한 네트워크 방식으로 연결되지 않을 수도 있다. 네트워크는, 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망, 위성망 등)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는, 객체와 객체가 네트워킹 할 수 있는 모든 통신 방법을 포함할 수 있으며, 유선 통신, 무선 통신, 3G, 4G, 5G, 혹은 그 이외의 방법으로 제한되지 않는다. 예를 들어, 유선 및/또는 네트워크는 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), LTE Advanced, IEEE802.16m, Wireless MAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX(World Interoperability for Microwave Access) 및 IR 활용 통신으로 이루어진 군으로부터 선택되는 하나 이상의 통신 방법에 의한 통신 네트워크를 지칭할 수 있으나, 이에 한정되는 것은 아니다.In the present specification, the communication method of the network is not limited, and the connection between each component may not be connected by the same network method. The network may include not only a communication method using a communication network (eg, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network, a satellite network, etc.) but also short-range wireless communication between devices. For example, the network may include all communication methods through which an object and an object can network, and is not limited to wired communication, wireless communication, 3G, 4G, 5G, or other methods. For example, a wired and/or network may be a Local Area Network (LAN), a Metropolitan Area Network (MAN), a Global System for Mobile Network (GSM), an Enhanced Data GSM Environment (EDGE), a High Speed Downlink Packet Access (HSDPA), Wideband Code Division Multiple Access (W-CDMA), Code Division Multiple Access (CDMA), Time Division Multiple Access (TDMA), Bluetooth, Zigbee, Wi-Fi, Voice over VoIP Internet Protocol), LTE Advanced, IEEE802.16m, Wireless MAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX (World Interoperability for Microwave Access), and IR-based communication to refer to a communication network by one or more communication methods selected from the group consisting of However, the present invention is not limited thereto.

본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.The vehicle described in this specification may be a concept including an automobile and a motorcycle. Hereinafter, the vehicle will be mainly described with respect to the vehicle.

본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다.The vehicle described herein may be a concept including both an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, and an electric vehicle having an electric motor as a power source.

이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측을 의미한다.In the following description, the left side of the vehicle means the left side of the driving direction of the vehicle, and the right side of the vehicle means the right side of the driving direction of the vehicle.

이하, 첨부된 도면을 참조하여 본 발명에 따른 차량 제어 방법에 대해서 설명한다.Hereinafter, a vehicle control method according to the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.

도 2는 본 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.2 is a view showing the interior of a vehicle according to an embodiment of the present invention.

도 1 내지 도 2를 참조하면, 차량(100)은 동력원에 의해 회전하는 바퀴, 차량(100)의 진행 방향을 조절하기 위한 조향 입력 장치(120)를 포함할 수 있다.1 to 2 , the vehicle 100 may include wheels rotated by a power source and a steering input device 120 for controlling the traveling direction of the vehicle 100 .

차량(100)은 자율 주행 차량일 수 있다.The vehicle 100 may be an autonomous driving vehicle.

여기서, 자율 주행은 가속, 감속, 및 주행 방향 중 적어도 하나를 기 설정된 알고리즘에 근거하여 제어하는 것으로 정의된다. 다시 말해, 운전 조작 장치에 사용자 입력이 입력되지 않아도, 상기 운전 조작 장치가 자동으로 조작되는 것을 의미한다.Here, autonomous driving is defined as controlling at least one of acceleration, deceleration, and driving direction based on a preset algorithm. In other words, even if a user input is not input to the driving manipulation device, the driving manipulation device is automatically operated.

조향 입력 장치(120)는, 사용자로부터 차량(100)의 진행 방향 입력을 수신할 수 있다. 조향 입력 장치(120)는, 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성될 수 있다. 실시예에 따라, 조향 입력 장치는, 터치 스크린, 터치 패드 또는 버튼 형태로 형성될 수도 있다.The steering input device 120 may receive a driving direction input of the vehicle 100 from the user. The steering input device 120 may be formed in a wheel shape to enable steering input by rotation. According to an embodiment, the steering input device may be formed in the form of a touch screen, a touch pad, or a button.

차량(100)은 센서를 포함할 수 있다. The vehicle 100 may include a sensor.

센서는, 차량(100) 내부 또는 외부에 위치하는 물체를 검출하기 위한 장치이다.The sensor is a device for detecting an object located inside or outside the vehicle 100 .

센서는, 카메라(110), 레이다, 라이다, 초음파 센서, 적외선 센서 등을 포함할 수 있다.The sensor may include a camera 110 , a radar, a lidar, an ultrasonic sensor, an infrared sensor, and the like.

실시예에 따라, 센서는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.Depending on the embodiment, the sensor may further include other components in addition to the described components, or may not include some of the described components.

카메라(110)는, 차량의 내부 또는 외부 영상을 획득하기 위해, 차량의 내부 또는 외부의 적절한 곳에 위치할 수 있다. 카메라(110)는, 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라, 내부 카메라 또는 360도 촬영이 가능한 회전 카메라일 수 있다.The camera 110 may be located at an appropriate place inside or outside the vehicle in order to acquire an image inside or outside the vehicle. The camera 110 may be a mono camera, a stereo camera, an AVM (Around View Monitoring) camera, an internal camera, or a rotating camera capable of capturing 360 degrees.

예를 들면, 카메라(110)는, 차량 전방의 외부 영상과 내부 영상을 모두 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 또는, 카메라(110)는, 프런트 범퍼 등 주변에 배치될 수도 있다.For example, the camera 110 may be disposed adjacent to the front windshield in the interior of the vehicle in order to acquire both an external image and an internal image of the front of the vehicle. Alternatively, the camera 110 may be disposed around the front bumper or the like.

내부 카메라는, 차량 내부 영상을 획득할 수 있다. 차량 제어 장치는, 차량 내부 영상을 기초로, 사용자의 상태를 감지할 수 있다. 차량 제어 장치는, 차량 내부 영상에서 사용자의 시선 정보를 획득할 수 있다. 차량 제어 장치는, 차량 내부 영상에서 사용자의 제스쳐를 감지할 수 있다.The internal camera may acquire an image inside the vehicle. The vehicle control device may detect the user's state based on the image inside the vehicle. The vehicle control apparatus may obtain the user's gaze information from the image inside the vehicle. The vehicle control device may detect the user's gesture from the image inside the vehicle.

차량(100)은 출력 장치를 포함할 수 있다. The vehicle 100 may include an output device.

출력 장치는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것이다. 실시 예로, 출력 장치는 다양한 정보에 대응되는 그래픽 객체를 표시할 수 있는 디스플레이부를 포함할 수 있다.The output device is for generating an output related to visual, auditory or tactile sense. In an embodiment, the output device may include a display unit capable of displaying graphic objects corresponding to various pieces of information.

차량 제어 장치는 디스플레이부를 통해 알람과 같은 정보를 출력할 수 있다.The vehicle control device may output information such as an alarm through the display unit.

디스플레이부는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display, 3 It may include at least one of a 3D display and an e-ink display.

디스플레이부는, 스티어링 휠의 일 영역, 패널의 일 영역(240), 차량 전면 윈드 쉴드의 일 영역(210), 시트의 일 영역, 콘솔(220)의 일 영역, 윈도우의 일영역(230) 등에 구현될 수 있다.The display unit is implemented in one region of the steering wheel, one region 240 of the panel, one region 210 of the vehicle front windshield, one region of the seat, one region of the console 220, one region 230 of the window, and the like. can be

도 3은 본 발명의 일 실시 예에 따른 차량 제어 방법을 설명하기 위한 예시도이다.3 is an exemplary view for explaining a vehicle control method according to an embodiment of the present invention.

도 3을 참조하면, 차량에는 여러 명의 탑승자가 탑승할 수 있다(310). 일반적으로 여러 명의 탑승자 중 1명은 운전자이고, 운전자를 제외한 나머지 탑승자는 일반 탑승자이다. 본 발명의 목적을 수행하기 위하여 차량 탑승자 중 운전자를 구별할 필요가 있다. 상술한 센서를 통해 차량 내부 영상을 획득할 수 있고, 차량 내부 영상을 기초로 사용자의 상태를 감지할 수 있다.Referring to FIG. 3 , several occupants may be boarded in the vehicle ( 310 ). In general, one of several occupants is a driver, and all occupants other than the driver are general occupants. In order to carry out the object of the present invention, it is necessary to distinguish a driver from among vehicle occupants. An image inside the vehicle may be acquired through the above-described sensor, and a user's state may be detected based on the image inside the vehicle.

구체적인 운전자 결정 방법에 대하여는 도 4를 참조하여 설명한다.A detailed method of determining a driver will be described with reference to FIG. 4 .

도 4는 본 발명의 일 실시 예에 따른 차량 제어 방법을 설명하기 위한 순서도이다.4 is a flowchart illustrating a vehicle control method according to an embodiment of the present invention.

센서가 구비된 차량에 탑재된 차량 제어 장치는 차량의 내부를 센싱하는 센서로부터 센싱 정보를 수신(S410) 할 수 있다. 일 실시예로, 센서는 광학 카메라일 수 있고 센싱 정보는 영상 정보일 수 있다. A vehicle control device mounted on a vehicle equipped with a sensor may receive sensing information from a sensor that senses the interior of the vehicle ( S410 ). In an embodiment, the sensor may be an optical camera and the sensing information may be image information.

차량 제어 장치는 센싱 정보를 이용하여 차량의 탑승자를 분석(S420)할 수 있다. 일 실시예로, 상술한바와 같이 센싱 정보가 영상 정보인 경우 차량의 탑승자를 분석하는 것은 차량 내부에 탑승자의 위치를 분석하는 것일 수 있다. 구체적으로, 카메라가 이미지 센싱을 통하여 차량 내부에 탑승하고 있는 사람을 감지할 수 있다. The vehicle control apparatus may analyze ( S420 ) the occupants of the vehicle by using the sensing information. In one embodiment, as described above, when the sensing information is image information, analyzing the occupant of the vehicle may be analyzing the position of the occupant inside the vehicle. Specifically, the camera may detect a person riding in the vehicle through image sensing.

이후, 탑승자가 운전하는 것으로 정의된 기설정된 제스처들 중 적어도 하나를 수행하는지 탐색(S430) 할 수 있다. 상기 기설정된 제스처는 행동, 호칭, 시선 등의 다양한 형태로 이루어질 수 있으며 제스처는 학습에 의해 추가될 수 있고, 세분화될 수 있다. 일 실시예로, 도 3을 참조하면, 운전하는 것으로 정의된 기설정된 제스처는 조향 입력 장치를 조절하는 행동으로 나타날 수 있다(320). 또는, 다른 실시예로, 차량의 조향 시스템을 터치하는 방식으로 나타날 수 있다. 또 다른 예로, 탑승자의 시선이 지속하여 차량의 전면부를 향하는 것으로 나타날 수 있다. 이에 한정되지 않고, 다양한 기설정된 제스처가 존재할 수 있으며, 차량 제어 장치는 탑승자가 기설정된 제스처들의 조합을 수행하는지 탐색할 수도 있다.Thereafter, it may be searched whether the passenger performs at least one of preset gestures defined as driving ( S430 ). The preset gesture may be formed in various forms such as action, name, and gaze, and the gesture may be added or subdivided by learning. As an embodiment, referring to FIG. 3 , a preset gesture defined as driving may appear as an action of controlling the steering input device ( 320 ). Alternatively, in another embodiment, it may appear in a manner of touching the steering system of the vehicle. As another example, it may appear that the gaze of the occupant continues to face the front part of the vehicle. The present invention is not limited thereto, and various preset gestures may exist, and the vehicle control device may search whether the passenger performs a combination of preset gestures.

제스처들 중 적어도 하나가 탐색되는 경우, 탐색된 제스처를 수행한 탑승자를 운전자로 결정(S440) 할 수 있다. 일반적으로, 차량 내부의 탑승자 중 운전자는 1명일 것이다. 다만, 운전하는 것으로 정의된 기설정된 제스처들 중 적어도 하나를 수행하는 탑승자가 다수일 경우, 차량 제어 장치는 상기 제스처를 지속적으로 수행하는 탑승자를 운전자로 결정할 수 있다. 다만, 이에 한정되지 않고 차량 내 탑승자 중 1명을 운전자로 결정할 수 있을 것이다.When at least one of the gestures is detected, a driver who performed the searched gesture may be determined (S440). Generally, there will be one driver among the occupants inside the vehicle. However, when a plurality of passengers perform at least one of the preset gestures defined as driving, the vehicle control device may determine the passenger who continuously performs the gesture as the driver. However, the present invention is not limited thereto, and one of the occupants in the vehicle may be determined as the driver.

도 5는 본 발명의 일 실시 예에 따른 차량 제어 방법의 구체적인 예시를 설명한 도면이다.5 is a view for explaining a specific example of a vehicle control method according to an embodiment of the present invention.

도 5를 참조하면, 차량 제어 장치는 운전자의 위치를 분석하고, 차량이 주행중인 지역의 교통 규칙과 비교할 수 있다(S510). Referring to FIG. 5 , the vehicle control device may analyze the driver's location and compare it with the traffic rules of the area in which the vehicle is driving ( S510 ).

일반적으로, 차량에서 운전석의 위치는 국가별로 다르다. 보통의 차량은 차량의 전면부에 운전석과 조수석이 위치하게 된다. 차량의 내부에서 전면을 바라보는 방향 기준으로, 한국, 미국 등의 국가는 좌측에 운전석이 존재한다. 반면, 영국, 일본 등의 국가는 우측에 운전석이 존재한다. 이는 각 국가의 교통 규칙에 따라 다르며, 센서가 차량 내부를 분석 후 일괄적으로 운전자의 위치를 결정할 수 없다. 또한, 한국의 경우 일본 등 우측에 운전석이 존재하는 국가에서 수입하는 차량의 경우 등 상황에 따라 우측에 운전석이 존재하는 차량도 불법이 아닐 수 있다.In general, the position of the driver's seat in a vehicle varies from country to country. In a normal vehicle, a driver's seat and a passenger seat are located in the front of the vehicle. Based on the direction from the inside of the vehicle to the front, in countries such as Korea and the United States, the driver's seat is on the left. On the other hand, in countries such as the UK and Japan, the driver's seat is on the right side. This depends on the traffic rules of each country, and the sensor cannot determine the driver's location in a batch after analyzing the inside of the vehicle. Also, in the case of Korea, a vehicle with a driver's seat on the right may not be illegal depending on circumstances, such as a vehicle imported from a country with a driver's seat on the right, such as Japan.

따라서, 차량 제어 장치가 차량의 탑승자 중 운전자를 결정(S440)한 이후, 운전자의 위치를 분석할 필요가 있다.Therefore, after the vehicle control device determines the driver among the occupants of the vehicle ( S440 ), it is necessary to analyze the driver's position.

구체적으로, 운전자를 결정하는 단계 이전에 탑승자의 위치를 분석하기 때문에, 차량 제어 장치는 운전자의 위치를 특정할 수 있다. 이후, 차량 제어 장치는 해당 차량이 주행중인 지역의 교통 규칙과 비교하여 운전자의 위치가 교통 규칙과 일치하는지 아닌지를 비교할 수 있다.Specifically, since the position of the occupant is analyzed before the step of determining the driver, the vehicle control device can specify the position of the driver. Thereafter, the vehicle control device may compare whether or not the driver's location matches the traffic rules by comparing it with the traffic rules of the region in which the corresponding vehicle is traveling.

이후, 운전자의 위치가 교통 규칙과 다른 경우, 운전자에게 알람을 제공(S520)할 수 있다. 일 실시예로, 알람은 상술한 디스플레이부를 통해 운전자에게 제공될 수 있다.Thereafter, when the location of the driver is different from the traffic rules, an alarm may be provided to the driver ( S520 ). In one embodiment, the alarm may be provided to the driver through the above-described display unit.

운전자의 위치가 교통 규칙과 다른 경우, 일 실시예로, 교통 규칙 상 운전석의 위치가 좌측인 한국에서 운전석이 우측인 차량이 운행 중인 경우, 차량 제어 장치는 운행 중인 차량이 교통 규칙을 따르고 있지 않음을 알려줄 수 있다. 교통 규칙 상 운전석의 위치에 따라 모든 교통 규칙이 설정되어 있기 때문에 운행 중인 차량의 운전석이 교통 규칙을 따르고 있지 않은 경우, 사고 위험이 높아질 수 있다. 따라서, 알람을 통해 운전자가 조치를 취함으로써 사고 위험을 방지할 수 있다.When the driver's position is different from the traffic rules, in one embodiment, when a vehicle with the driver's seat on the right is running in Korea where the driver's seat is on the left according to the traffic rules, the vehicle control device determines that the driving vehicle does not follow the traffic rules can tell you Since all traffic rules are set according to the location of the driver's seat in traffic rules, if the driver's seat of a vehicle in motion does not follow the traffic rules, the risk of an accident may increase. Therefore, the risk of an accident can be prevented by allowing the driver to take action through the alarm.

도 6은 본 발명의 일 실시 예에 따른 차량 제어 방법의 구체적인 예시를 설명한 도면이다.6 is a view for explaining a specific example of a vehicle control method according to an embodiment of the present invention.

도 6을 참조하면, 상술한 실시예들을 통해 차량 내의 운전자를 결정한 경우, 운전자를 분석할 수 있다. 구체적으로, 운전자를 분석하는 것은 센서가 운전자의 얼굴을 추적하는 것일 수 있다. 일 실시예로, 운전자의 얼굴을 추적하는 것은 카메라를 통하여 영상 정보를 획득 후, 미리 학습된 CNN(Convolutional Neural Network) 모델에 의하여 추적할 수 있다.Referring to FIG. 6 , when a driver in a vehicle is determined through the above-described embodiments, the driver may be analyzed. Specifically, analyzing the driver may be a sensor tracking the driver's face. In one embodiment, tracking the driver's face may be tracked by a pre-trained Convolutional Neural Network (CNN) model after acquiring image information through a camera.

운전자의 얼굴을 추적하는 것은 운전자의 눈의 움직임(610)과 입의 움직임(620) 중 적어도 어느 하나를 추적하는 것일 수 있다. 다만, 이에 한정되지 않고, 코의 움직임을 통해 운전자의 얼굴을 추적하는 것이 가능하다. 구체적으로, 카메라가 획득한 영상 정보를 통해 운전자의 코가 좌/우, 또는 상/하로 움직이는 경우 차량 제어 장치는 운전자가 운전 중 음식물을 먹거나, 이야기를 하거나, 휴대폰을 사용하거나, 졸음을 느끼거나 하는 등과 같이 산만한 상태인 것으로 판단할 수 있다. 보다 구체적으로, 차량 제어 장치는 운전자가 1초 이상 상술한 바와 같이 산만한 상태인 것으로 판단되는 경우, 운전자에게 알람을 제공하여 운전자가 다시 운전에 집중하게 할 수 있다.Tracking the driver's face may include tracking at least one of the driver's eye movement 610 and mouth movement 620 . However, the present invention is not limited thereto, and it is possible to track the driver's face through the movement of the nose. Specifically, when the driver's nose moves left/right or up/down through the image information acquired by the camera, the vehicle control device detects that the driver eats food, talks, uses a mobile phone, or feels drowsy while driving. It can be judged to be in a state of distraction, such as More specifically, when it is determined that the driver is in the distracted state as described above for 1 second or more, the vehicle control device may provide an alarm to the driver so that the driver can concentrate on driving again.

도 7은 본 발명의 일 실시 예에 따른 차량 제어 방법의 구체적인 예시를 설명한 도면이다.7 is a view for explaining a specific example of a vehicle control method according to an embodiment of the present invention.

다른 실시예로, 운전자의 얼굴을 추적하는 것은 운전자의 눈의 움직임을 추적하는 것일 수 있다. In another embodiment, the tracking of the driver's face may be tracking the movement of the driver's eyes.

도 7을 참조하면, 차량 제어 장치는 운전자의 눈의 깜박임 정도를 분석(S710)할 수 있다. 또한, 눈의 깜박임 정도를 기설정된 기준과 비교(S720)할 수 있다. 또한, 비교 결과를 기반으로 운전자의 상태를 미리 정해진 상태 중 어느 하나로 판단(S730)할 수 있다. 또한, 운전자의 상태가 운전에 집중하지 못하고 있다고 판단되는 경우, 운전자에게 알람을 제공(S740)할 수 있다.Referring to FIG. 7 , the vehicle control device may analyze the degree of blinking of the driver's eyes ( S710 ). Also, the degree of eye blinking may be compared with a preset reference (S720). Also, based on the comparison result, the driver's state may be determined as one of predetermined states ( S730 ). Also, when it is determined that the driver's state is not concentrating on driving, an alarm may be provided to the driver ( S740 ).

구체적으로, 눈의 깜박임 정도는 미리 설정된 시간에 눈을 깜박이는 횟수로 분석할 수 있다. 또한, 눈의 깜박이는지 여부는 눈의 크기를 분석하여 결정할 수 있다. Specifically, the degree of eye blinking may be analyzed as the number of blinks at a preset time. In addition, whether the eyes blink may be determined by analyzing the size of the eyes.

Figure 112020123397449-pat00001
Figure 112020123397449-pat00001

<그림 1><Figure 1>

보다 구체적으로, <그림 1>에 의하면 A-B의 거리를 D1으로, C-D의 거리를 D2로, E-F의 거리를 D3로 정의할 수 있다. 이 때, 눈의 종횡비(Eye aspect ratio)를 (D1+D2)/(2*D3)로 정의할 수 있다. 차량 제어 장치는 눈의 종횡비를 임계값과 비교하여 눈이 깜박이는지 여부를 결정할 수 있다. 예를 들어, 임계값이 0.2인 경우, 눈의 종횡비가 0.2 미만인 경우 눈을 깜박인 상태로 결정할 수 있고, 눈의 종횡비가 0.2 이상인 경우 눈을 깜박이지 않은 상태로 결정할 수 있다.More specifically, according to <Figure 1>, the distance between A-B can be defined as D1, the distance between C-D as D2, and the distance between E-F as D3. In this case, the eye aspect ratio may be defined as (D1+D2)/(2*D3). The vehicle control device may determine whether the eye blinks by comparing the eye aspect ratio with a threshold value. For example, when the threshold value is 0.2, when the aspect ratio of the eye is less than 0.2, the blinking state may be determined, and when the eye aspect ratio is 0.2 or more, the blinking state may be determined.

차량 제어 장치는, 눈의 깜박임 정도를 미리 설정된 시간에 눈을 깜박이는 횟수로 분석할 수 있다. 일 실시예로, 1,500ms(Millisecond)에 눈의 깜박임이 25번 이상이라면 차량 제어 장치는 운전자가 졸음을 느끼는 상태로 판단할 수 있다. 이와 같은 비교 결과를 기반으로 차량 제어 장치는 운전자의 상태를 미리 정해진 상태 중 어느 하나로 판단할 수 있으며, 미리 정해진 상태가 운전에 집중하지 못하고 있다고 판단되는 상태인 경우 운전자에게 알람을 제공하여 운전자가 다시 운전에 집중하도록 할 수 있다.The vehicle control device may analyze the degree of blinking as the number of blinks at a preset time. As an embodiment, if the eye blinks 25 times or more in 1,500 milliseconds, the vehicle control device may determine that the driver feels drowsy. Based on the comparison result, the vehicle control device may determine the driver's state as any one of the predetermined states. You can focus on driving.

도 8은 본 발명의 일 실시 예에 따른 차량 제어 방법의 구체적인 예시를 설명한 도면이다.8 is a view for explaining a specific example of a vehicle control method according to an embodiment of the present invention.

도 8을 참조하면, 차량 제어 장치는 운전자의 입의 벌어짐 정도를 분석(S810)할 수 있다. 또한, 입의 벌어짐 정도를 기설정된 기준과 비교(S820)할 수 있다. 또한, 비교 결과를 기반으로 운전자의 상태를 미리 정해진 상태 중 어느 하나로 판단(S830)할 수 있다. 또한, 운전자의 상태가 운전에 집중하지 못하고 있다고 판단되는 경우, 운전자에게 알람을 제공(S840)할 수 있다.Referring to FIG. 8 , the vehicle control apparatus may analyze the degree of opening of the driver's mouth ( S810 ). Also, the degree of opening of the mouth may be compared with a preset standard ( S820 ). Also, based on the comparison result, the driver's state may be determined as any one of predetermined states ( S830 ). Also, when it is determined that the driver's state is not concentrating on driving, an alarm may be provided to the driver ( S840 ).

구체적으로, 입의 벌어짐 정도는 미리 설정된 시간에 눈을 벌리는 횟수로 분석할 수 있다. 또한, 입을 벌리는지 여부는 입의 크기를 분석하여 결정할 수 있다. Specifically, the degree of opening of the mouth may be analyzed by the number of times the eyes are opened at a preset time. In addition, whether to open the mouth may be determined by analyzing the size of the mouth.

Figure 112020123397449-pat00002
Figure 112020123397449-pat00002

<그림 2><Figure 2>

보다 구체적으로, <그림 2>에 의하면 A-E의 거리를 D1으로, B-D의 거리를 D2로, C-F의 거리를 D3로 정의할 수 있다. 이 때, 입의 종횡비(Mouth aspect ratio)를 (D1+D2)/(2*D3)로 정의할 수 있다. 차량 제어 장치는 입의 종횡비를 임계값과 비교하여 입이 벌어지는지 여부를 결정할 수 있다. 예를 들어, 임계값이 0.6인 경우, 입의 종횡비가 0.6 이하인 경우 입을 벌리지 않은 상태로 결정할 수 있고, 입의 종횡비가 0.6 초과인 경우 입을 벌린 상태로 결정할 수 있다.More specifically, according to <Figure 2>, the distance between A-E can be defined as D1, the distance between B-D as D2, and the distance between C-F as D3. In this case, the mouth aspect ratio may be defined as (D1+D2)/(2*D3). The vehicle control device may determine whether the mouth is open by comparing the aspect ratio of the mouth to a threshold value. For example, when the threshold value is 0.6, when the aspect ratio of the mouth is 0.6 or less, the mouth may be determined as an open state, and when the aspect ratio of the mouth is greater than 0.6, the mouth may be determined as an open state.

차량 제어 장치는, 입의 벌어짐 정도를 미리 설정된 시간에 입이 벌어지는 횟수로 분석할 수 있다. 일 실시예로, 4초 동안에 입의 벌어짐이 55번 이상이라면 차량 제어 장치는 운전자가 하품을 하며 졸음을 느끼는 상태로 판단할 수 있다. 이와 같은 비교 결과를 기반으로 차량 제어 장치는 운전자의 상태를 미리 정해진 상태 중 어느 하나로 판단할 수 있으며, 미리 정해진 상태가 운전에 집중하지 못하고 있다고 판단되는 상태인 경우 운전자에게 알람을 제공하여 운전자가 다시 운전에 집중하도록 할 수 있다.The vehicle control device may analyze the degree of mouth opening as the number of mouth openings at a preset time. As an embodiment, if the mouth is opened more than 55 times in 4 seconds, the vehicle control device may determine that the driver is yawning and feels drowsy. Based on the comparison result, the vehicle control device may determine the driver's state as any one of the predetermined states. You can focus on driving.

도 9는 본 발명의 일 실시 예에 따른 차량 제어 방법의 구체적인 예시를 설명한 도면이다.9 is a view for explaining a specific example of a vehicle control method according to an embodiment of the present invention.

도 9를 참조하면, 상술한 방법에 의하여 운전자의 위치를 결정하기 이전에 차량이 운행하는 지역의 정보를 기반으로 운전자의 위치를 미리 결정할 수 있다. 구체적으로, 차량 제어 장치가 지역별 운전자 자리 정보가 포함된 데이터베이스를 수신할 수 있다. 또는, 차량 제어 장치에 데이터베이스가 포함되어 있을 수 있다. 데이터베이스의 일 실시예로, 국가별 운전자 자리 정보가 포함될 수 있다. 상술한 바와 같이, 차량의 내부에서 전면을 바라보는 방향 기준으로, 한국, 미국 등의 국가는 좌측에 운전석이 존재한다. 반면, 영국, 일본 등의 국가는 우측에 운전석이 존재한다. 이 경우, 데이터베이스에는 한국이라는 지역 정보와 좌측에 운전석이 존재한다는 운전자 자리 정보가 매칭되어 존재할 수 있다.Referring to FIG. 9 , before determining the location of the driver by the above-described method, the location of the driver may be determined in advance based on information on a region in which the vehicle is driven. Specifically, the vehicle control device may receive a database including driver seat information for each region. Alternatively, the database may be included in the vehicle control device. As an embodiment of the database, driver seat information for each country may be included. As described above, in countries such as Korea and the United States, the driver's seat is located on the left side of the vehicle in a direction facing the front from the inside. On the other hand, in countries such as the UK and Japan, the driver's seat is on the right side. In this case, regional information of Korea and driver's seat information indicating that the driver's seat is on the left may be matched to exist in the database.

차량 제어 장치가 데이터베이스로부터 데이터를 수신한 후, 차량이 위치한 지역을 판단하여 데이터베이스 상 차량이 위치한 지역과 매칭된 운전자 자리 정보를 판단할 수 있다. 이러한 방법을 통해, 데이터베이스에 존재하는 차량이 위치한 지역에 해당하는 운전자 자리 정보에 따른 자리에 탑승한 탑승자를 자동으로 운전자로 결정할 수 있다.After the vehicle control device receives data from the database, it is possible to determine an area in which the vehicle is located, and determine driver's seat information matched with the area in which the vehicle is located in the database. Through this method, it is possible to automatically determine the occupant in the seat according to driver seat information corresponding to the region where the vehicle is located in the database as the driver.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드(또는, 애플리케이션이나 소프트웨어)로서 구현하는 것이 가능하다. 상술한 자율 주행 차량의 제어 방법은 메모리 등에 저장된 코드에 의하여 실현될 수 있다. The present invention described above can be implemented as computer-readable code (or application or software) on a medium in which a program is recorded. The above-described method for controlling the autonomous vehicle may be realized by a code stored in a memory or the like.

컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The computer-readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet) that includes implementation in the form of. In addition, the computer may include a processor or a control unit. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

본 발명의 각 실시예에 개시된 기술적 특징들은 해당 실시예에만 한정되는 것은 아니고, 서로 양립 불가능하지 않은 이상, 각 실시예에 개시된 기술적 특징들은 서로 다른 실시예에 병합되어 적용될 수 있다.The technical features disclosed in each embodiment of the present invention are not limited to the embodiment, and unless they are mutually incompatible, the technical features disclosed in each embodiment may be combined and applied to different embodiments.

이상, 본 발명의 ~의 실시예들에 대해 설명하였다. 본 발명은 상술한 실시예 및 첨부한 도면에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자의 관점에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명의 범위는 본 명세서의 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.In the above, embodiments of the present invention have been described. The present invention is not limited to the above-described embodiments and the accompanying drawings, and various modifications and variations will be possible from the point of view of those of ordinary skill in the art to which the present invention pertains. Accordingly, the scope of the present invention should be defined not only by the claims of the present specification, but also by those claims and their equivalents.

100: 차량
110: 카메라
120: 조향 입력 장치
210: 전면 윈드 쉴드
220: 콘솔
230: 윈도우
240: 패널
100: vehicle
110: camera
120: steering input device
210: front windshield
220: console
230: window
240: panel

Claims (13)

360°촬영이 가능한 카메라를 포함하는 센서가 차량 내부의 프런트 윈드 쉴드에 근접하게 배치되도록 구비된 차량에 탑재된 차량 제어 장치의 차량 제어 방법으로,
상기 차량의 내부를 센싱하는 상기 센서로부터 상기 카메라가 측정한 영상 정보를 포함하는 센싱 정보를 수신하는 단계;
상기 센싱 정보를 이용하여, 상기 차량의 탑승자를 분석하는 단계;
상기 탑승자가 운전하는 것으로 정의된 기설정된 제스처들 중 적어도 하나를 수행하는지 탐색하는 단계 - 상기 기설정된 제스처는 조향 입력 장치를 조절하는 행동, 조향 시스템을 터치하는 행동, 탑승자의 시선이 지속하여 차량의 전면부를 향하는 행동 등을 포함함 -; 및
상기 제스처들 중 적어도 하나가 탐색되는 경우, 상기 탐색된 제스처를 수행한 탑승자를 운전자로 결정하는 단계를 포함하고,
상기 운전자의 위치를 분석하고, 상기 차량이 주행 중인 지역의 교통 규칙과 비교하여 상기 분석된 운전자의 위치가 상기 지역의 교통 규칙 상 운전자의 위치와 다른 경우 상기 운전자에게 알람을 제공하는 - 상기 지역의 교통 규칙 상 운전자의 위치는 운전석이 좌측인지 우측인지와 관련됨 -
차량 제어 방법.
A vehicle control method of a vehicle control device mounted on a vehicle in which a sensor including a camera capable of 360° shooting is disposed close to a front windshield inside the vehicle,
receiving sensing information including image information measured by the camera from the sensor sensing the interior of the vehicle;
analyzing the occupants of the vehicle by using the sensing information;
Detecting whether the occupant performs at least one of preset gestures defined as driving, wherein the preset gesture includes an action of adjusting a steering input device, an action of touching the steering system, and the occupant's gaze continuously Including forward-facing actions, etc. -; and
when at least one of the gestures is detected, determining a passenger who performed the detected gesture as a driver;
Analyze the location of the driver and provide an alarm to the driver when the analyzed location of the driver is different from the location of the driver according to the traffic rules of the area compared with the traffic rules of the area in which the vehicle is driving - in the area According to traffic rules, the driver's position is related to whether the driver's seat is on the left or right side -
How to control the vehicle.
삭제delete 삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 센서가 상기 운전자의 얼굴을 추적하는 단계를 더 포함하는 차량 제어 방법.
The method of claim 1,
The method of controlling a vehicle further comprising the step of the sensor tracking the driver's face.
제6 항에 있어서,
상기 추적하는 단계는 미리 학습된 CNN 모델에 의해 이루어지는 차량 제어 방법.
7. The method of claim 6,
The tracking step is a vehicle control method made by a pre-trained CNN model.
제6 항에 있어서,
상기 운전자의 얼굴을 추적하는 것은 상기 운전자의 눈의 움직임과 입의 움직임 중 적어도 어느 하나를 추적하는 것인 차량 제어 방법.
7. The method of claim 6,
The vehicle control method, wherein the tracking of the driver's face is tracking at least one of eye movement and mouth movement of the driver.
제8 항에 있어서,
상기 운전자의 눈의 움직임을 추적하는 것은 상기 눈의 깜박임 정도를 분석하고, 상기 눈의 깜박임 정도를 기설정된 기준과 비교하는 것인 차량 제어 방법.
9. The method of claim 8,
The tracking of the eye movement of the driver is a vehicle control method of analyzing the degree of blinking of the eyes and comparing the degree of blinking with a preset reference.
제9 항에 있어서,
상기 비교 결과를 기반으로 상기 운전자의 상태를 미리 정해진 상태 중 어느 하나로 판단하는 차량 제어 방법.
10. The method of claim 9,
A vehicle control method for determining the driver's state as one of predetermined states based on the comparison result.
제8 항에 있어서,
상기 운전자의 입의 움직임을 추적하는 것은 상기 입의 벌어짐 정도를 분석하고, 상기 입의 벌어짐 정도를 기설정된 기준과 비교하는 것인 차량 제어 방법.
9. The method of claim 8,
The tracking of the movement of the driver's mouth includes analyzing a degree of mouth opening and comparing the degree of mouth opening with a preset standard.
제11 항에 있어서,
상기 비교 결과를 기반으로 상기 운전자의 상태를 미리 정해진 상태 중 어느 하나로 판단하는 차량 제어 방법.
12. The method of claim 11,
A vehicle control method for determining the driver's state as one of predetermined states based on the comparison result.
제1 항에 있어서,
상기 차량 제어 장치가 지역별 운전자 자리 정보가 포함된 데이터베이스로부터 데이터를 수신하는 단계; 및
상기 차량이 위치한 지역을 판단하는 단계를 더 포함하며,
상기 차량의 탑승자를 분석하는 단계는.
상기 데이터베이스에 존재하는 상기 차량이 위치한 지역에 해당하는 운전자 자리 정보에 따른 자리에 탑승한 탑승자를 자동으로 운전자로 결정하는
차량 제어 방법.
The method of claim 1,
receiving, by the vehicle control device, data from a database including driver seat information for each region; and
Further comprising the step of determining an area in which the vehicle is located,
analyzing the occupants of the vehicle.
Automatically determining a occupant in a seat according to driver seat information corresponding to an area where the vehicle is located in the database as a driver
How to control the vehicle.
KR1020200154123A 2020-11-17 2020-11-17 Vehicle control method KR102443980B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200154123A KR102443980B1 (en) 2020-11-17 2020-11-17 Vehicle control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200154123A KR102443980B1 (en) 2020-11-17 2020-11-17 Vehicle control method

Publications (2)

Publication Number Publication Date
KR20220067434A KR20220067434A (en) 2022-05-24
KR102443980B1 true KR102443980B1 (en) 2022-09-21

Family

ID=81806450

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200154123A KR102443980B1 (en) 2020-11-17 2020-11-17 Vehicle control method

Country Status (1)

Country Link
KR (1) KR102443980B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150022378A1 (en) * 2013-07-18 2015-01-22 GM Global Technology Operations LLC Computer program product and driver assistance system for a vehicle
JP2017111711A (en) * 2015-12-18 2017-06-22 本田技研工業株式会社 Operation device for vehicle
US20190016341A1 (en) 2017-07-17 2019-01-17 Here Global B.V. Roadway regulation compliance
JP2019536673A (en) * 2017-08-10 2019-12-19 ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Driving state monitoring method and device, driver monitoring system, and vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102163317B1 (en) * 2016-09-22 2020-10-08 엘지전자 주식회사 Control method for vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150022378A1 (en) * 2013-07-18 2015-01-22 GM Global Technology Operations LLC Computer program product and driver assistance system for a vehicle
JP2017111711A (en) * 2015-12-18 2017-06-22 本田技研工業株式会社 Operation device for vehicle
US20190016341A1 (en) 2017-07-17 2019-01-17 Here Global B.V. Roadway regulation compliance
JP2019536673A (en) * 2017-08-10 2019-12-19 ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Driving state monitoring method and device, driver monitoring system, and vehicle

Also Published As

Publication number Publication date
KR20220067434A (en) 2022-05-24

Similar Documents

Publication Publication Date Title
EP3133800B1 (en) Apparatus and method for controlling portable device in vehicle
CN109572702B (en) Vehicle control device and vehicle including the same
US10449970B2 (en) Vehicle control system
US10800428B2 (en) Vehicle driving assistance method and vehicle
JP6773046B2 (en) Driving support device, driving support method, and moving object
EP3128462B1 (en) Driver assistance apparatus and control method for the same
US10229654B2 (en) Vehicle and method for controlling the vehicle
US10150478B2 (en) System and method for providing a notification of an automated restart of vehicle movement
KR102267331B1 (en) Autonomous vehicle and pedestrian guidance system and method using the same
WO2017057059A1 (en) Driving control device, driving control method, and program
KR101969805B1 (en) Vehicle control device and vehicle comprising the same
US11318961B2 (en) Robot for vehicle and control method thereof
US20190001987A1 (en) Vehicle and control method thereof
US20180225975A1 (en) Vehicle and control method therefor
JPWO2017057060A1 (en) Operation control apparatus, operation control method, and program
WO2018169606A1 (en) Safe-driving support via automotive hub
JP2019021229A (en) Vehicle control device and vehicle control method
KR20190098795A (en) Vehicle device and control meghod of transportation system comprising thereof
KR20180051977A (en) User Interface Apparatus for vehicle and method
JP2024111090A (en) Information processing device, information processing method, program, and vehicle
WO2021217575A1 (en) Identification method and identification device for object of interest of user
KR102135379B1 (en) Robot for vehicle and control method of the robot
CN114340970A (en) Information processing device, mobile device, information processing system, method, and program
KR20170053880A (en) Driver Assistance Apparatus and Vehicle Having The Same
KR102443980B1 (en) Vehicle control method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right