KR102322863B1 - Apparatus and method for providing information based on a current task of a user - Google Patents
Apparatus and method for providing information based on a current task of a user Download PDFInfo
- Publication number
- KR102322863B1 KR102322863B1 KR1020180147304A KR20180147304A KR102322863B1 KR 102322863 B1 KR102322863 B1 KR 102322863B1 KR 1020180147304 A KR1020180147304 A KR 1020180147304A KR 20180147304 A KR20180147304 A KR 20180147304A KR 102322863 B1 KR102322863 B1 KR 102322863B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- driver
- attention
- determining
- sensory
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000001953 sensory effect Effects 0.000 claims abstract description 106
- 230000000694 effects Effects 0.000 claims description 49
- 230000004044 response Effects 0.000 claims description 8
- 230000035807 sensation Effects 0.000 claims description 6
- 230000035484 reaction time Effects 0.000 abstract 1
- 230000000007 visual effect Effects 0.000 description 28
- 230000009471 action Effects 0.000 description 9
- 230000001149 cognitive effect Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000037081 physical activity Effects 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000003195 fascia Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G06K9/00845—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0872—Driver physiology
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
이용자의 현재 수행작업에 기반하여 정보를 제공하는 정보 제공 장치 및 방법을 제공한다. 이용자의 적어도 하나의 활성 감각에 기반하여 정보를 제공하는 데 사용할 적어도 하나의 감각 채널을 결정한다. 이에 따라, 이용자의 반응 시간을 개선한다.An information providing apparatus and method for providing information based on a user's current performance are provided. Determine at least one sensory channel to use for providing information based on at least one active sense of the user. This improves the user's reaction time.
Description
본 발명은 이용자의 현재 수행작업에 기반한 정보 제공 장치 및 방법에 관한 것으로, 상세하게는 자율 주행 차량의 운전자 등의 이용자가 잘 인지할 수 있는 방식으로 정보를 제공하는 HMI(Human Machine Interface) 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for providing information based on a user's current task, and more particularly, to a Human Machine Interface (HMI) device that provides information in a way that a user such as a driver of an autonomous vehicle can recognize well; it's about how
SAE(Society of Automotive Engineers) J3016에 따르면 자율 주행 시스템(ADS: Automatic Driving System)은 운전자의 역할에 따라 완전 수동 운전인 레벨 0에서 완전 자율 주행인 레벨 5까지 5단계로 구분된다. 이 때, 운전자와 ADS가 차량의 제어를 교대로 수행하는 레벨인 레벨 2(부분적 자율 주행)와 레벨 3(조건부 자율 주행) ADS에서, 운전자와 ADS 간의 안전한 차량 제어권 전환이 중요하다. 만약 실패할 경우 사고로 이어지기 때문이다.According to Society of Automotive Engineers (SAE) J3016, Automatic Driving System (ADS) is divided into five levels, from level 0, which is fully manual driving, to level 5, which is fully autonomous driving, depending on the role of the driver. At this time, in Level 2 (Partially Autonomous Driving) and Level 3 (Conditional Autonomous Driving) ADS, which are levels where the driver and the ADS alternately control the vehicle, it is important to safely transfer control of the vehicle between the driver and the ADS. If it fails, it can lead to an accident.
자율 주행 중에 운전자는 운전이 아닌 다른 작업(NDRT: Non-Driving Related Task)을 수행할 수 있다. 이에 따라, 운전자에서 ADS로의 제어권 전환보다 ADS에서 운전이 아닌 다른 작업을 수행 중인 운전자로의 제어권 전환이 더욱 문제가 될 수 있다. 이는 운전자가 ADS로부터 발생하는 제어권 전환 요청(TOR: Take Over Request)을 인지하고 반응하는데 시간이 필요하고 운전자가 제어권을 획득한 이후에도 안정적으로 운전할 수 있을 때까지 시간이 필요하기 때문이다.During autonomous driving, drivers can perform non-driving related tasks (NDRTs). Accordingly, the transfer of control from the ADS to the driver performing a task other than driving may be more problematic than the transfer of control from the driver to the ADS. This is because it takes time for the driver to recognize and respond to a Take Over Request (TOR) from ADS, and it takes time until the driver can drive stably even after gaining control.
UNECE(the United Nations Economic Commission for Europe) ACSF(Automatically Commanded Steering Function)에서는 ADS가 운전자로 차량의 제어권을 이양하려고 할 경우, TOR 발생 이후 4초 동안 ADS는 차량의 횡방향 제어를 유지해야 한다고 권고한다. 운전자는 4초 내에 TOR을 인지하고 차량 제어를 시작해야 하지만 경우에 따라 4초는 충분하지 못할 수 있다.The United Nations Economic Commission for Europe (UNECE) Automatically Commanded Steering Function (ACSF) recommends that, when an ADS attempts to hand over control of a vehicle to the driver, the ADS must maintain lateral control of the vehicle for 4 seconds after the occurrence of the TOR. . The driver should recognize the TOR and start controlling the vehicle within 4 seconds, but in some cases 4 seconds may not be enough.
예컨대, 자율주행 중에 운전자는 음악감상, 경치감상, 대화, 먹기, 화장하기, 잠자기 등을 할 수 있는데, 이 경우 운전에 대한 민감도가 떨어져서 ADS로부터 긴급한 요청(예를 들어 TOR 등)이 발생할 경우 4초의 주어진 임계시간 내에 해당 정보를 인지하고 반응하기 어려울 수 있다. 이러한 반응 지연은 연령, 운전자가 수행 중인 NDRT의 종류, NDRT몰입도 등에 따라 다르다.For example, during autonomous driving, the driver can listen to music, enjoy the scenery, talk, eat, put on makeup, and sleep. It can be difficult to perceive and respond to that information within a given threshold of seconds. This delay in response depends on age, the type of NDRT the driver is performing, and the level of NDRT immersion.
따라서, 어떤 상황에서도 이용자에게 제어권 전환 요청과 같은 긴급하거나 중요한 정보를 효과적으로 반응 지연을 최소화하는 방식으로 제공할 수 있는 기술이 필요하다.Therefore, there is a need for a technology that can effectively provide urgent or important information, such as a request to switch control, to a user in a manner that minimizes response delay in any situation.
전술한 문제를 해결하기 위하여, 본 발명은 이용자의 현재 수행작업에 기반하여 정보를 제공하는 장치 및 방법을 제공하고자 한다.In order to solve the above-mentioned problem, the present invention is to provide an apparatus and method for providing information based on a user's current task.
또한, 본 발명은 이용자의 주의 집중도가 높은 활성 감각을 통하여 정보를 제공하는 장치 및 방법을 제공하는 것을 또 다른 목적으로 한다.Another object of the present invention is to provide an apparatus and method for providing information through an active sense with a high degree of user's attention.
본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부된 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. The above and other objects, advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.
본 발명에 따른 정보 제공 장치는, 자율 주행 차량의 운전자 상태 정보를 획득하는 인식부, 상기 운전자 상태 정보에 기반하여 운전자의 현재 수행작업을 결정하는 수행작업 결정부 및 상기 현재 수행작업에 기반하여 적어도 하나의 감각 채널을 결정하고 상기 적어도 하나의 감각 채널을 통해 상기 운전자에게 상기 자율 주행 관련 정보를 제공하는 정보 제공부를 포함한다.The information providing apparatus according to the present invention includes a recognition unit that acquires driver state information of an autonomous vehicle, a task determiner that determines a current task of a driver based on the driver state information, and at least a and an information providing unit that determines one sensory channel and provides the autonomous driving-related information to the driver through the at least one sensory channel.
본 발명에 따른 정보 제공 방법은 자율 주행 차량의 운전자 상태 정보에 기반하여 운전자의 현재 수행작업을 결정하는 단계, 상기 현재 수행작업에 따라 상기 운전자의 적어도 하나의 활성 감각을 결정하는 단계 및 상기 적어도 하나의 활성 감각에 기반하여 자율 주행 관련 정보를 제공할 적어도 하나의 감각 채널을 결정하는 단계를 포함한다.The information providing method according to the present invention comprises the steps of determining a current performance task of a driver based on driver state information of an autonomous vehicle, determining at least one active sense of the driver according to the current performance task, and the at least one and determining at least one sensory channel to provide autonomous driving-related information based on the active sense of the .
또한, 본 발명에 따라 정보를 제공받을 이용자의 현재 수행작업에 따라 상기 이용자의 적어도 하나의 활성 감각을 결정하는 단계, 상기 적어도 하나의 활성 감각에 기반하여 정보를 제공하는 데 사용할 적어도 하나의 감각 채널을 결정하는 단계; 및 상기 적어도 하나의 감각 채널을 통하여 상기 이용자에게 정보를 제공하는 단계를 포함하는 정보 제공 방법을 제공한다.In addition, according to the present invention, determining at least one active sense of the user according to the current performing task of the user to be provided with information according to the present invention, at least one sensory channel to be used for providing information based on the at least one active sense determining; and providing information to the user through the at least one sensory channel.
본 발명에 의하면, 정보 이용자의 현재 수행작업에 따라 활성화된 감각을 통하여 정보를 제공할 수 있다.According to the present invention, information can be provided through the senses activated according to the currently performed task of the information user.
또한, 현재 이용자의 주의 점유 대상을 판별하여 이를 통해 정보를 효과적으로 신속하게 제공할 수 있다.In addition, it is possible to provide information quickly and effectively by determining the target of the current user's attention.
종국적으로 본 발명은 이용자의 반응 지연을 감소 또는 최소화하여 정보를 전달할 수 있는 정보 제공 장치 및 방법을 제공한다.Finally, the present invention provides an information providing apparatus and method capable of delivering information by reducing or minimizing a user's response delay.
도 1은 본 발명의 일 실시예에 따른 정보 제공 인터페이스 시스템(100)의 구성도를 도시한다.
도 2는 본 발명의 일 실시예에 따른 정보 제공 장치(120)를 도시한 블록도이다.
도 3은 본 발명의 일 예에 따른 수행작업 결정 과정을 도시한 순서도이다.
도 4는 본 발명의 일 예에 따른 감각 채널 결정 과정을 도시한 순서도이다.
도 5는 본 발명의 일 예에 따른 활성 감각 모델을 보여주는 도표이다.
도 6은 본 발명의 일 실시예에 따른 정보 제공 방법을 도시한 순서도이다.1 shows a configuration diagram of an information providing
2 is a block diagram illustrating an
3 is a flowchart illustrating a process for determining an operation to be performed according to an embodiment of the present invention.
4 is a flowchart illustrating a process of determining a sensory channel according to an embodiment of the present invention.
5 is a diagram showing an active sensory model according to an embodiment of the present invention.
6 is a flowchart illustrating an information providing method according to an embodiment of the present invention.
이하, 첨부 도면을 참조하며 바람직한 각 실시예를 통해 본 발명의 구성에 대하여 상세히 설명하되, 이해의 증진과 설명의 편의를 위하여 본 발명의 착상에 대하여 개략적으로 먼저 설명한다. Hereinafter, the configuration of the present invention will be described in detail through preferred embodiments with reference to the accompanying drawings, but the idea of the present invention will be schematically described first for the purpose of enhancing understanding and convenience of explanation.
인간이 특정 작업에 주의를 기울이고 몰입하게 되면 해당 작업을 수행하는데 필요한 감각 기관의 민감도는 높아지는 반면 사용하지 않는(비활성화된) 감각 기관의 민감도는 떨어지는 특성을 보인다. 예컨대, 집중해서 책을 읽는 사람에게 이야기 할 경우 이야기 내용을 잘 인지 하지 못하는 경우가 예이다. 집중하여 독서를 하는 경우의 인간은 시각이 활성화 되는 한편 그 외의 청각이나 촉각, 후각은 상대적으로 비활성화된다. 한편, 인간의 주의력은 주변의 여러 대상들 중에 현재 사용하고 있거나 사용과 연관된 대상에 집중되는 경향이 크다.When humans pay attention to and immerse themselves in a specific task, the sensitivity of the sensory organs necessary to perform the task increases, while the sensitivity of the sensory organs that are not used (inactivated) decreases. For example, if you are talking to someone who is reading a book with concentration, you may not be able to recognize the content of the story well. In the case of concentrated reading, sight is activated, while other senses of hearing, touch, and smell are relatively inactive. On the other hand, human attention tends to be concentrated on the object currently being used or related to the use of the surrounding objects.
따라서 정보의 전달은 현재 수행작업에 따라, 그 상황 또는 순간에, 활성화된 감각에 대응하는 감각 채널을 통해 주의를 점유하는 대상을 이용하여 수행되는 것이 효과적이다.Therefore, it is effective to transmit information according to the current task, the situation or the moment, using the object occupying the attention through the sensory channel corresponding to the activated sense.
결과적으로, 현재 수행작업에 대한 활성화된 감각, 주의 집중도가 높은 감각 채널 및/또는 주의 점유 대상을 결정하면, 이를 통하여 정보를 제공할 수 있고 따라서 인간이 어떠한 수행작업을 하더라도, 즉 어떠한 동작 또는 행위를 하거나 상태에 있더라도 효과적으로 정보를 전달할 수 있다. 이에 따라 정보 제공에 대응하는 이용자의 반응 지연이 최소화될 수 있다.As a result, determining the active sensory, high-attention-focused sensory channel and/or attention-occupying object for the current performance task can provide information through this, so that no matter what performance the human being performs, i.e., any action or action. It can effectively convey information even when it is in a state or in a state. Accordingly, a delay in a user's response to information provision can be minimized.
본 발명이 구현되는 양상을 이하의 바람직한 각 실시예를 들어 설명한다. 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 본 발명의 기술적 사상의 범주 내에서 그 외의 다른 다양한 형태로 구현될 수 있음은 자명하다. 본 명세서에서 사용된 용어 역시 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 요소가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 요소의 존재 또는 추가됨을 배제하지 않는다.The aspect in which the present invention is implemented will be described with reference to each preferred embodiment below. It is obvious that the present invention is not limited to the embodiments disclosed below, but may be implemented in other various forms within the scope of the technical spirit of the present invention. The terminology used herein is also for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprise” and/or “comprising” means that the stated component, step, action and/or element is the presence of one or more other components, steps, actions and/or elements. or added.
도 1은 본 발명의 일 실시예에 따른 정보 제공 인터페이스 시스템(100)의 구성도를 보여준다.1 shows a configuration diagram of an information providing
본 발명의 일 실시예에 따른 정보 제공 장치(120)는 이용자(110)의 상태 정보를 인식하고, 인식된 이용자(110)의 상태 정보에 따라 이용자(110)의 현재 수행작업을 결정하고, 현재 수행작업을 분석한 결과에 따라 이용자(110)에게 정보를 전달하기에 적합한 방식을 결정하고, 해당 방식을 이용하여 이용자(110)에게 전달이 필요한 정보를 제공한다. 일 예에서, 이용자에게(110)에게 정보를 전달하기에 적합한 방식을 결정하는 것은, 정보를 전달하는 데 사용할 디바이스(130) 및 정보를 전달하는 데 사용할 감각 채널 중 적어도 하나를 결정하는 것에 대응할 수 있다.The
구체적으로 살펴보면, 본 발명의 일 실시예에 따른 정보 제공 장치(120)는 이용자(110)의 상태를 인식하고, 이용자(110)의 현재 수행작업에 기초하여 이용자(110)에게 적합한 방식으로 이용자(110)에게 전달이 필요한 정보를 제공한다.Specifically, the
예를 들어, 이용자(110)가 휴대형 단말기(130)를 이용하여 전자책 읽기 작업을 수행 중인 경우, 정보 제공 장치(110)는 이용자(110)의 주의를 점유하고 있는 대상인 휴대형 단말기(130)를 이용하여 전달이 필요한 정보를 제공할 수 있다. 즉, 정보 제공 장치(120)는 휴대형 단말기(130)의 화면에 팝업을 띄워서 전달이 필요한 정보를 시각적으로 제공할 수 있다. 일 예에서, 정보 제공 장치(110)는 휴대형 단말기(130)의 스피커를 이용하여 전달이 필요한 정보를 청각적으로 제공할 수 있다.For example, when the
일 예에서, 이용자(110)는 자율 주행 차량의 운전자 또는 탑승자일 수 있다.In one example,
정보 제공 장치(120)는 이용자(110)가 인지할 필요가 있는 정보를 이용자(110)에게 제공할 수 있으며, 일 예로서, 정보 제공 장치(120)는 자율 주행 차량의 운전자(110)에게 자율 주행 관련 정보를 제공할 수 있다. 여기서 자율 주행 관련 정보는 제어권 전환 요청(TOR)을 포함할 수 있다.The
일 예에서, 정보 제공 장치(120)는 자율 주행 차량으로부터 운전자(110)에게 자율 주행 관련 정보를 전달하는 HMI 장치를 포함한다.In one example, the
정보를 전달하는 데 사용할 디바이스(130)는 이용자(110)에게 시각, 청각, 후각 및 촉각을 포함한 감각 자극을 전달할 수 있는 디바이스를 포함하며, 예컨대 차량 장착형 디바이스 또는 휴대형 디바이스일 수 있다.The
이하에서, 도 2를 참조하여 자율 주행 차량의 운전자에게 자율 주행 관련 정보를 제공하는 측면에 주안점을 두어, 정보 제공 장치(120)의 예시적인 상세 구성에 대하여 설명한다.Hereinafter, an exemplary detailed configuration of the
도 2는 본 발명의 일 실시예에 따른 정보 제공 장치(120)를 도시한 블록도이다.2 is a block diagram illustrating an
정보 제공 장치(120)는 인식부(210)를 포함한다.The
인식부(210)는 도 3을 참조하여 운전자(110)의 현재 상태 정보를 수집하여 운전자(110)의 상태를 인식(310)한다.The
운전자(110)의 현재 상태 정보는 영상, 음성, 및 생체 신호를 포함할 수 있다. 예를 들어, 현재 상태 정보는 차량 및 운전자(110)의 영상 정보, 차량 내부의 소리 정보, 운전자(110)의 음성 정보, 및 운전자(110)의 생체 신호를 포함할 수 있다.The current state information of the
인식부(210)는 생체 신호 수집부, 휴대형 장치 정보 수집부, 차량 장치 정보 수집부, 영상 수집부 및 음성 수집부를 포함할 수 있다. 예를 들어, 인식부(210)는 운전자가 휴대하거나 위치를 옮겨서 사용할 수 있는 스마트폰, 스마트워치, 노트북 등의 휴대형 HMI(Human Machine Interface) 장치와 차량 센터페시아에 장착된 오디오비디오시스템, 전방 윈드쉴드 글라스에 설치된 HUD(Head Up Display) 장치 등의 차량 장착 HMI 장치, 차량에 장착되어 운전자(110) 영상을 수집하는 영상 센서, 및 운전자(110)의 생체 신호를 수집하는 생체 센서를 포함할 수 있다. 영상 센서는 일반적인 정보 수집을 위한 가시광선 영역의 영상 센서와 시선 검출을 위한 적외선 영상 센서 중 적어도 하나가 될 수 있고, 생체 센서는 ECG, EEG, PPG, GSR, 및 호흡률 센서 등을 포함하며, 음성 수집부는 음성 센서가 될 수 있는데, 이에 한정되지 않고 현재 또는 미래의 동일 또는 유사한 기능을 수행하는 제반 장치를 포함함은 물론이다.The
인식부(210)는 생체 신호 수집부에서 수집한 생체 신호를 분석하여 운전자(110)의 생리적 부하를 분석하는 생리 부하 분석부, 영상 수집부에서 수집한 영상을 분석하고, 수집된 영상에서 운전자(110)의 머리 위치, 머리 방향, 시선, 입모양, 손의 위치, 팔의 위치, 몸통 위치, 발 위치 등을 인식하는 운전자 신체 인식부, 수집된 영상에서 운전자(110)의 휴대형 장치를 검출하는 것과 같은 운전자(110)의 베타 정보를 인식하는 베타 정보 인식부, 영상 수집부에서 수집한 영상에서 운전자(110)의 시선을 검출하고 시선 방향과 위치 등의 정보를 이용하여 시선을 점유하는 목표 지점을 인식하는 시선 인식부, 휴대형 HMI 장치로부터 수행 중인 작업 정보를 수집하는 휴대형 장치 정보 수집부, 및 차량 장착 HMI 장치로부터 수행 중인 작업 정보를 수집하는 차량 장치 정보 수집부를 포함한다.The
정보 제공 장치(120)는 수행작업 결정부(220)를 포함한다. 수행작업 결정부(220)는 인식부(210)에서 인식한 운전자(110)의 현재 상태 정보에 기반하여 운전자(110)의 현재 수행작업을 결정한다.The
현재 수행작업은 운전자(110)의 현재 동작, 행위, 상태를 총칭하는 의미이다. 예를 들어, 현재 수행작업은 자율 주행 차량의 운전자(110)의 운전 행위일 수 있거나, 또는 자율 주행 중에 수행 중인 운전이 아닌 다른 작업(NDRT), 예컨대 음악 감상, 영화 보기, 경치 감상, 게임 하기, 대화, 영상 통화, 읽기, 쓰기, 스마트 폰 하기, 먹기, 마시기, 화장 하기, 옷 입기, 청소 하기, 씻기, 잠자기, 아무 것도 안하기 등을 포함한다. 즉, 수행작업은 어떤 의도된 동작이나 행위만이 아니라 인간의 현재 그대로의 상태(아무 것도 안하는 상태를 포함)나 무의식적인 행동, 반사적 동작 등을 모두 아우른다. The currently performed task is a generic term for the current operation, behavior, and state of the
수행작업 결정부(220)가 운전자(110)의 현재 수행작업을 결정하는 과정은 도 3을 참조하여 보다 상세하게 서술한다.A process in which the to-be-executed
정보 제공장치(120)는 정보 제공부(230)를 포함한다.The
정보 제공부(230)는 수행작업 결정부(220)에서 결정한 현재 수행작업에 기반하여 운전자(110)에게 자율 주행 관련 정보 등의 정보를 제공한다. 여기서, 정보 제공부(230)는 수행작업 결정부(220)에서 결정한 현재 수행작업에 기반하여 적어도 하나의 감각 채널을 결정하고, 결정한 적어도 하나의 감각 채널을 통해 운전자(110)에게 정보를 제공한다.The
정보 제공부(230)는 활성 감각 결정부(232)를 포함한다.The
활성 감각 결정부(232)는 수행작업 결정부(220)에서 결정한 현재 수행작업을 분석하여 운전자(110)의 적어도 하나의 활성 감각을 결정한다.The active
활성 감각은 운전자(110)가 현재 수행작업을 수행하는 데에 사용하는 감각 또는 운전자(110)가 현재 수행작업을 수행하는 동안에 활성화되는 감각에 대응할 수 있다. 예를 들어, 활성 감각은 시각, 청각, 신체(촉각), 및 인지력 등을 포함할 수 있다.The active sense may correspond to a sense used by the
활성 감각 결정부(232)는 각 활성 감각에 대하여 활성화된 감각의 민감도 또는 활성도를 결정할 수 있다. The active sensory determining
일 예에서, 도 1을 참조하여 자율 주행 차량의 운전자(110)가 휴대형 단말기(130)로 전자책을 읽고 있는 경우, 운전자(110)의 감각 중 시각이 활성화되어 시각의 활성도는 높은 반면에, 읽기에 사용하지 않는 청각은 비활성화되어 청각의 활성도는 상대적으로 낮다. 이 경우, 수행작업 결정부(220)는 운전자(110)의 수행작업을 읽기로 결정하고, 활성 감각 결정부(232)는 시각의 활성도는 높음으로, 청각의 활성도는 낮음으로 결정할 수 있다.In one example, referring to FIG. 1 , when the
정보 제공부(230)는 감각 채널 결정부(234)를 포함한다. 감각 채널 결정부(234)는 활성 감각 결정부(232)에서 결정한 적어도 하나의 활성 감각에 기반하여 운전자(110)에게 정보를 제공할 적어도 하나의 감각 채널을 결정한다.The
적어도 하나의 감각 채널은 운전자(110)에게 정보를 제공하는 데 사용할 감각에 대응한다. 일 예에서, 적어도 하나의 감각 채널은 활성 감각 결정부(232)가 결정한 적어도 하나의 활성 감각에 대응할 수 있다. 예를 들어, 감각 채널은 시각, 청각, 신체(촉각), 및 인지 채널 등을 포함할 수 있다.At least one sensory channel corresponds to a sensation to use to provide information to the
정보 제공부(230)는 주의 점유 결정부(236)를 포함한다.The
주의 점유 결정부(236)는 인식부(210)에서 인식한 운전자 상태 정보에 기반하여 운전자(110)의 주의를 점유하고 있는 대상을 결정한다. 예를 들어, 주의 점유 결정부(236)는 운전자 상태 정보에 기초하여, 도 1을 참조하여, 휴대형 단말기(130)를 자율 주행 차량의 운전자(110)의 주의를 점유하고 있는 대상으로 결정할 수 있다.The attention
일 예에 따른, 정보 제공부(230)의 상세한 동작 과정은 도 4를 참조하여 이하에서 살펴본다.A detailed operation process of the
도 3은 본 발명의 일 예에 따른 수행작업 결정 과정을 도시한 순서도이다.3 is a flowchart illustrating a process for determining an operation to be performed according to an embodiment of the present invention.
단계(310)에서, 도 2를 참조하여 인식부(210)는 운전자(110)의 상태 정보를 인식한다.In
단계(320)에서, 도 2를 참조하여 수행작업 결정부(220)는 운전자(110)의 상태 정보를 분석하여 운전자(110)의 예상 수행작업을 결정한다.In
단계(320)에서 수행작업 결정부(220)는, 도 2를 참조하여 수행작업 모델(222)에 기반하여 운전자 상태 정보를 분석하여 운전자(110)의 예상 수행작업을 결정한다. 일 예에서, 수행작업 모델(222)은 사전설정된 모델일 수 있다. 일 예에서, 수행작업 모델(222)은 학습에 의하여 구축될 수 있다.In
수행작업 모델(222)은 운전자(110)가 특정 작업을 수행하는 경우의 운전자(110)의 상태 정보를 분석하여 구축한 모델이다. 예를 들어, 수행작업 모델(222)은 휴대형 HMI 장치 활성화 정보, 차량 장착 HMI 장치 활성화 정보, 운전자 시선 방향, 시선 위치, 운전자 머리 위치, 머리 방향, 입 모양, 손의 위치, 팔의 위치, 몸통 위치, 발 위치, 및 운전자 생리 부하 등을 관찰하고, 이와 같은 정보를 수행작업 별로 분류하여 구축한 모델에 대응할 수 있다. 예를 들어, 수행작업 모델(222)은 먹기 수행작업을 입 모양이 반복적으로 열리거나 닫히는 상태, 손의 위치가 반복적으로 입 주변으로 이동하는 상태, 및 머리의 위치가 반복적으로 상하로 움직이는 상태로 정의할 수 있다.The performing
수행작업 결정부(220)는 인식부(210)에서 인식한 운전자 상태 정보를 분석한 결과를 수행작업 모델(222)의 수행작업별 상태 정보와 비교하여, 매칭되는 수행작업을 운전자(110)의 예상 수행작업으로 결정한다.The
예를 들어, 인식부(210)에서 인식한 운전자 상태 정보가 입 모양이 반복적으로 열리거나 닫히는 상태, 손의 위치가 반복적으로 입 주변으로 이동하는 상태, 및 머리의 위치가 반복적으로 상하로 움직이는 상태를 포함하는 경우에, 수행작업 결정부(220)는 운전자(110)의 예상 수행작업을 먹기 수행작업으로 결정할 수 있다. 다른 예로, 인식부(210)에서 인식한 운전자 상태 정보가 운전자(110)의 머리 위치는 변화가 적은 상태, 운전자(110)의 시선 방향은 스마트 폰을 향하는 상태, 및 손의 위치가 스마트 폰 주위에 위치하는 상태를 포함하는 경우에, 수행작업 결정부(220)는 운전자(110)의 예상 수행작업을 스마트 폰 사용하기로 결정할 수 있다. 또 다른 예로, 운전자(110)의 시선을 검출할 수 없는 상태, 신체의 움직임이 적은 상태 및 생리 신호 부하가 특히 낮은 상태인 경우에, 수행작업 결정부(220)는 잠자기를 운전자의 예상 수행작업으로 결정할 수 있다.For example, the driver state information recognized by the
단계(330)에서 수행작업 결정부(220)는 N개의 예상 수행작업을 결정할 때까지 단계(310) 및 단계(320)을 반복한다. 일 예에서, N은 0보다 큰 정수일 수 있다. 예를 들어, N은 사전결정된 값일 수 있다. 일 예에서, N은 학습에 의하여 결정될 수 있다.In
단계(330)에서 N개의 예상 수행작업은 큐에 저장된다. 수행작업 결정부(220)는 N개의 예상 수행작업을 큐에 순서대로 저장할 수 있고, 큐에 더 이상 예상 수행작업을 저장할 공간이 없는 경우, 가장 오래된 예상 수행작업을 지우고 새로운 예상 수행작업을 저장한다. 예를 들어, 큐는 원형 큐일 수 있다.In
단계(340)에서 수행작업 결정부(220)는 단계(330)에서 결정된 N개의 예상 수행작업 각각에 대하여 각 수행작업i가 운전자(110)의 현재 수행작업일 확률 Pi을 계산한다(i는 N보다 작거나 같은 정수). 확률 Pi는 최근 N개의 예상 수행작업에 대하여 수행작업i가 예상수행작업으로 결정된 비율에 대응할 수 있다. 수행작업 결정에 있어서, 예상 수행작업을 N번 결정한 결과를 활용하므로, 순간적으로 잘못 판단하는 경우를 필터링할 수 있고, 현재 수행작업의 결정에 대한 정확도를 높일 수 있다.In
단계(350)에서 수행작업 결정부(220)는 단계(340)에서 결정한 확률 Pi가 임계값 PThreshold 이상이면, 단계(360)에서 운전자(110)가 현재 수행작업i를 수행하고 있다고 결정한다. 일 예에서, 단계(360)에서 수행작업 결정부(220)는 적어도 하나의 현재 수행작업을 결정한다. 일 예에서, 수행작업 결정부(220)는 단계(340)에서 결정한 확률 Pi가 PThreshold보다 작으면, 단계(370)에서 운전자(110)가 현재 수행작업i를 수행하지 않는다고 결정할 수 있다. 일 예에서, PThreshold는 사전결정된 값일 수 있다. 일 예에서, N은 학습에 의하여 결정될 수 있다.In
도 4는 본 발명의 일 예에 따른 감각 채널 결정 과정을 도시한 순서도이다.4 is a flowchart illustrating a process of determining a sensory channel according to an embodiment of the present invention.
단계(410)에서, 도 2를 참조하여 활성 감각 결정부(232)는, 단계(360)에서 수행작업 결정부(220)가 결정한 현재 수행작업에 기반하여 운전자(110)의 적어도 하나의 활성 감각을 결정한다. 활성 감각 결정부(232)는 단계(410)에서, 현재 수행작업을 분석하여 해당 수행작업의 수행에 사용하는 적어도 하나의 감각을 현재 수행작업에 대한 적어도 하나의 활성 감각으로 결정한다.In
단계(420)에서 활성 감각 결정부(232)는 사전설정된 활성 감각 모델에 기반하여 상기 현재 수행작업을 분석하여, 단계(410)에서 결정한 적어도 하나의 활성 감각의 활성도를 결정한다. 일 예에서, 활성 감각 모델(238)은 사전설정된 모델일 수 있다. 일 예에서, 활성 감각 모델(238)은 학습에 의하여 구축될 수 있다.In
이하에서 도 5를 참조하여 활성 감각 모델(238)에 대하여 살펴본다.Hereinafter, the active
도 5는 예시적인 활성 감각 모델(238)을 보여준다. 활성 감각 모델(238)은 수행작업의 목록을 포함한다. 활성 감각 모델(238)은 각 수행작업 별로 해당 수행작업의 수행에 사용하는 적어도 하나의 활성 감각에 대한 정보를 포함한다. 일 예에서, 활성 감각은 시각, 청각, 신체(촉각) 감각, 및 인지력 등을 포함할 수 있다.5 shows an exemplary active
도 5를 참조하여 활성 감각 모델(238)은 각 활성 감각의 활성도에 대한 정보를 포함한다. 활성 감각 모델(238)은 각 활성 감각의 활성도를 단계별로 구분하거나 또는 다양한 방법으로 수치화하여 제공한다. 예를 들어, 도 5의 활성 감각 모델(238)은 수행 작업의 종류에 따라 각 활성 감각의 활성도를 매우 낮음, 낮음, 중간 및 높음의 4단계로 구분하고 있다. 도 5의 활성 감각 모델(238)에 따르면, 음악 감상을 수행하는 경우, 시각 및 인지력의 활성도는 낮음, 청각의 활성도는 중간, 그리고 신체 감각의 활성도는 매우 낮음으로 예시하고 있다. 일 예에서, 활성 감각 모델(238)의 각 활성 감각의 활성도는 사전결정된 값일 수 있다. 일 예에서, 활성 감각 모델(238)의 각 활성 감각의 활성도는 학습에 의하여 결정될 수 있다.Referring to FIG. 5 , the active
다시 도 4로 돌아와서, 단계(430)에서, 도 2를 참조하여 감각 채널 결정부(234)는, 단계(420)에서 활성 감각 결정부(232)가 결정한 적어도 하나의 활성 감각의 활성도에 기반하여, 해당 적어도 하나의 활성 감각의 주의 점유 활성도를 결정한다.4, in
주의 점유 활성도는 각 활성 감각에 대한 운전자(110)의 주의 집중도에 대응한다. 활성 감각 결정부(232)는 적어도 하나의 활성 감각의 각 활성 감각에 대하여 주의 점유 활성도를 결정한다. 적어도 하나의 활성 감각의 주의 점유 활성도는 현재 수행작업의 종류, 현재 수행 작업의 개수, 및 운전자(110)의 연령 등에 따라 달라진다. 일 예에서, 수행작업의 수행에 필요한 인지력의 요구에 비례하여 적어도 하나의 활성 감각의 주의 점유 활성도가 높아질 수 있다.The attention-occupying activity corresponds to the driver's 110's concentration of attention for each active sensation. The active sensory determining
일 예에서, 적어도 하나의 활성 감각의 주의 점유 활성도는 다음의 수학식 1에 따라 결정될 수 있다.In one example, the attention-occupying activity of the at least one active sense may be determined according to Equation 1 below.
[수학식 1][Equation 1]
시각의 주의 점유 활성도 = α1V+β1C+V0 Visual attention-occupying activity = α 1 V+β 1 C+V 0
청각의 주의 점유 활성도 = α2A+β2C+A0 Attention-occupied activity of hearing = α 2 A+β 2 C+A 0
촉각의 주의 점유 활성도 = α3P+β3C+P0 Tactile attention-occupying activity = α 3 P+β 3 C+P 0
V: 활성 감각 모델에서 제시하는 시각 활성도V: Visual activity presented by the active sensory model
A: 활성 감각 모델에서 제시하는 청각 활성도A: Hearing activity presented by the active sensory model
P: 활성 감각 모델에서 제시하는 신체(촉각) 활성도P: Body (tactile) activity suggested by the active sensory model
C: 활성 감각 모델에서 제시하는 인지력 활성도C: Cognitive activity presented by the active sensory model
V0:아무 작업도 하지 않을 경우 시각 활성도V 0 : Visual activity when no action is taken
A0:아무 작업도 하지 않을 경우 청각 활성도A 0 : Hearing activity level when no operation is performed
P0:아무 작업도 하지 않을 경우 신체 활성도P 0 : Physical activity when no work is done
α1: 시각 주의 점유 팩터α 1 : Visual attention occupancy factor
α2: 청각 주의 점유 팩터α 2 : auditory attention occupancy factor
α3: 신체 주의 점유 팩터α 3 : body attention occupancy factor
βx: 인지력 주의 점유 팩터β x : cognitive attention occupancy factor
일 예에서, 아무 작업도 하지 않을 경우의 시각 활성도, 청각 활성도 및 신체 활성도는 A0>V0>P0인 관계일 수 있다. 이는 청각 채널을 통해 정보를 제공할 경우 모든 방향으로 정보 제공이 가능하지만, 시각 채널로 제공되는 정보는 운전자(110)의 시선 방향과 시각 채널의 방향이 일치할 경우에만 정보 제공이 가능하며, 신체 채널로는 제공할 수 있는 컨텐츠의 정보가 제한적이라는 점을 반영한 경우에 해당한다.In one example, visual activity, auditory activity, and physical activity when no work is performed may have a relationship of A 0 >V 0 >P 0 . When information is provided through the auditory channel, information can be provided in all directions, but information provided through the visual channel can be provided only when the direction of the driver's 110 gaze and the direction of the visual channel coincide. This corresponds to a case that reflects the fact that information on content that can be provided as a channel is limited.
시각 주의 점유 팩터 α1는 운전자(110)가 시각 채널에 얼마나 주의를 집중하였는지를 나타내는 인자에 대응한다. 일 예에서, 시각 주의력 점유 팩터 α1는 해당 시각 채널에 대한 단위 시간당 시선 점유 시간에 비례할 수 있다. 일 예에서, 시각 주의력 점유 팩터 α1는 운전자(110)가 동시에 수행하는 작업의 개수에 반비례할 수 있다.The visual attention occupation factor α 1 corresponds to a factor indicating how much the
청각 주의 점유 팩터 α2는 운전자(110)가 청각 채널에 얼마나 주의를 집중하였는지 나타내는 인자에 대응한다. 일 예에서, 청각 주의력 점유 팩터 α2는 운전자(110)가 동시에 수행하는 작업의 개수에 반비례할 수 있다.The auditory attention occupation factor α 2 corresponds to a factor indicating how much the
신체 주의 점유 팩터 α3는 운전자(110)가 신체 채널에 얼마나 주의를 집중하였는지 나타내는 인자에 대응한다. 일 예에서, 신체 주의 점유 팩터 α3는 운전자(110)가 동시에 수행하는 작업의 개수에 반비례할 수 있다.The body attention occupation factor α 3 corresponds to a factor indicating how much attention the
인지력 주의 점유 팩터 βx는 운전자(110)가 각 채널에서 제공하는 정보 처리를 위해 얼마나 높은 인지력을 사용했는지 나타내는 인자에 대응한다. 일 예에서, 인지력 주의 점유 팩터 βx는 운전자(110)가 동시에 수행하는 작업의 개수에 반비례할 수 있다. 일 예에서, 인지력 주의 점유 팩터 βx는 운전자(110)의 연령에 따라 다른 값을 가질 수 있다.The cognitive attention occupancy factor β x corresponds to a factor indicating how high cognitive power the
일 예에서, 적어도 하나의 활성 감각의 주의 점유 활성도는 각 활성 감각에 대한 운전자(110)의 반응 지연과 연관될 수 있다. 다시 말하면, 주의 점유 활성도는 적어도 하나의 감각 채널을 통한 정보의 제공에 대한 운전자(110)의 반응 지연과 연관될 수 있다. 예를 들어, 정보를 제공하는 감각 채널의 주의 점유 활성도가 높을수록 운전자(110)의 반응 지연이 낮을 수 있다. 이는 주의 점유 활성도가 높은 감각은 운전자(110)의 주의 집중도가 높은 감각에 대응하기 때문에, 해당 채널을 통하여 정보를 제공받은 운전자(110)는 즉각적으로 반응할 수 있기 때문이다.In one example, the attention grabbing activity of the at least one active sense may be associated with a delay in response of the
단계(440)에서 감각 채널 결정부(234)는, 단계(430)에서 결정한 주의 점유 활성도에 기반하여 적어도 하나의 감각 채널을 결정할 수 있다.In
단계(440)에서 감각 채널 결정부(234)는 단계(430)에서 결정한 주의 점유 활성도가 최대 기준 활성도를 초과하는 경우에, 해당 주의 점유 활성도에 대응하는 감각을 적어도 하나의 감각 채널로 결정할 수 있다.In
단계(440)에서 감각 채널 결정부(234)는 단계(430)에서 결정한 주의 점유 활성도가 최소 기준 활성도 이하인 경우에, 모든 활성 감각을 적어도 하나의 감각 채널로 결정할 수 있다.In
도 2를 참조하여 정보 제공부(230)는 단계(440)에서 감각 채널 결정부(234)가 결정한 적어도 하나의 감각 채널을 통하여 운전자(110)에게 자율 주행 관련 정보를 제공한다.Referring to FIG. 2 , the
도 6은 본 발명의 일 실시예에 따른 정보 제공 방법을 도시한 순서도이다.6 is a flowchart illustrating an information providing method according to an embodiment of the present invention.
단계(610)에서 도 2를 참조하여 인식부(210)는 운전자 상태 정보를 인식한다. 단계(610)은 도 3을 참조하여 단계(310)에 대응할 수 있다.In
단계(620)에서 도 2를 참조하여 수행작업 결정부(220)는 운전자 상태 정보에 기반하여 운전자(110)의 현재 수행작업을 결정한다. 단계(620)은 도 3을 참조하여 단계(320) 내지 단계(370)에 대응할 수 있다.In
단계(630)에서 도 2를 참조하여 정보 제공부(230)는 현재 수행작업에 기반하여 적어도 하나의 감각 채널을 결정한다. 단계(630)은 도 4를 참조하여 단계(410) 내지 단계(440)에 대응할 수 있다.Referring to FIG. 2 in
단계(640)에서 도 2를 참조하여 주의 점유 결정부(236)는 단계(610)에서 인식부(210)가 인식한 운전자 상태 정보에 기반하여 운전자(110)의 주의를 점유하고 있는 대상을 결정한다.Referring to FIG. 2 in
일 예에서, 단계(640)에서 주의 점유 결정부(236)는 운전자(110)의 시선 주의를 점유하고 있는 장치를 운전자(110)의 주의를 점유하고 있는 대상으로 선정할 수 있다. 일 예에서, 단계(640)에서 주의 점유 결정부(236)는 단위 시간 동안 운전자(110)의 시선을 점유하는 비율이 임계값 이상인 장치를 운전자(110) 주의 점유 대상으로 결정할 수 있다.In one example, in
단계(650)에서 정보 제공부(230)는 운전자(110)에게 자율 주행 관련 정보를 제공할 장치 및 감각 채널을 선정한다.In
일 예에서, 단계(650)에서 정보 제공부(230)는 단계(630)에서 결정한 적어도 하나의 감각 채널 중 단계(640)에서 결정한 주의를 점유하고 있는 대상이 제공가능한 감각 채널을 통하여 자율 주행 관련 정보를 제공할 수 있다.In one example, in
일 예에서, 단계(650)에서 정보 제공부(230)는, 단계(630)에서 결정된 적어도 하나의 감각 채널이 시각 채널을 포함하는 경우, 단계(640)에서 결정된 주의 점유 대상이 시각 인터페이스를 제공한다면, 해당 주의 점유 대상의 시각 인터페이스를 통해 자율 주행 관련 정보를 제공할 수 있다. 만약, 단계(640)에서 결정된 주의 점유 대상이 시각 인터페이스를 제공하지 않는다면, 대표 시각 장치를 통해 자율 주행 관련 정보를 제공하기로 결정할 수 있다.In one example, when the at least one sensory channel determined in
일 예에서, 단계(650)에서 정보 제공부(230)는, 단계(630)에서 결정된 적어도 하나의 감각 채널이 청각 채널을 포함하는 경우, 단계(640)에서 결정된 주의 점유 대상이 청각 인터페이스를 제공한다면, 해당 주의 점유 대상의 청각 인터페이스를 통해 자율 주행 관련 정보를 제공하기로 결정할 수 있다. 만약, 단계(640)에서 결정된 주의 점유 대상이 청각 인터페이스를 제공하지 않는다면, 대표 청각 장치를 통해 자율 주행 관련 정보를 제공하기로 결정할 수 있다.In one example, when the at least one sensory channel determined in
일 예에서, 단계(650)에서 정보 제공부(230)는, 단계(630)에서 결정된 적어도 하나의 감각 채널이 신체 채널을 포함하는 경우, 운전자(110)와 신체적으로 접촉하고 있는 장치를 통해서 자율 주행 관련 정보를 제공하기로 결정할 수 있다.In one example, when the at least one sensory channel determined in
일 예에서, 단계(650)에서 정보 제공부(230)는 단계(640)에서 주의 점유 대상이 없다고 결정된 경우, 대표 시각, 청각 및 신체 장치 중 적어도 하나를 통해 자율 주행 관련 정보를 제공하기로 결정할 수 있다.In one example, when it is determined in
일 예에서, 단계(650)에서 정보 제공부(230)는 단계(640)에서 결정된 주의 점유 대상 이외에도 부가적으로 대표 시각, 청각 및 신체 장치 중 적어도 하나를 통해 자율 주행 관련 정보를 제공하기로 결정할 수 있다.In one example, in
단계(660)에서 정보 제공부(230)는 자율 주행 시스템이 운전자(110)에게 제공할 정보가 있는 지 여부를 확인하고, 있다면 단계(670)에서 해당 정보를 제공한다.In
예를 들어, 단계(620)에서 운전자(110)가 스마트 폰으로 영화 보기 작업을 수행 중인 것으로 결정되면, 단계(630)에서 적어도 하나의 감각 채널은 시각 채널 및 청각 채널로 결정되고, 단계(640)에서 주의 점유 대상은 스마트 폰으로 결정되며, 단계(650) 내지 단계(670)에서 정보 제공부(230)는, 스마트 폰의 시각 채널 및 청각 채널을 통해 운전자(110)에게 시각 정보와 청각 정보를 제공할 수 있다. 따라서, 운전자(110)가 스마트 폰으로 영화 보기와 같은 NDRT를 현재 수행 중이라면, 운전 작업에 대한 민감도가 떨어진 운전자(110)에게 보낼 긴급한 요청(예를 들어 TOR 등) 발생 시에, 스마트 폰의 시각 채널 및 청각 채널을 통해 운전자(110)에게 정보를 제공함으로써, 운전자(110) 반응 지연을 최소화하고, 주어진 임계시간 내에 운전자(110)가 해당 요청을 인지하고 반응하도록 도울 수 있다. 이에 따라, 자율 주행의 안전성이 향상될 수 있다.For example, if it is determined in
일 예에서, 단계(670)에서 정보 제공부(230)는 제공하려는 정보 이외의 다른 정보는 일시적으로 차단할 수 있다.In one example, in
일 예에서, 도 6에 도시된 정보 제공 과정은 반복적으로 수행될 수 있다.In one example, the information providing process shown in FIG. 6 may be repeatedly performed.
일 예에서, 단계(640)은 단계(620) 및 단계(630)에 선행하여 수행되거나 또는 단계(620) 및 단계(630)과 동시에 병렬적으로 수행될 수 있다.In one example, step 640 may be performed prior to
일 예에서, 단계(640)에서 결정한 주의 점유 대상에 기반하여 단계(630)에서 수행작업을 결정할 수 있다.In one example, the task to be performed may be determined in
이상, 자율 주행 차량의 운전자에게 자율 주행 관련 정보를 제공하는 경우를 상정하여 설명하였으나, 본 발명의 기술적 사상은 전술한 각 실시예에 따른 정보 제공 방법에 국한되지 않는다As described above, the description has been made on the assumption that autonomous driving-related information is provided to the driver of the autonomous driving vehicle, but the technical spirit of the present invention is not limited to the information providing method according to each of the above-described embodiments.
일 실시예는 이용자(110)에게 정보 제공이 필요한 제반 환경에서, 이용자(110)가 현재 수행하고 있는 수행작업에 따라 적합한 방식으로 정보를 제공하는 정보 제공 방법을 제공한다. 정보를 제공받을 이용자(110)의 현재 수행작업에 따라 이용자의 적어도 하나의 활성 감각을 결정하는 단계, 적어도 하나의 활성 감각에 기반하여 정보를 제공하는 데 사용할 적어도 하나의 감각 채널을 결정하는 단계, 및 적어도 하나의 감각 채널을 통하여 이용자(110)에게 정보를 제공하는 단계를 포함하는 정보 제공 방법을 제공할 수 있다.An embodiment provides an information providing method for providing information in an appropriate manner according to the task currently being performed by the
일 예에서, 이용자(110)는 정보를 인식할 수 있는 주체를 포함할 수 있다. 예를 들어, 이용자(110)는 사람일 수 있다. 다른 예에서, 이용자(110)는 로봇일 수 있다.In one example, the
일 예에서, 정보 제공 장치(120)는 범용 정보 제공 장치를 포함한다. 예를 들어, 정보 제공 장치(120)는 전자 광고판, 키오스크, 또는 스마트홈 제어기 등을 포함한다.In one example, the
한편, 본 발명의 실시예에 따른 정보 제공 장치 및 방법은 컴퓨터 시스템에서 구현되거나, 또는 기록매체에 기록될 수 있다. 컴퓨터 시스템은 적어도 하나 이상의 프로세서와, 메모리와, 사용자 입력 장치와, 데이터 통신 버스와, 사용자 출력 장치와, 저장소를 포함할 수 있다. 전술한 각각의 구성 요소는 데이터 통신 버스를 통해 데이터 통신을 한다.Meanwhile, the information providing apparatus and method according to an embodiment of the present invention may be implemented in a computer system or recorded in a recording medium. The computer system may include at least one processor, a memory, a user input device, a data communication bus, a user output device, and storage. Each of the above-described components performs data communication through a data communication bus.
컴퓨터 시스템은 네트워크에 커플링된 네트워크 인터페이스를 더 포함할 수 있다. 프로세서는 중앙처리 장치(central processing unit (CPU))이거나, 혹은 메모리 및/또는 저장소에 저장된 명령어를 처리하는 반도체 장치일 수 있다. The computer system may further include a network interface coupled to the network. The processor may be a central processing unit (CPU) or a semiconductor device that processes instructions stored in a memory and/or storage.
메모리 및 저장소는 다양한 형태의 휘발성 혹은 비휘발성 저장매체를 포함할 수 있다. 예컨대, 메모리는 ROM 및 RAM을 포함할 수 있다.The memory and storage may include various types of volatile or non-volatile storage media. For example, memory may include ROM and RAM.
따라서, 본 발명의 실시예에 따른 정보 제공 방법은 컴퓨터에서 실행 가능한 방법으로 구현될 수 있다. 본 발명의 실시예에 따른 정보 제공 방법이 컴퓨터 장치에서 수행될 때, 컴퓨터로 판독 가능한 명령어들이 본 발명에 따른 정보 제공 방법을 수행할 수 있다.Accordingly, the information providing method according to the embodiment of the present invention may be implemented as a computer-executable method. When the information providing method according to an embodiment of the present invention is performed in a computer device, computer readable instructions may perform the information providing method according to the present invention.
한편, 상술한 본 발명에 따른 정보 제공 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Meanwhile, the information providing method according to the present invention described above may be implemented as a computer readable code on a computer readable recording medium. The computer-readable recording medium includes any type of recording medium in which data that can be read by a computer system is stored. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like. In addition, the computer-readable recording medium may be distributed in computer systems connected through a computer communication network, and stored and executed as readable codes in a distributed manner.
이제까지 본 발명을 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양하게 변경 또는 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명을 위한 예시적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at mainly in the embodiments. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be implemented in variously changed or modified forms without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated by the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.
120: 정보 제공 장치
210: 인식부
220: 수행작업 결정부
230: 정보 제공부
232: 활성 감각 결정부
234: 감각 채널 결정부
236: 주의 점유 결정부120: information providing device
210: recognition unit
220: work determination unit
230: information provider
232: active sensory determining unit
234: sensory channel determining unit
236: state occupation decision unit
Claims (16)
사전설정된 수행작업 모델에 기반하여 상기 운전자 상태 정보를 분석하여 상기 운전자의 예상 수행작업을 결정하고, 이 예상 수행작업에 기반하여 상기 현재 수행작업을 결정하는 수행작업 결정부; 및
상기 현재 수행작업에 기반하여 적어도 하나의 감각 채널을 결정하고, 상기 적어도 하나의 감각 채널을 통해 상기 운전자에게 상기 자율 주행 관련 정보를 제공하는 정보 제공부를 포함하되,
상기 운전자 상태 정보는 차량 및 운전자의 영상 정보, 차량 내부의 소리 정보, 운전자의 음성 정보, 및 운전자의 생체 신호를 포함하고,
상기 현재 수행작업은 운전자의 자율 주행 차량의 운전 행위 및 자율 주행 중에 행해지는 운전이 아닌 다른 작업(NDRT)을 포함하는 것을 특징으로 하는 정보 제공 장치.
a recognition unit for acquiring driver state information of the autonomous vehicle;
a to-be-performed task determining unit that analyzes the driver state information based on a preset to-be-performed work model to determine an expected to be performed of the driver, and to determine the current to be performed based on the expected to be performed; and
An information providing unit that determines at least one sensory channel based on the currently performed task and provides the autonomous driving-related information to the driver through the at least one sensory channel,
The driver state information includes image information of the vehicle and the driver, sound information inside the vehicle, voice information of the driver, and bio-signals of the driver,
The information providing apparatus, characterized in that the currently performed task includes a driver's driving of the autonomous vehicle and a task other than driving (NDRT) performed during autonomous driving.
상기 수행작업 결정부는,
상기 예상 수행작업의 일 세트를 분석하여 상기 운전자의 상기 현재 수행작업을 결정하는, 정보 제공 장치.
The method of claim 1,
The task determination unit,
and determining the current performance of the driver by analyzing a set of the expected to-be-performed tasks.
상기 정보 제공부는,
상기 현재 수행작업에 기반하여 상기 운전자의 적어도 하나의 활성 감각을 결정하는 활성 감각 결정부; 및
상기 적어도 하나의 활성 감각에 기반하여 상기 주행 관련 정보를 제공할 상기 적어도 하나의 감각 채널을 결정하는 감각 채널 결정부;
를 포함하는 정보 제공 장치.
The method of claim 1,
The information providing unit,
an active sense determining unit configured to determine at least one active sense of the driver based on the currently performed task; and
a sensory channel determining unit configured to determine the at least one sensory channel through which the driving-related information is to be provided based on the at least one active sense;
An information providing device comprising a.
상기 활성 감각 결정부는 사전설정된 활성 감각 모델에 기반하여 상기 현재 수행작업을 분석하여 상기 적어도 하나의 활성 감각의 활성도를 결정하고,
상기 감각 채널 결정부는,
상기 활성도에 기반하여 결정되는 상기 적어도 하나의 활성 감각의 주의 점유 활성도에 기반하여 상기 적어도 하나의 감각 채널을 결정하는, 정보 제공 장치.
5. The method of claim 4,
The active sensory determining unit determines the activity level of the at least one active sensory by analyzing the currently performed task based on a preset active sensory model;
The sensory channel determining unit,
and determining the at least one sensory channel based on the attention-occupying activity of the at least one active sense determined based on the activity level.
상기 감각 채널 결정부는,
상기 주의 점유 활성도가 최대 기준 활성도를 초과하는 경우에, 상기 주의 점유 활성도에 대응하는 감각을 상기 적어도 하나의 감각 채널로 결정하는, 정보 제공 장치.
6. The method of claim 5,
The sensory channel determining unit,
and when the attention-occupying activity exceeds a maximum reference activity, determining a sensation corresponding to the attention-occupying activity as the at least one sensory channel.
상기 감각 채널 결정부는,
상기 주의 점유 활성도가 최소 기준 활성도 이하인 경우에, 모든 상기 활성 감각을 상기 적어도 하나의 감각 채널로 결정하는, 정보 제공 장치.
6. The method of claim 5,
The sensory channel determining unit,
and when the attention-occupying activity is equal to or less than a minimum reference activity, determining all of the active senses as the at least one sensory channel.
상기 주의 점유 활성도는 상기 주행 관련 정보의 제공에 대한 상기 운전자의 반응 지연과 연관되는, 정보 제공 장치.
6. The method of claim 5,
and the attention-occupying activity is associated with a delay in response of the driver to the provision of the driving-related information.
상기 정보 제공부는,
상기 운전자 상태 정보에 기반하여 상기 운전자의 주의를 점유하고 있는 대상을 결정하는 주의 점유 결정부;
를 포함하는 정보 제공 장치.
The method of claim 1,
The information providing unit,
an attention occupation determining unit configured to determine an object occupying the driver's attention based on the driver state information;
An information providing device comprising a.
상기 정보 제공부는,
상기 적어도 하나의 감각 채널 중 상기 주의를 점유하고 있는 대상이 제공하는 감각 채널을 통하여 상기 주행 관련 정보를 제공하는 정보 제공 장치.
10. The method of claim 9,
The information providing unit,
An information providing apparatus for providing the driving-related information through a sensory channel provided by an object occupying the attention among the at least one sensory channel.
상기 현재 수행작업에 따라 상기 운전자의 적어도 하나의 활성 감각을 결정하는 단계; 및
상기 적어도 하나의 활성 감각에 기반하여 자율 주행 관련 정보를 제공할 적어도 하나의 감각 채널을 결정하는 단계를 포함하되,
상기 운전자 상태 정보는 차량 및 운전자의 영상 정보, 차량 내부의 소리 정보, 운전자의 음성 정보, 및 운전자의 생체 신호를 포함하고,
상기 현재 수행작업은 운전자의 자율 주행 차량의 운전 행위 및 자율 주행 중에 행해지는 운전이 아닌 다른 작업(NDRT)을 포함하는 것을 특징으로 하는 정보 제공 방법.
determining a currently performed task of a driver based on driver state information of the autonomous vehicle;
determining at least one active sense of the driver according to the currently performed task; and
determining at least one sensory channel to provide autonomous driving-related information based on the at least one active sensory;
The driver state information includes image information of the vehicle and the driver, sound information inside the vehicle, voice information of the driver, and bio-signals of the driver,
The method for providing information, characterized in that the currently performed task includes a driver's driving behavior of the autonomous vehicle and a task other than driving (NDRT) performed during autonomous driving.
상기 운전자 상태 정보에 기반하여 상기 운전자의 주의 점유 대상을 결정하는 단계; 및
상기 적어도 하나의 감각 채널 중 상기 주의 점유 대상이 제공하는 감각 채널을 통하여 상기 운전자에게 자율 주행 관련 정보를 제공하는 단계
를 더 포함하는 정보 제공 방법.
12. The method of claim 11,
determining an attention occupant target of the driver based on the driver state information; and
providing autonomous driving-related information to the driver through a sensory channel provided by the attention-occupying target among the at least one sensory channel
A method of providing information further comprising a.
상기 적어도 하나의 활성 감각을 결정하는 단계는,
상기 적어도 하나의 활성 감각의 활성도를 결정하는 단계
를 포함하고,
상기 적어도 하나의 감각 채널을 결정하는 단계는,
상기 적어도 하나의 활성 감각의 활성도에 기반하여 상기 적어도 하나의 활성 감각의 주의 점유 활성도를 결정하는 단계
를 포함하는 정보 제공 방법.
12. The method of claim 11,
Determining the at least one active sense comprises:
determining the activity of the at least one active sense;
including,
Determining the at least one sensory channel comprises:
determining an attention-occupying activity of the at least one active sense based on the activity of the at least one active sense;
A method of providing information, including
상기 적어도 하나의 감각 채널을 결정하는 단계는,
상기 주의 점유 활성도가 최대 기준 활성도를 초과하는 경우에, 상기 주의 점유 활성도에 대응하는 감각을 상기 적어도 하나의 감각 채널로 결정하는 것인, 정보 제공 방법.
14. The method of claim 13,
Determining the at least one sensory channel comprises:
When the attention-occupying activity exceeds a maximum reference activity, determining the sensation corresponding to the attention-occupying activity as the at least one sensory channel.
상기 적어도 하나의 활성 감각에 기반하여 정보를 제공하는 데 사용할 적어도 하나의 감각 채널을 결정하는 단계; 및
상기 적어도 하나의 감각 채널을 통하여 상기 이용자에게 정보를 제공하는 단계를 포함하되,
상기 이용자 상태 정보는 차량 및 이용자의 영상 정보, 차량 내부의 소리 정보, 이용자의 음성 정보, 및 이용자의 생체 신호를 포함하고,
상기 현재 수행작업은 이용자의 자율 주행 차량의 운전 행위 및 자율 주행 중에 행해지는 운전이 아닌 다른 작업(NDRT)을 포함하는 것을 특징으로 하는 정보 제공 방법.
determining at least one active sense of the user according to a current task determined based on status information of the user to be provided with information of the autonomous vehicle;
determining at least one sensory channel to use for providing information based on the at least one active sensory; and
providing information to the user through the at least one sensory channel;
The user status information includes image information of the vehicle and the user, sound information inside the vehicle, voice information of the user, and biosignals of the user,
The method for providing information, characterized in that the currently performed task includes a user's driving of the autonomous vehicle and a task other than driving (NDRT) performed during autonomous driving.
상기 현재 상태 정보에 기반하여 상기 이용자의 주의 점유 대상을 결정하는 단계
를 더 포함하고,
상기 정보를 제공하는 단계는,
상기 적어도 하나의 감각 채널 중 상기 주의 점유 대상이 제공하는 감각 채널을 통하여 상기 이용자에게 정보를 제공하는 것인, 정보 제공 방법.16. The method of claim 15,
Determining the target of the user's attention based on the current state information
further comprising,
Providing the information includes:
The method of providing information to the user through a sensory channel provided by the attention-occupying object among the at least one sensory channel.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180147304A KR102322863B1 (en) | 2018-11-26 | 2018-11-26 | Apparatus and method for providing information based on a current task of a user |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180147304A KR102322863B1 (en) | 2018-11-26 | 2018-11-26 | Apparatus and method for providing information based on a current task of a user |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200068047A KR20200068047A (en) | 2020-06-15 |
KR102322863B1 true KR102322863B1 (en) | 2021-11-10 |
Family
ID=71081544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180147304A KR102322863B1 (en) | 2018-11-26 | 2018-11-26 | Apparatus and method for providing information based on a current task of a user |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102322863B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005018655A (en) * | 2003-06-27 | 2005-01-20 | Nissan Motor Co Ltd | Driver's action estimation device |
JP2014065478A (en) | 2012-09-24 | 2014-04-17 | Hyundai Motor Company Co Ltd | Driving control right exchanging method for autonomous vehicle |
JP2017107502A (en) * | 2015-12-11 | 2017-06-15 | トヨタ自動車株式会社 | On-vehicle warning system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160036968A (en) * | 2014-09-26 | 2016-04-05 | 국민대학교산학협력단 | Integrated assessment apparatus and method of drivers' drowsiness, inattention and workload |
KR20180090644A (en) * | 2017-02-03 | 2018-08-13 | 한국전자통신연구원 | Device and mehtod for interaction between driver and vehicle |
-
2018
- 2018-11-26 KR KR1020180147304A patent/KR102322863B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005018655A (en) * | 2003-06-27 | 2005-01-20 | Nissan Motor Co Ltd | Driver's action estimation device |
JP2014065478A (en) | 2012-09-24 | 2014-04-17 | Hyundai Motor Company Co Ltd | Driving control right exchanging method for autonomous vehicle |
JP2017107502A (en) * | 2015-12-11 | 2017-06-15 | トヨタ自動車株式会社 | On-vehicle warning system |
Also Published As
Publication number | Publication date |
---|---|
KR20200068047A (en) | 2020-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11027608B2 (en) | Driving assistance apparatus and driving assistance method | |
US11738757B2 (en) | Information processing device, moving apparatus, method, and program | |
US11709488B2 (en) | Manual control re-engagement in an autonomous vehicle | |
JP7299840B2 (en) | Information processing device and information processing method | |
JP6515764B2 (en) | Dialogue device and dialogue method | |
US11820228B2 (en) | Control system and method using in-vehicle gesture input | |
JP2019021229A (en) | Vehicle control device and vehicle control method | |
US10829130B2 (en) | Automated driver assistance system | |
US11495033B2 (en) | Method and apparatus for controlling unmanned vehicle, electronic device and storage medium | |
CN109472253B (en) | Driving safety intelligent reminding method and device, intelligent steering wheel and intelligent bracelet | |
US20200410264A1 (en) | Control system using in-vehicle gesture input | |
CN114253392A (en) | Virtual conversation agent for controlling multiple in-vehicle intelligent virtual assistants | |
KR102322863B1 (en) | Apparatus and method for providing information based on a current task of a user | |
CN114760417A (en) | Image shooting method and device, electronic equipment and storage medium | |
CN110626352A (en) | Vehicle and method and device for detecting anxiety condition of driver and passenger thereof | |
KR102667424B1 (en) | Control system using gesture in vehicle | |
KR20210000465A (en) | Control system using gesture in vehicle | |
JP7501658B2 (en) | Vehicle control device, vehicle control method and program | |
CN111783550B (en) | Monitoring and adjusting method and system for emotion of driver | |
WO2019163255A1 (en) | Information processing device, information processing method, and program | |
CN117246352A (en) | Pipe connection reminding method and device and vehicle | |
JP2022111156A (en) | Vehicle control device and vehicle control method | |
CN115723772A (en) | Vehicle human-machine interface mode providing method and device | |
KR20210000462A (en) | Control system and method using gesture in vehicle | |
KR20210000463A (en) | Control system using gesture in vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |