KR102322863B1 - Apparatus and method for providing information based on a current task of a user - Google Patents

Apparatus and method for providing information based on a current task of a user Download PDF

Info

Publication number
KR102322863B1
KR102322863B1 KR1020180147304A KR20180147304A KR102322863B1 KR 102322863 B1 KR102322863 B1 KR 102322863B1 KR 1020180147304 A KR1020180147304 A KR 1020180147304A KR 20180147304 A KR20180147304 A KR 20180147304A KR 102322863 B1 KR102322863 B1 KR 102322863B1
Authority
KR
South Korea
Prior art keywords
information
driver
attention
determining
sensory
Prior art date
Application number
KR1020180147304A
Other languages
Korean (ko)
Other versions
KR20200068047A (en
Inventor
김정숙
윤대섭
김우진
김현숙
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020180147304A priority Critical patent/KR102322863B1/en
Publication of KR20200068047A publication Critical patent/KR20200068047A/en
Application granted granted Critical
Publication of KR102322863B1 publication Critical patent/KR102322863B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • G06K9/00845
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

이용자의 현재 수행작업에 기반하여 정보를 제공하는 정보 제공 장치 및 방법을 제공한다. 이용자의 적어도 하나의 활성 감각에 기반하여 정보를 제공하는 데 사용할 적어도 하나의 감각 채널을 결정한다. 이에 따라, 이용자의 반응 시간을 개선한다.An information providing apparatus and method for providing information based on a user's current performance are provided. Determine at least one sensory channel to use for providing information based on at least one active sense of the user. This improves the user's reaction time.

Description

이용자의 현재 수행작업에 기반한 정보 제공 장치 및 방법{APPARATUS AND METHOD FOR PROVIDING INFORMATION BASED ON A CURRENT TASK OF A USER}Apparatus and method for providing information based on the user's current task

본 발명은 이용자의 현재 수행작업에 기반한 정보 제공 장치 및 방법에 관한 것으로, 상세하게는 자율 주행 차량의 운전자 등의 이용자가 잘 인지할 수 있는 방식으로 정보를 제공하는 HMI(Human Machine Interface) 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for providing information based on a user's current task, and more particularly, to a Human Machine Interface (HMI) device that provides information in a way that a user such as a driver of an autonomous vehicle can recognize well; it's about how

SAE(Society of Automotive Engineers) J3016에 따르면 자율 주행 시스템(ADS: Automatic Driving System)은 운전자의 역할에 따라 완전 수동 운전인 레벨 0에서 완전 자율 주행인 레벨 5까지 5단계로 구분된다. 이 때, 운전자와 ADS가 차량의 제어를 교대로 수행하는 레벨인 레벨 2(부분적 자율 주행)와 레벨 3(조건부 자율 주행) ADS에서, 운전자와 ADS 간의 안전한 차량 제어권 전환이 중요하다. 만약 실패할 경우 사고로 이어지기 때문이다.According to Society of Automotive Engineers (SAE) J3016, Automatic Driving System (ADS) is divided into five levels, from level 0, which is fully manual driving, to level 5, which is fully autonomous driving, depending on the role of the driver. At this time, in Level 2 (Partially Autonomous Driving) and Level 3 (Conditional Autonomous Driving) ADS, which are levels where the driver and the ADS alternately control the vehicle, it is important to safely transfer control of the vehicle between the driver and the ADS. If it fails, it can lead to an accident.

자율 주행 중에 운전자는 운전이 아닌 다른 작업(NDRT: Non-Driving Related Task)을 수행할 수 있다. 이에 따라, 운전자에서 ADS로의 제어권 전환보다 ADS에서 운전이 아닌 다른 작업을 수행 중인 운전자로의 제어권 전환이 더욱 문제가 될 수 있다. 이는 운전자가 ADS로부터 발생하는 제어권 전환 요청(TOR: Take Over Request)을 인지하고 반응하는데 시간이 필요하고 운전자가 제어권을 획득한 이후에도 안정적으로 운전할 수 있을 때까지 시간이 필요하기 때문이다.During autonomous driving, drivers can perform non-driving related tasks (NDRTs). Accordingly, the transfer of control from the ADS to the driver performing a task other than driving may be more problematic than the transfer of control from the driver to the ADS. This is because it takes time for the driver to recognize and respond to a Take Over Request (TOR) from ADS, and it takes time until the driver can drive stably even after gaining control.

UNECE(the United Nations Economic Commission for Europe) ACSF(Automatically Commanded Steering Function)에서는 ADS가 운전자로 차량의 제어권을 이양하려고 할 경우, TOR 발생 이후 4초 동안 ADS는 차량의 횡방향 제어를 유지해야 한다고 권고한다. 운전자는 4초 내에 TOR을 인지하고 차량 제어를 시작해야 하지만 경우에 따라 4초는 충분하지 못할 수 있다.The United Nations Economic Commission for Europe (UNECE) Automatically Commanded Steering Function (ACSF) recommends that, when an ADS attempts to hand over control of a vehicle to the driver, the ADS must maintain lateral control of the vehicle for 4 seconds after the occurrence of the TOR. . The driver should recognize the TOR and start controlling the vehicle within 4 seconds, but in some cases 4 seconds may not be enough.

예컨대, 자율주행 중에 운전자는 음악감상, 경치감상, 대화, 먹기, 화장하기, 잠자기 등을 할 수 있는데, 이 경우 운전에 대한 민감도가 떨어져서 ADS로부터 긴급한 요청(예를 들어 TOR 등)이 발생할 경우 4초의 주어진 임계시간 내에 해당 정보를 인지하고 반응하기 어려울 수 있다. 이러한 반응 지연은 연령, 운전자가 수행 중인 NDRT의 종류, NDRT몰입도 등에 따라 다르다.For example, during autonomous driving, the driver can listen to music, enjoy the scenery, talk, eat, put on makeup, and sleep. It can be difficult to perceive and respond to that information within a given threshold of seconds. This delay in response depends on age, the type of NDRT the driver is performing, and the level of NDRT immersion.

따라서, 어떤 상황에서도 이용자에게 제어권 전환 요청과 같은 긴급하거나 중요한 정보를 효과적으로 반응 지연을 최소화하는 방식으로 제공할 수 있는 기술이 필요하다.Therefore, there is a need for a technology that can effectively provide urgent or important information, such as a request to switch control, to a user in a manner that minimizes response delay in any situation.

전술한 문제를 해결하기 위하여, 본 발명은 이용자의 현재 수행작업에 기반하여 정보를 제공하는 장치 및 방법을 제공하고자 한다.In order to solve the above-mentioned problem, the present invention is to provide an apparatus and method for providing information based on a user's current task.

또한, 본 발명은 이용자의 주의 집중도가 높은 활성 감각을 통하여 정보를 제공하는 장치 및 방법을 제공하는 것을 또 다른 목적으로 한다.Another object of the present invention is to provide an apparatus and method for providing information through an active sense with a high degree of user's attention.

본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부된 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. The above and other objects, advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.

본 발명에 따른 정보 제공 장치는, 자율 주행 차량의 운전자 상태 정보를 획득하는 인식부, 상기 운전자 상태 정보에 기반하여 운전자의 현재 수행작업을 결정하는 수행작업 결정부 및 상기 현재 수행작업에 기반하여 적어도 하나의 감각 채널을 결정하고 상기 적어도 하나의 감각 채널을 통해 상기 운전자에게 상기 자율 주행 관련 정보를 제공하는 정보 제공부를 포함한다.The information providing apparatus according to the present invention includes a recognition unit that acquires driver state information of an autonomous vehicle, a task determiner that determines a current task of a driver based on the driver state information, and at least a and an information providing unit that determines one sensory channel and provides the autonomous driving-related information to the driver through the at least one sensory channel.

본 발명에 따른 정보 제공 방법은 자율 주행 차량의 운전자 상태 정보에 기반하여 운전자의 현재 수행작업을 결정하는 단계, 상기 현재 수행작업에 따라 상기 운전자의 적어도 하나의 활성 감각을 결정하는 단계 및 상기 적어도 하나의 활성 감각에 기반하여 자율 주행 관련 정보를 제공할 적어도 하나의 감각 채널을 결정하는 단계를 포함한다.The information providing method according to the present invention comprises the steps of determining a current performance task of a driver based on driver state information of an autonomous vehicle, determining at least one active sense of the driver according to the current performance task, and the at least one and determining at least one sensory channel to provide autonomous driving-related information based on the active sense of the .

또한, 본 발명에 따라 정보를 제공받을 이용자의 현재 수행작업에 따라 상기 이용자의 적어도 하나의 활성 감각을 결정하는 단계, 상기 적어도 하나의 활성 감각에 기반하여 정보를 제공하는 데 사용할 적어도 하나의 감각 채널을 결정하는 단계; 및 상기 적어도 하나의 감각 채널을 통하여 상기 이용자에게 정보를 제공하는 단계를 포함하는 정보 제공 방법을 제공한다.In addition, according to the present invention, determining at least one active sense of the user according to the current performing task of the user to be provided with information according to the present invention, at least one sensory channel to be used for providing information based on the at least one active sense determining; and providing information to the user through the at least one sensory channel.

본 발명에 의하면, 정보 이용자의 현재 수행작업에 따라 활성화된 감각을 통하여 정보를 제공할 수 있다.According to the present invention, information can be provided through the senses activated according to the currently performed task of the information user.

또한, 현재 이용자의 주의 점유 대상을 판별하여 이를 통해 정보를 효과적으로 신속하게 제공할 수 있다.In addition, it is possible to provide information quickly and effectively by determining the target of the current user's attention.

종국적으로 본 발명은 이용자의 반응 지연을 감소 또는 최소화하여 정보를 전달할 수 있는 정보 제공 장치 및 방법을 제공한다.Finally, the present invention provides an information providing apparatus and method capable of delivering information by reducing or minimizing a user's response delay.

도 1은 본 발명의 일 실시예에 따른 정보 제공 인터페이스 시스템(100)의 구성도를 도시한다.
도 2는 본 발명의 일 실시예에 따른 정보 제공 장치(120)를 도시한 블록도이다.
도 3은 본 발명의 일 예에 따른 수행작업 결정 과정을 도시한 순서도이다.
도 4는 본 발명의 일 예에 따른 감각 채널 결정 과정을 도시한 순서도이다.
도 5는 본 발명의 일 예에 따른 활성 감각 모델을 보여주는 도표이다.
도 6은 본 발명의 일 실시예에 따른 정보 제공 방법을 도시한 순서도이다.
1 shows a configuration diagram of an information providing interface system 100 according to an embodiment of the present invention.
2 is a block diagram illustrating an information providing apparatus 120 according to an embodiment of the present invention.
3 is a flowchart illustrating a process for determining an operation to be performed according to an embodiment of the present invention.
4 is a flowchart illustrating a process of determining a sensory channel according to an embodiment of the present invention.
5 is a diagram showing an active sensory model according to an embodiment of the present invention.
6 is a flowchart illustrating an information providing method according to an embodiment of the present invention.

이하, 첨부 도면을 참조하며 바람직한 각 실시예를 통해 본 발명의 구성에 대하여 상세히 설명하되, 이해의 증진과 설명의 편의를 위하여 본 발명의 착상에 대하여 개략적으로 먼저 설명한다. Hereinafter, the configuration of the present invention will be described in detail through preferred embodiments with reference to the accompanying drawings, but the idea of the present invention will be schematically described first for the purpose of enhancing understanding and convenience of explanation.

인간이 특정 작업에 주의를 기울이고 몰입하게 되면 해당 작업을 수행하는데 필요한 감각 기관의 민감도는 높아지는 반면 사용하지 않는(비활성화된) 감각 기관의 민감도는 떨어지는 특성을 보인다. 예컨대, 집중해서 책을 읽는 사람에게 이야기 할 경우 이야기 내용을 잘 인지 하지 못하는 경우가 예이다. 집중하여 독서를 하는 경우의 인간은 시각이 활성화 되는 한편 그 외의 청각이나 촉각, 후각은 상대적으로 비활성화된다. 한편, 인간의 주의력은 주변의 여러 대상들 중에 현재 사용하고 있거나 사용과 연관된 대상에 집중되는 경향이 크다.When humans pay attention to and immerse themselves in a specific task, the sensitivity of the sensory organs necessary to perform the task increases, while the sensitivity of the sensory organs that are not used (inactivated) decreases. For example, if you are talking to someone who is reading a book with concentration, you may not be able to recognize the content of the story well. In the case of concentrated reading, sight is activated, while other senses of hearing, touch, and smell are relatively inactive. On the other hand, human attention tends to be concentrated on the object currently being used or related to the use of the surrounding objects.

따라서 정보의 전달은 현재 수행작업에 따라, 그 상황 또는 순간에, 활성화된 감각에 대응하는 감각 채널을 통해 주의를 점유하는 대상을 이용하여 수행되는 것이 효과적이다.Therefore, it is effective to transmit information according to the current task, the situation or the moment, using the object occupying the attention through the sensory channel corresponding to the activated sense.

결과적으로, 현재 수행작업에 대한 활성화된 감각, 주의 집중도가 높은 감각 채널 및/또는 주의 점유 대상을 결정하면, 이를 통하여 정보를 제공할 수 있고 따라서 인간이 어떠한 수행작업을 하더라도, 즉 어떠한 동작 또는 행위를 하거나 상태에 있더라도 효과적으로 정보를 전달할 수 있다. 이에 따라 정보 제공에 대응하는 이용자의 반응 지연이 최소화될 수 있다.As a result, determining the active sensory, high-attention-focused sensory channel and/or attention-occupying object for the current performance task can provide information through this, so that no matter what performance the human being performs, i.e., any action or action. It can effectively convey information even when it is in a state or in a state. Accordingly, a delay in a user's response to information provision can be minimized.

본 발명이 구현되는 양상을 이하의 바람직한 각 실시예를 들어 설명한다. 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 본 발명의 기술적 사상의 범주 내에서 그 외의 다른 다양한 형태로 구현될 수 있음은 자명하다. 본 명세서에서 사용된 용어 역시 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 요소가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 요소의 존재 또는 추가됨을 배제하지 않는다.The aspect in which the present invention is implemented will be described with reference to each preferred embodiment below. It is obvious that the present invention is not limited to the embodiments disclosed below, but may be implemented in other various forms within the scope of the technical spirit of the present invention. The terminology used herein is also for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprise” and/or “comprising” means that the stated component, step, action and/or element is the presence of one or more other components, steps, actions and/or elements. or added.

도 1은 본 발명의 일 실시예에 따른 정보 제공 인터페이스 시스템(100)의 구성도를 보여준다.1 shows a configuration diagram of an information providing interface system 100 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 정보 제공 장치(120)는 이용자(110)의 상태 정보를 인식하고, 인식된 이용자(110)의 상태 정보에 따라 이용자(110)의 현재 수행작업을 결정하고, 현재 수행작업을 분석한 결과에 따라 이용자(110)에게 정보를 전달하기에 적합한 방식을 결정하고, 해당 방식을 이용하여 이용자(110)에게 전달이 필요한 정보를 제공한다. 일 예에서, 이용자에게(110)에게 정보를 전달하기에 적합한 방식을 결정하는 것은, 정보를 전달하는 데 사용할 디바이스(130) 및 정보를 전달하는 데 사용할 감각 채널 중 적어도 하나를 결정하는 것에 대응할 수 있다.The information providing apparatus 120 according to an embodiment of the present invention recognizes the status information of the user 110, determines the current operation of the user 110 according to the recognized status information of the user 110, and A method suitable for delivering information to the user 110 is determined according to the result of analyzing the performed task, and information required to be delivered is provided to the user 110 using the method. In one example, determining a suitable manner to convey information to the user 110 may correspond to determining at least one of a device 130 to use to convey the information and a sensory channel to use to convey the information. have.

구체적으로 살펴보면, 본 발명의 일 실시예에 따른 정보 제공 장치(120)는 이용자(110)의 상태를 인식하고, 이용자(110)의 현재 수행작업에 기초하여 이용자(110)에게 적합한 방식으로 이용자(110)에게 전달이 필요한 정보를 제공한다.Specifically, the information providing apparatus 120 according to an embodiment of the present invention recognizes the state of the user 110, and based on the user 110's currently performed task, the user (110) in a manner suitable for the user (110). 110) to provide information that needs to be transmitted.

예를 들어, 이용자(110)가 휴대형 단말기(130)를 이용하여 전자책 읽기 작업을 수행 중인 경우, 정보 제공 장치(110)는 이용자(110)의 주의를 점유하고 있는 대상인 휴대형 단말기(130)를 이용하여 전달이 필요한 정보를 제공할 수 있다. 즉, 정보 제공 장치(120)는 휴대형 단말기(130)의 화면에 팝업을 띄워서 전달이 필요한 정보를 시각적으로 제공할 수 있다. 일 예에서, 정보 제공 장치(110)는 휴대형 단말기(130)의 스피커를 이용하여 전달이 필요한 정보를 청각적으로 제공할 수 있다.For example, when the user 110 is performing an e-book reading operation using the portable terminal 130 , the information providing device 110 selects the portable terminal 130 , which is a target that occupies the attention of the user 110 . It can be used to provide information that needs to be transmitted. That is, the information providing device 120 may display a pop-up on the screen of the portable terminal 130 to visually provide information that needs to be delivered. In one example, the information providing apparatus 110 may provide information that needs to be transmitted aurally using a speaker of the portable terminal 130 .

일 예에서, 이용자(110)는 자율 주행 차량의 운전자 또는 탑승자일 수 있다.In one example, user 110 may be a driver or occupant of an autonomous vehicle.

정보 제공 장치(120)는 이용자(110)가 인지할 필요가 있는 정보를 이용자(110)에게 제공할 수 있으며, 일 예로서, 정보 제공 장치(120)는 자율 주행 차량의 운전자(110)에게 자율 주행 관련 정보를 제공할 수 있다. 여기서 자율 주행 관련 정보는 제어권 전환 요청(TOR)을 포함할 수 있다.The information providing device 120 may provide the user 110 with information that the user 110 needs to recognize. As an example, the information providing device 120 autonomously gives the driver 110 of the autonomous vehicle. It can provide driving-related information. Here, the autonomous driving-related information may include a control right switching request (TOR).

일 예에서, 정보 제공 장치(120)는 자율 주행 차량으로부터 운전자(110)에게 자율 주행 관련 정보를 전달하는 HMI 장치를 포함한다.In one example, the information providing device 120 includes an HMI device that transmits autonomous driving-related information from the autonomous driving vehicle to the driver 110 .

정보를 전달하는 데 사용할 디바이스(130)는 이용자(110)에게 시각, 청각, 후각 및 촉각을 포함한 감각 자극을 전달할 수 있는 디바이스를 포함하며, 예컨대 차량 장착형 디바이스 또는 휴대형 디바이스일 수 있다.The device 130 to be used to transmit information includes a device capable of transmitting sensory stimuli, including visual, auditory, olfactory, and tactile, to the user 110 , and may be, for example, a vehicle-mounted device or a portable device.

이하에서, 도 2를 참조하여 자율 주행 차량의 운전자에게 자율 주행 관련 정보를 제공하는 측면에 주안점을 두어, 정보 제공 장치(120)의 예시적인 상세 구성에 대하여 설명한다.Hereinafter, an exemplary detailed configuration of the information providing apparatus 120 will be described with emphasis on the aspect of providing autonomous driving-related information to the driver of the autonomous driving vehicle with reference to FIG. 2 .

도 2는 본 발명의 일 실시예에 따른 정보 제공 장치(120)를 도시한 블록도이다.2 is a block diagram illustrating an information providing apparatus 120 according to an embodiment of the present invention.

정보 제공 장치(120)는 인식부(210)를 포함한다.The information providing apparatus 120 includes a recognition unit 210 .

인식부(210)는 도 3을 참조하여 운전자(110)의 현재 상태 정보를 수집하여 운전자(110)의 상태를 인식(310)한다.The recognition unit 210 recognizes ( 310 ) the state of the driver 110 by collecting current state information of the driver 110 with reference to FIG. 3 .

운전자(110)의 현재 상태 정보는 영상, 음성, 및 생체 신호를 포함할 수 있다. 예를 들어, 현재 상태 정보는 차량 및 운전자(110)의 영상 정보, 차량 내부의 소리 정보, 운전자(110)의 음성 정보, 및 운전자(110)의 생체 신호를 포함할 수 있다.The current state information of the driver 110 may include an image, an audio, and a biosignal. For example, the current state information may include image information of the vehicle and the driver 110 , sound information inside the vehicle, voice information of the driver 110 , and biosignals of the driver 110 .

인식부(210)는 생체 신호 수집부, 휴대형 장치 정보 수집부, 차량 장치 정보 수집부, 영상 수집부 및 음성 수집부를 포함할 수 있다. 예를 들어, 인식부(210)는 운전자가 휴대하거나 위치를 옮겨서 사용할 수 있는 스마트폰, 스마트워치, 노트북 등의 휴대형 HMI(Human Machine Interface) 장치와 차량 센터페시아에 장착된 오디오비디오시스템, 전방 윈드쉴드 글라스에 설치된 HUD(Head Up Display) 장치 등의 차량 장착 HMI 장치, 차량에 장착되어 운전자(110) 영상을 수집하는 영상 센서, 및 운전자(110)의 생체 신호를 수집하는 생체 센서를 포함할 수 있다. 영상 센서는 일반적인 정보 수집을 위한 가시광선 영역의 영상 센서와 시선 검출을 위한 적외선 영상 센서 중 적어도 하나가 될 수 있고, 생체 센서는 ECG, EEG, PPG, GSR, 및 호흡률 센서 등을 포함하며, 음성 수집부는 음성 센서가 될 수 있는데, 이에 한정되지 않고 현재 또는 미래의 동일 또는 유사한 기능을 수행하는 제반 장치를 포함함은 물론이다.The recognition unit 210 may include a biosignal collecting unit, a portable device information collecting unit, a vehicle device information collecting unit, an image collecting unit, and a voice collecting unit. For example, the recognition unit 210 may include a portable human machine interface (HMI) device such as a smartphone, smart watch, or laptop that the driver can carry or move and use, an audio video system mounted on the vehicle center fascia, and a front windshield. It may include a vehicle-mounted HMI device such as a HUD (Head Up Display) device installed on the shield glass, an image sensor mounted on the vehicle to collect an image of the driver 110 , and a biometric sensor that collects a biosignal of the driver 110 . have. The image sensor may be at least one of a visible light region image sensor for general information collection and an infrared image sensor for gaze detection, and the biometric sensor includes ECG, EEG, PPG, GSR, and respiratory rate sensors, and voice The collection unit may be a voice sensor, but is not limited thereto, and of course includes various devices that perform the same or similar function in the present or future.

인식부(210)는 생체 신호 수집부에서 수집한 생체 신호를 분석하여 운전자(110)의 생리적 부하를 분석하는 생리 부하 분석부, 영상 수집부에서 수집한 영상을 분석하고, 수집된 영상에서 운전자(110)의 머리 위치, 머리 방향, 시선, 입모양, 손의 위치, 팔의 위치, 몸통 위치, 발 위치 등을 인식하는 운전자 신체 인식부, 수집된 영상에서 운전자(110)의 휴대형 장치를 검출하는 것과 같은 운전자(110)의 베타 정보를 인식하는 베타 정보 인식부, 영상 수집부에서 수집한 영상에서 운전자(110)의 시선을 검출하고 시선 방향과 위치 등의 정보를 이용하여 시선을 점유하는 목표 지점을 인식하는 시선 인식부, 휴대형 HMI 장치로부터 수행 중인 작업 정보를 수집하는 휴대형 장치 정보 수집부, 및 차량 장착 HMI 장치로부터 수행 중인 작업 정보를 수집하는 차량 장치 정보 수집부를 포함한다.The recognition unit 210 analyzes the physiological load analyzer that analyzes the physiological load of the driver 110 by analyzing the biological signal collected by the biological signal collection unit, analyzes the image collected by the image collection unit, and analyzes the image collected by the driver ( 110) the driver's body recognition unit for recognizing the head position, head direction, gaze, mouth shape, hand position, arm position, trunk position, foot position, etc., to detect the portable device of the driver 110 from the collected images A target point that detects the gaze of the driver 110 from the image collected by the beta information recognition unit and the image collection unit that recognizes the beta information of the driver 110 and occupies the gaze using information such as the gaze direction and location. It includes a gaze recognition unit for recognizing , a portable device information collection unit for collecting work information being performed from the portable HMI device, and a vehicle device information collecting unit for collecting work information being performed from the vehicle-mounted HMI device.

정보 제공 장치(120)는 수행작업 결정부(220)를 포함한다. 수행작업 결정부(220)는 인식부(210)에서 인식한 운전자(110)의 현재 상태 정보에 기반하여 운전자(110)의 현재 수행작업을 결정한다.The information providing device 120 includes a task determination unit 220 . The performing task determining unit 220 determines the current performing task of the driver 110 based on the current state information of the driver 110 recognized by the recognition unit 210 .

현재 수행작업은 운전자(110)의 현재 동작, 행위, 상태를 총칭하는 의미이다. 예를 들어, 현재 수행작업은 자율 주행 차량의 운전자(110)의 운전 행위일 수 있거나, 또는 자율 주행 중에 수행 중인 운전이 아닌 다른 작업(NDRT), 예컨대 음악 감상, 영화 보기, 경치 감상, 게임 하기, 대화, 영상 통화, 읽기, 쓰기, 스마트 폰 하기, 먹기, 마시기, 화장 하기, 옷 입기, 청소 하기, 씻기, 잠자기, 아무 것도 안하기 등을 포함한다. 즉, 수행작업은 어떤 의도된 동작이나 행위만이 아니라 인간의 현재 그대로의 상태(아무 것도 안하는 상태를 포함)나 무의식적인 행동, 반사적 동작 등을 모두 아우른다. The currently performed task is a generic term for the current operation, behavior, and state of the driver 110 . For example, the currently performed task may be a driving action of the driver 110 of the autonomous vehicle, or a task other than driving (NDRT) being performed during autonomous driving, such as listening to music, watching a movie, watching a scene, or playing a game. , talking, video calling, reading, writing, using a smartphone, eating, drinking, putting on makeup, dressing, cleaning, washing, sleeping, doing nothing. In other words, the performance task encompasses not only a certain intentional action or action, but also a person's present state (including the state of doing nothing), unconscious action, and reflex action.

수행작업 결정부(220)가 운전자(110)의 현재 수행작업을 결정하는 과정은 도 3을 참조하여 보다 상세하게 서술한다.A process in which the to-be-executed task determining unit 220 determines the current performing task of the driver 110 will be described in more detail with reference to FIG. 3 .

정보 제공장치(120)는 정보 제공부(230)를 포함한다.The information providing device 120 includes an information providing unit 230 .

정보 제공부(230)는 수행작업 결정부(220)에서 결정한 현재 수행작업에 기반하여 운전자(110)에게 자율 주행 관련 정보 등의 정보를 제공한다. 여기서, 정보 제공부(230)는 수행작업 결정부(220)에서 결정한 현재 수행작업에 기반하여 적어도 하나의 감각 채널을 결정하고, 결정한 적어도 하나의 감각 채널을 통해 운전자(110)에게 정보를 제공한다.The information providing unit 230 provides information such as autonomous driving related information to the driver 110 based on the current performed task determined by the performing task determining unit 220 . Here, the information providing unit 230 determines at least one sensory channel based on the currently performed task determined by the performing task determining unit 220 , and provides information to the driver 110 through the determined at least one sensory channel. .

정보 제공부(230)는 활성 감각 결정부(232)를 포함한다.The information providing unit 230 includes an active sensory determining unit 232 .

활성 감각 결정부(232)는 수행작업 결정부(220)에서 결정한 현재 수행작업을 분석하여 운전자(110)의 적어도 하나의 활성 감각을 결정한다.The active sensory determination unit 232 determines at least one active sense of the driver 110 by analyzing the current performed task determined by the performing task determining unit 220 .

활성 감각은 운전자(110)가 현재 수행작업을 수행하는 데에 사용하는 감각 또는 운전자(110)가 현재 수행작업을 수행하는 동안에 활성화되는 감각에 대응할 수 있다. 예를 들어, 활성 감각은 시각, 청각, 신체(촉각), 및 인지력 등을 포함할 수 있다.The active sense may correspond to a sense used by the driver 110 to perform a currently performed task or a sense activated while the driver 110 is currently performing a task. For example, active senses may include sight, hearing, bodily (tactile), cognition, and the like.

활성 감각 결정부(232)는 각 활성 감각에 대하여 활성화된 감각의 민감도 또는 활성도를 결정할 수 있다. The active sensory determining unit 232 may determine the sensitivity or activity of the activated sense for each active sense.

일 예에서, 도 1을 참조하여 자율 주행 차량의 운전자(110)가 휴대형 단말기(130)로 전자책을 읽고 있는 경우, 운전자(110)의 감각 중 시각이 활성화되어 시각의 활성도는 높은 반면에, 읽기에 사용하지 않는 청각은 비활성화되어 청각의 활성도는 상대적으로 낮다. 이 경우, 수행작업 결정부(220)는 운전자(110)의 수행작업을 읽기로 결정하고, 활성 감각 결정부(232)는 시각의 활성도는 높음으로, 청각의 활성도는 낮음으로 결정할 수 있다.In one example, referring to FIG. 1 , when the driver 110 of the autonomous vehicle is reading an e-book with the portable terminal 130, the senses of the driver 110 are activated, so that the visual activity is high, Hearing not used for reading is inactivated, so the activity of hearing is relatively low. In this case, the performance determination unit 220 may determine to read the operation performed by the driver 110 , and the active sensory determination unit 232 may determine that the visual activity is high and the auditory activity is low.

정보 제공부(230)는 감각 채널 결정부(234)를 포함한다. 감각 채널 결정부(234)는 활성 감각 결정부(232)에서 결정한 적어도 하나의 활성 감각에 기반하여 운전자(110)에게 정보를 제공할 적어도 하나의 감각 채널을 결정한다.The information providing unit 230 includes a sensory channel determining unit 234 . The sensory channel determiner 234 determines at least one sensory channel to provide information to the driver 110 based on the at least one active sense determined by the active sensory determiner 232 .

적어도 하나의 감각 채널은 운전자(110)에게 정보를 제공하는 데 사용할 감각에 대응한다. 일 예에서, 적어도 하나의 감각 채널은 활성 감각 결정부(232)가 결정한 적어도 하나의 활성 감각에 대응할 수 있다. 예를 들어, 감각 채널은 시각, 청각, 신체(촉각), 및 인지 채널 등을 포함할 수 있다.At least one sensory channel corresponds to a sensation to use to provide information to the driver 110 . In one example, the at least one sensory channel may correspond to the at least one active sensation determined by the active sensory determiner 232 . For example, sensory channels may include visual, auditory, bodily (tactile), and cognitive channels, and the like.

정보 제공부(230)는 주의 점유 결정부(236)를 포함한다.The information providing unit 230 includes an attention occupancy determining unit 236 .

주의 점유 결정부(236)는 인식부(210)에서 인식한 운전자 상태 정보에 기반하여 운전자(110)의 주의를 점유하고 있는 대상을 결정한다. 예를 들어, 주의 점유 결정부(236)는 운전자 상태 정보에 기초하여, 도 1을 참조하여, 휴대형 단말기(130)를 자율 주행 차량의 운전자(110)의 주의를 점유하고 있는 대상으로 결정할 수 있다.The attention occupancy determining unit 236 determines an object occupying the driver's attention based on the driver state information recognized by the recognition unit 210 . For example, the attention occupation determination unit 236 may determine the portable terminal 130 as an object occupying the attention of the driver 110 of the autonomous driving vehicle with reference to FIG. 1 based on the driver state information. .

일 예에 따른, 정보 제공부(230)의 상세한 동작 과정은 도 4를 참조하여 이하에서 살펴본다.A detailed operation process of the information providing unit 230 according to an example will be described below with reference to FIG. 4 .

도 3은 본 발명의 일 예에 따른 수행작업 결정 과정을 도시한 순서도이다.3 is a flowchart illustrating a process for determining an operation to be performed according to an embodiment of the present invention.

단계(310)에서, 도 2를 참조하여 인식부(210)는 운전자(110)의 상태 정보를 인식한다.In step 310 , the recognition unit 210 recognizes state information of the driver 110 with reference to FIG. 2 .

단계(320)에서, 도 2를 참조하여 수행작업 결정부(220)는 운전자(110)의 상태 정보를 분석하여 운전자(110)의 예상 수행작업을 결정한다.In step 320 , with reference to FIG. 2 , the task determining unit 220 analyzes the state information of the driver 110 to determine the expected task of the driver 110 .

단계(320)에서 수행작업 결정부(220)는, 도 2를 참조하여 수행작업 모델(222)에 기반하여 운전자 상태 정보를 분석하여 운전자(110)의 예상 수행작업을 결정한다. 일 예에서, 수행작업 모델(222)은 사전설정된 모델일 수 있다. 일 예에서, 수행작업 모델(222)은 학습에 의하여 구축될 수 있다.In step 320 , the to-be-executed task determining unit 220 determines the expected task of the driver 110 by analyzing driver state information based on the performing task model 222 with reference to FIG. 2 . In one example, the to-do model 222 may be a preset model. In one example, the performance model 222 may be built by learning.

수행작업 모델(222)은 운전자(110)가 특정 작업을 수행하는 경우의 운전자(110)의 상태 정보를 분석하여 구축한 모델이다. 예를 들어, 수행작업 모델(222)은 휴대형 HMI 장치 활성화 정보, 차량 장착 HMI 장치 활성화 정보, 운전자 시선 방향, 시선 위치, 운전자 머리 위치, 머리 방향, 입 모양, 손의 위치, 팔의 위치, 몸통 위치, 발 위치, 및 운전자 생리 부하 등을 관찰하고, 이와 같은 정보를 수행작업 별로 분류하여 구축한 모델에 대응할 수 있다. 예를 들어, 수행작업 모델(222)은 먹기 수행작업을 입 모양이 반복적으로 열리거나 닫히는 상태, 손의 위치가 반복적으로 입 주변으로 이동하는 상태, 및 머리의 위치가 반복적으로 상하로 움직이는 상태로 정의할 수 있다.The performing task model 222 is a model constructed by analyzing state information of the driver 110 when the driver 110 performs a specific task. For example, the to-do model 222 may include portable HMI device activation information, vehicle-mounted HMI device activation information, driver's gaze direction, gaze position, driver's head position, head direction, mouth shape, hand position, arm position, and torso. It is possible to observe the position, the position of the foot, and the driver's physiological load, and to respond to the model constructed by classifying such information by task. For example, the performing task model 222 performs the eating task in a state in which the mouth shape is repeatedly opened or closed, the position of the hand is repeatedly moved around the mouth, and the position of the head is repeatedly moved up and down. can be defined

수행작업 결정부(220)는 인식부(210)에서 인식한 운전자 상태 정보를 분석한 결과를 수행작업 모델(222)의 수행작업별 상태 정보와 비교하여, 매칭되는 수행작업을 운전자(110)의 예상 수행작업으로 결정한다.The task determining unit 220 compares the result of analyzing the driver state information recognized by the recognition unit 210 with the state information for each task of the performing task model 222 to determine the matching task of the driver 110 . Decide on the expected work to be performed.

예를 들어, 인식부(210)에서 인식한 운전자 상태 정보가 입 모양이 반복적으로 열리거나 닫히는 상태, 손의 위치가 반복적으로 입 주변으로 이동하는 상태, 및 머리의 위치가 반복적으로 상하로 움직이는 상태를 포함하는 경우에, 수행작업 결정부(220)는 운전자(110)의 예상 수행작업을 먹기 수행작업으로 결정할 수 있다. 다른 예로, 인식부(210)에서 인식한 운전자 상태 정보가 운전자(110)의 머리 위치는 변화가 적은 상태, 운전자(110)의 시선 방향은 스마트 폰을 향하는 상태, 및 손의 위치가 스마트 폰 주위에 위치하는 상태를 포함하는 경우에, 수행작업 결정부(220)는 운전자(110)의 예상 수행작업을 스마트 폰 사용하기로 결정할 수 있다. 또 다른 예로, 운전자(110)의 시선을 검출할 수 없는 상태, 신체의 움직임이 적은 상태 및 생리 신호 부하가 특히 낮은 상태인 경우에, 수행작업 결정부(220)는 잠자기를 운전자의 예상 수행작업으로 결정할 수 있다.For example, the driver state information recognized by the recognition unit 210 indicates that the shape of the mouth is repeatedly opened or closed, the position of the hand is repeatedly moved around the mouth, and the position of the head is repeatedly moved up and down. In the case of including, the performing task determining unit 220 may determine the expected performing task of the driver 110 as the eating performing task. As another example, in the driver state information recognized by the recognition unit 210 , the driver 110's head position has little change, the driver 110's gaze direction is toward the smart phone, and the hand position is around the smart phone. In the case of including a state located in , the to-be-performed task determining unit 220 may determine to use the smart phone for the expected performing task of the driver 110 . As another example, when the driver 110's gaze cannot be detected, the body movement is low, and the physiological signal load is particularly low, the to-be-executed task determining unit 220 sets the driver's expected task to sleep. can be decided with

단계(330)에서 수행작업 결정부(220)는 N개의 예상 수행작업을 결정할 때까지 단계(310) 및 단계(320)을 반복한다. 일 예에서, N은 0보다 큰 정수일 수 있다. 예를 들어, N은 사전결정된 값일 수 있다. 일 예에서, N은 학습에 의하여 결정될 수 있다.In step 330 , the task determining unit 220 repeats steps 310 and 320 until N predicted tasks are determined. In one example, N may be an integer greater than zero. For example, N may be a predetermined value. In one example, N may be determined by learning.

단계(330)에서 N개의 예상 수행작업은 큐에 저장된다. 수행작업 결정부(220)는 N개의 예상 수행작업을 큐에 순서대로 저장할 수 있고, 큐에 더 이상 예상 수행작업을 저장할 공간이 없는 경우, 가장 오래된 예상 수행작업을 지우고 새로운 예상 수행작업을 저장한다. 예를 들어, 큐는 원형 큐일 수 있다.In step 330, N predicted tasks are stored in a queue. The to-be-performed task determining unit 220 may store N expected to be performed in order in the queue, and when there is no more space to store the expected to be performed in the queue, it deletes the oldest expected to be performed and stores a new expected to be performed. . For example, the queue may be a circular queue.

단계(340)에서 수행작업 결정부(220)는 단계(330)에서 결정된 N개의 예상 수행작업 각각에 대하여 각 수행작업i가 운전자(110)의 현재 수행작업일 확률 Pi을 계산한다(i는 N보다 작거나 같은 정수). 확률 Pi는 최근 N개의 예상 수행작업에 대하여 수행작업i가 예상수행작업으로 결정된 비율에 대응할 수 있다. 수행작업 결정에 있어서, 예상 수행작업을 N번 결정한 결과를 활용하므로, 순간적으로 잘못 판단하는 경우를 필터링할 수 있고, 현재 수행작업의 결정에 대한 정확도를 높일 수 있다.In step 340 , the to-be-performed task determining unit 220 calculates a probability P i that each to-be-performed task i is the currently performed task of the driver 110 with respect to each of the N predicted tasks determined in step 330 (i is integer less than or equal to N). The probability P i may correspond to a ratio in which the to-be- performed task i is determined as the expected to-be-performed task with respect to the recent N predicted tasks. In determining the task to be performed, since the result of determining the expected task N times is used, it is possible to filter out cases of momentary erroneous judgment and to increase the accuracy of the determination of the current task.

단계(350)에서 수행작업 결정부(220)는 단계(340)에서 결정한 확률 Pi가 임계값 PThreshold 이상이면, 단계(360)에서 운전자(110)가 현재 수행작업i를 수행하고 있다고 결정한다. 일 예에서, 단계(360)에서 수행작업 결정부(220)는 적어도 하나의 현재 수행작업을 결정한다. 일 예에서, 수행작업 결정부(220)는 단계(340)에서 결정한 확률 Pi가 PThreshold보다 작으면, 단계(370)에서 운전자(110)가 현재 수행작업i를 수행하지 않는다고 결정할 수 있다. 일 예에서, PThreshold는 사전결정된 값일 수 있다. 일 예에서, N은 학습에 의하여 결정될 수 있다.In step 350, if the probability P i determined in step 340 is equal to or greater than the threshold P Threshold , in step 360, the driver 110 determines that the currently performed task i is being performed. . In one example, in step 360 , the to-be-performed task determining unit 220 determines at least one currently performed task. In one example, if the probability P i determined in step 340 is less than P Threshold , the to-be-performed task determining unit 220 may determine that the driver 110 does not currently perform the to-be- performed task i in step 370 . In one example, P Threshold may be a predetermined value. In one example, N may be determined by learning.

도 4는 본 발명의 일 예에 따른 감각 채널 결정 과정을 도시한 순서도이다.4 is a flowchart illustrating a process of determining a sensory channel according to an embodiment of the present invention.

단계(410)에서, 도 2를 참조하여 활성 감각 결정부(232)는, 단계(360)에서 수행작업 결정부(220)가 결정한 현재 수행작업에 기반하여 운전자(110)의 적어도 하나의 활성 감각을 결정한다. 활성 감각 결정부(232)는 단계(410)에서, 현재 수행작업을 분석하여 해당 수행작업의 수행에 사용하는 적어도 하나의 감각을 현재 수행작업에 대한 적어도 하나의 활성 감각으로 결정한다.In step 410 , with reference to FIG. 2 , the active sensory determining unit 232 , based on the current performing task determined by the performing task determining unit 220 in step 360 , at least one active sense of the driver 110 . to decide In step 410 , the active sensory determination unit 232 determines at least one sense used for performing the currently performed task as at least one active sense for the currently performed task by analyzing the currently performed task.

단계(420)에서 활성 감각 결정부(232)는 사전설정된 활성 감각 모델에 기반하여 상기 현재 수행작업을 분석하여, 단계(410)에서 결정한 적어도 하나의 활성 감각의 활성도를 결정한다. 일 예에서, 활성 감각 모델(238)은 사전설정된 모델일 수 있다. 일 예에서, 활성 감각 모델(238)은 학습에 의하여 구축될 수 있다.In step 420 , the active sensory determining unit 232 analyzes the currently performed task based on a preset active sensory model, and determines the activity of at least one active sensory determined in step 410 . In one example, the active sensory model 238 may be a preset model. In one example, the active sensory model 238 may be built by learning.

이하에서 도 5를 참조하여 활성 감각 모델(238)에 대하여 살펴본다.Hereinafter, the active sensory model 238 will be described with reference to FIG. 5 .

도 5는 예시적인 활성 감각 모델(238)을 보여준다. 활성 감각 모델(238)은 수행작업의 목록을 포함한다. 활성 감각 모델(238)은 각 수행작업 별로 해당 수행작업의 수행에 사용하는 적어도 하나의 활성 감각에 대한 정보를 포함한다. 일 예에서, 활성 감각은 시각, 청각, 신체(촉각) 감각, 및 인지력 등을 포함할 수 있다.5 shows an exemplary active sensory model 238 . Active sensory model 238 includes a list of tasks to be performed. The active sensory model 238 includes information on at least one active sense used to perform a corresponding performance task for each performance task. In one example, the active senses may include sight, hearing, bodily (tactile) sense, and cognition.

도 5를 참조하여 활성 감각 모델(238)은 각 활성 감각의 활성도에 대한 정보를 포함한다. 활성 감각 모델(238)은 각 활성 감각의 활성도를 단계별로 구분하거나 또는 다양한 방법으로 수치화하여 제공한다. 예를 들어, 도 5의 활성 감각 모델(238)은 수행 작업의 종류에 따라 각 활성 감각의 활성도를 매우 낮음, 낮음, 중간 및 높음의 4단계로 구분하고 있다. 도 5의 활성 감각 모델(238)에 따르면, 음악 감상을 수행하는 경우, 시각 및 인지력의 활성도는 낮음, 청각의 활성도는 중간, 그리고 신체 감각의 활성도는 매우 낮음으로 예시하고 있다. 일 예에서, 활성 감각 모델(238)의 각 활성 감각의 활성도는 사전결정된 값일 수 있다. 일 예에서, 활성 감각 모델(238)의 각 활성 감각의 활성도는 학습에 의하여 결정될 수 있다.Referring to FIG. 5 , the active sensory model 238 includes information on the activity level of each active sensory. The active sensory model 238 classifies the activity levels of each active sensory step by step or quantifies them in various ways and provides them. For example, the active sensory model 238 of FIG. 5 divides the activity of each active sense into four levels of very low, low, medium, and high according to the type of task to be performed. According to the active sensory model 238 of FIG. 5 , when music appreciation is performed, visual and cognitive activity are low, auditory activity is medium, and body sensory activity is very low. In one example, the activity of each active sensory of the active sensory model 238 may be a predetermined value. In one example, the activity of each active sense of the active sensory model 238 may be determined by learning.

다시 도 4로 돌아와서, 단계(430)에서, 도 2를 참조하여 감각 채널 결정부(234)는, 단계(420)에서 활성 감각 결정부(232)가 결정한 적어도 하나의 활성 감각의 활성도에 기반하여, 해당 적어도 하나의 활성 감각의 주의 점유 활성도를 결정한다.4, in step 430, the sensory channel determiner 234 with reference to FIG. 2, based on the activity of at least one active sensory determined by the active sensory determiner 232 in step 420, , determine the attention-occupying activity of the corresponding at least one active sense.

주의 점유 활성도는 각 활성 감각에 대한 운전자(110)의 주의 집중도에 대응한다. 활성 감각 결정부(232)는 적어도 하나의 활성 감각의 각 활성 감각에 대하여 주의 점유 활성도를 결정한다. 적어도 하나의 활성 감각의 주의 점유 활성도는 현재 수행작업의 종류, 현재 수행 작업의 개수, 및 운전자(110)의 연령 등에 따라 달라진다. 일 예에서, 수행작업의 수행에 필요한 인지력의 요구에 비례하여 적어도 하나의 활성 감각의 주의 점유 활성도가 높아질 수 있다.The attention-occupying activity corresponds to the driver's 110's concentration of attention for each active sensation. The active sensory determining unit 232 determines the attention-occupying activity for each active sense of at least one active sense. The attention-occupying activity of the at least one active sense varies according to the type of the currently performed task, the number of the currently performed task, and the age of the driver 110 . In one example, the attention-occupying activity of at least one active sense may be increased in proportion to the demand for cognitive power required to perform the performance task.

일 예에서, 적어도 하나의 활성 감각의 주의 점유 활성도는 다음의 수학식 1에 따라 결정될 수 있다.In one example, the attention-occupying activity of the at least one active sense may be determined according to Equation 1 below.

[수학식 1][Equation 1]

시각의 주의 점유 활성도 = α1V+β1C+V0 Visual attention-occupying activity = α 1 V+β 1 C+V 0

청각의 주의 점유 활성도 = α2A+β2C+A0 Attention-occupied activity of hearing = α 2 A+β 2 C+A 0

촉각의 주의 점유 활성도 = α3P+β3C+P0 Tactile attention-occupying activity = α 3 P+β 3 C+P 0

V: 활성 감각 모델에서 제시하는 시각 활성도V: Visual activity presented by the active sensory model

A: 활성 감각 모델에서 제시하는 청각 활성도A: Hearing activity presented by the active sensory model

P: 활성 감각 모델에서 제시하는 신체(촉각) 활성도P: Body (tactile) activity suggested by the active sensory model

C: 활성 감각 모델에서 제시하는 인지력 활성도C: Cognitive activity presented by the active sensory model

V0:아무 작업도 하지 않을 경우 시각 활성도V 0 : Visual activity when no action is taken

A0:아무 작업도 하지 않을 경우 청각 활성도A 0 : Hearing activity level when no operation is performed

P0:아무 작업도 하지 않을 경우 신체 활성도P 0 : Physical activity when no work is done

α1: 시각 주의 점유 팩터α 1 : Visual attention occupancy factor

α2: 청각 주의 점유 팩터α 2 : auditory attention occupancy factor

α3: 신체 주의 점유 팩터α 3 : body attention occupancy factor

βx: 인지력 주의 점유 팩터β x : cognitive attention occupancy factor

일 예에서, 아무 작업도 하지 않을 경우의 시각 활성도, 청각 활성도 및 신체 활성도는 A0>V0>P0인 관계일 수 있다. 이는 청각 채널을 통해 정보를 제공할 경우 모든 방향으로 정보 제공이 가능하지만, 시각 채널로 제공되는 정보는 운전자(110)의 시선 방향과 시각 채널의 방향이 일치할 경우에만 정보 제공이 가능하며, 신체 채널로는 제공할 수 있는 컨텐츠의 정보가 제한적이라는 점을 반영한 경우에 해당한다.In one example, visual activity, auditory activity, and physical activity when no work is performed may have a relationship of A 0 >V 0 >P 0 . When information is provided through the auditory channel, information can be provided in all directions, but information provided through the visual channel can be provided only when the direction of the driver's 110 gaze and the direction of the visual channel coincide. This corresponds to a case that reflects the fact that information on content that can be provided as a channel is limited.

시각 주의 점유 팩터 α1는 운전자(110)가 시각 채널에 얼마나 주의를 집중하였는지를 나타내는 인자에 대응한다. 일 예에서, 시각 주의력 점유 팩터 α1는 해당 시각 채널에 대한 단위 시간당 시선 점유 시간에 비례할 수 있다. 일 예에서, 시각 주의력 점유 팩터 α1는 운전자(110)가 동시에 수행하는 작업의 개수에 반비례할 수 있다.The visual attention occupation factor α 1 corresponds to a factor indicating how much the driver 110 paid attention to the visual channel. In one example, the visual attention occupancy factor α 1 may be proportional to the gaze occupancy time per unit time for the corresponding visual channel. In one example, the visual attention occupation factor α 1 may be inversely proportional to the number of tasks that the driver 110 simultaneously performs.

청각 주의 점유 팩터 α2는 운전자(110)가 청각 채널에 얼마나 주의를 집중하였는지 나타내는 인자에 대응한다. 일 예에서, 청각 주의력 점유 팩터 α2는 운전자(110)가 동시에 수행하는 작업의 개수에 반비례할 수 있다.The auditory attention occupation factor α 2 corresponds to a factor indicating how much the driver 110 paid attention to the auditory channel. In one example, the auditory attention occupation factor α 2 may be inversely proportional to the number of tasks that the driver 110 simultaneously performs.

신체 주의 점유 팩터 α3는 운전자(110)가 신체 채널에 얼마나 주의를 집중하였는지 나타내는 인자에 대응한다. 일 예에서, 신체 주의 점유 팩터 α3는 운전자(110)가 동시에 수행하는 작업의 개수에 반비례할 수 있다.The body attention occupation factor α 3 corresponds to a factor indicating how much attention the driver 110 paid attention to the body channel. In one example, the body attention occupation factor α 3 may be inversely proportional to the number of tasks that the driver 110 simultaneously performs.

인지력 주의 점유 팩터 βx는 운전자(110)가 각 채널에서 제공하는 정보 처리를 위해 얼마나 높은 인지력을 사용했는지 나타내는 인자에 대응한다. 일 예에서, 인지력 주의 점유 팩터 βx는 운전자(110)가 동시에 수행하는 작업의 개수에 반비례할 수 있다. 일 예에서, 인지력 주의 점유 팩터 βx는 운전자(110)의 연령에 따라 다른 값을 가질 수 있다.The cognitive attention occupancy factor β x corresponds to a factor indicating how high cognitive power the driver 110 used to process information provided by each channel. In an example, the cognitive attention occupancy factor β x may be inversely proportional to the number of tasks that the driver 110 simultaneously performs. In an example, the cognitive attention occupation factor β x may have a different value according to the age of the driver 110 .

일 예에서, 적어도 하나의 활성 감각의 주의 점유 활성도는 각 활성 감각에 대한 운전자(110)의 반응 지연과 연관될 수 있다. 다시 말하면, 주의 점유 활성도는 적어도 하나의 감각 채널을 통한 정보의 제공에 대한 운전자(110)의 반응 지연과 연관될 수 있다. 예를 들어, 정보를 제공하는 감각 채널의 주의 점유 활성도가 높을수록 운전자(110)의 반응 지연이 낮을 수 있다. 이는 주의 점유 활성도가 높은 감각은 운전자(110)의 주의 집중도가 높은 감각에 대응하기 때문에, 해당 채널을 통하여 정보를 제공받은 운전자(110)는 즉각적으로 반응할 수 있기 때문이다.In one example, the attention grabbing activity of the at least one active sense may be associated with a delay in response of the driver 110 to each active sense. In other words, the attention-occupying activity may be associated with a delay in response of the driver 110 to the provision of information through the at least one sensory channel. For example, as the attention-occupying activity of the sensory channel providing information is higher, the response delay of the driver 110 may be lower. This is because the sense of high attention-occupying activity corresponds to the sense of high concentration of attention of the driver 110 , and thus the driver 110 receiving the information through the corresponding channel can respond immediately.

단계(440)에서 감각 채널 결정부(234)는, 단계(430)에서 결정한 주의 점유 활성도에 기반하여 적어도 하나의 감각 채널을 결정할 수 있다.In operation 440 , the sensory channel determiner 234 may determine at least one sensory channel based on the attention occupancy activity determined in operation 430 .

단계(440)에서 감각 채널 결정부(234)는 단계(430)에서 결정한 주의 점유 활성도가 최대 기준 활성도를 초과하는 경우에, 해당 주의 점유 활성도에 대응하는 감각을 적어도 하나의 감각 채널로 결정할 수 있다.In step 440 , the sensory channel determiner 234 may determine, as at least one sensory channel, a sense corresponding to the occupancy activity of the corresponding attention when the attention occupancy activity determined in step 430 exceeds the maximum reference activity. .

단계(440)에서 감각 채널 결정부(234)는 단계(430)에서 결정한 주의 점유 활성도가 최소 기준 활성도 이하인 경우에, 모든 활성 감각을 적어도 하나의 감각 채널로 결정할 수 있다.In operation 440 , the sensory channel determiner 234 may determine all active sensations as at least one sensory channel when the attention occupancy activity determined in operation 430 is equal to or less than the minimum reference activity.

도 2를 참조하여 정보 제공부(230)는 단계(440)에서 감각 채널 결정부(234)가 결정한 적어도 하나의 감각 채널을 통하여 운전자(110)에게 자율 주행 관련 정보를 제공한다.Referring to FIG. 2 , the information providing unit 230 provides autonomous driving related information to the driver 110 through at least one sensory channel determined by the sensory channel determiner 234 in step 440 .

도 6은 본 발명의 일 실시예에 따른 정보 제공 방법을 도시한 순서도이다.6 is a flowchart illustrating an information providing method according to an embodiment of the present invention.

단계(610)에서 도 2를 참조하여 인식부(210)는 운전자 상태 정보를 인식한다. 단계(610)은 도 3을 참조하여 단계(310)에 대응할 수 있다.In step 610 , the recognition unit 210 recognizes driver state information with reference to FIG. 2 . Step 610 may correspond to step 310 with reference to FIG. 3 .

단계(620)에서 도 2를 참조하여 수행작업 결정부(220)는 운전자 상태 정보에 기반하여 운전자(110)의 현재 수행작업을 결정한다. 단계(620)은 도 3을 참조하여 단계(320) 내지 단계(370)에 대응할 수 있다.In step 620 , referring to FIG. 2 , the to-be-performed task determining unit 220 determines the current performing task of the driver 110 based on driver state information. Step 620 may correspond to steps 320 to 370 with reference to FIG. 3 .

단계(630)에서 도 2를 참조하여 정보 제공부(230)는 현재 수행작업에 기반하여 적어도 하나의 감각 채널을 결정한다. 단계(630)은 도 4를 참조하여 단계(410) 내지 단계(440)에 대응할 수 있다.Referring to FIG. 2 in step 630 , the information providing unit 230 determines at least one sensory channel based on the currently performed task. Step 630 may correspond to steps 410 to 440 with reference to FIG. 4 .

단계(640)에서 도 2를 참조하여 주의 점유 결정부(236)는 단계(610)에서 인식부(210)가 인식한 운전자 상태 정보에 기반하여 운전자(110)의 주의를 점유하고 있는 대상을 결정한다.Referring to FIG. 2 in step 640 , the attention occupancy determining unit 236 determines an object occupying the attention of the driver 110 based on the driver state information recognized by the recognition unit 210 in step 610 . do.

일 예에서, 단계(640)에서 주의 점유 결정부(236)는 운전자(110)의 시선 주의를 점유하고 있는 장치를 운전자(110)의 주의를 점유하고 있는 대상으로 선정할 수 있다. 일 예에서, 단계(640)에서 주의 점유 결정부(236)는 단위 시간 동안 운전자(110)의 시선을 점유하는 비율이 임계값 이상인 장치를 운전자(110) 주의 점유 대상으로 결정할 수 있다.In one example, in operation 640 , the attention occupation determining unit 236 may select a device occupying the driver's 110's gaze attention as the target occupying the driver's 110 attention. In one example, in operation 640 , the attention occupancy determiner 236 may determine, as an attention occupancy target of the driver 110 , a device having a ratio of occupying the driver's 110's gaze for a unit time equal to or greater than a threshold value.

단계(650)에서 정보 제공부(230)는 운전자(110)에게 자율 주행 관련 정보를 제공할 장치 및 감각 채널을 선정한다.In step 650 , the information providing unit 230 selects a device and a sensory channel to provide autonomous driving-related information to the driver 110 .

일 예에서, 단계(650)에서 정보 제공부(230)는 단계(630)에서 결정한 적어도 하나의 감각 채널 중 단계(640)에서 결정한 주의를 점유하고 있는 대상이 제공가능한 감각 채널을 통하여 자율 주행 관련 정보를 제공할 수 있다.In one example, in step 650 , the information providing unit 230 is related to autonomous driving through a sensory channel that can be provided by the object occupying the attention determined in step 640 among the at least one sensory channel determined in step 630 . information can be provided.

일 예에서, 단계(650)에서 정보 제공부(230)는, 단계(630)에서 결정된 적어도 하나의 감각 채널이 시각 채널을 포함하는 경우, 단계(640)에서 결정된 주의 점유 대상이 시각 인터페이스를 제공한다면, 해당 주의 점유 대상의 시각 인터페이스를 통해 자율 주행 관련 정보를 제공할 수 있다. 만약, 단계(640)에서 결정된 주의 점유 대상이 시각 인터페이스를 제공하지 않는다면, 대표 시각 장치를 통해 자율 주행 관련 정보를 제공하기로 결정할 수 있다.In one example, when the at least one sensory channel determined in step 630 includes a visual channel in step 650 , the information providing unit 230 provides a visual interface to the attention occupant determined in step 640 . If so, autonomous driving-related information can be provided through the visual interface of the subject occupying the corresponding state. If the target of attention determined in step 640 does not provide a visual interface, it may be determined to provide autonomous driving-related information through a representative visual device.

일 예에서, 단계(650)에서 정보 제공부(230)는, 단계(630)에서 결정된 적어도 하나의 감각 채널이 청각 채널을 포함하는 경우, 단계(640)에서 결정된 주의 점유 대상이 청각 인터페이스를 제공한다면, 해당 주의 점유 대상의 청각 인터페이스를 통해 자율 주행 관련 정보를 제공하기로 결정할 수 있다. 만약, 단계(640)에서 결정된 주의 점유 대상이 청각 인터페이스를 제공하지 않는다면, 대표 청각 장치를 통해 자율 주행 관련 정보를 제공하기로 결정할 수 있다.In one example, when the at least one sensory channel determined in step 630 includes an auditory channel in step 650 , the information providing unit 230 provides an auditory interface to the attention occupant determined in step 640 . If so, it may decide to provide autonomous driving-related information through the auditory interface of the occupant of the state. If the target of attention determined in step 640 does not provide an auditory interface, it may be determined to provide autonomous driving-related information through the representative auditory device.

일 예에서, 단계(650)에서 정보 제공부(230)는, 단계(630)에서 결정된 적어도 하나의 감각 채널이 신체 채널을 포함하는 경우, 운전자(110)와 신체적으로 접촉하고 있는 장치를 통해서 자율 주행 관련 정보를 제공하기로 결정할 수 있다.In one example, when the at least one sensory channel determined in step 630 includes a body channel in step 650 , the information providing unit 230 is autonomously in contact with the driver 110 through a device in physical contact. You may decide to provide driving-related information.

일 예에서, 단계(650)에서 정보 제공부(230)는 단계(640)에서 주의 점유 대상이 없다고 결정된 경우, 대표 시각, 청각 및 신체 장치 중 적어도 하나를 통해 자율 주행 관련 정보를 제공하기로 결정할 수 있다.In one example, when it is determined in step 640 that there is no target of attention occupied in step 650 , the information providing unit 230 determines to provide autonomous driving-related information through at least one of representative visual, auditory, and bodily devices. can

일 예에서, 단계(650)에서 정보 제공부(230)는 단계(640)에서 결정된 주의 점유 대상 이외에도 부가적으로 대표 시각, 청각 및 신체 장치 중 적어도 하나를 통해 자율 주행 관련 정보를 제공하기로 결정할 수 있다.In one example, in step 650 , the information providing unit 230 determines to provide autonomous driving-related information through at least one of representative visual, auditory, and bodily devices in addition to the attention-occupying target determined in step 640 . can

단계(660)에서 정보 제공부(230)는 자율 주행 시스템이 운전자(110)에게 제공할 정보가 있는 지 여부를 확인하고, 있다면 단계(670)에서 해당 정보를 제공한다.In step 660 , the information providing unit 230 checks whether there is information to be provided to the driver 110 by the autonomous driving system, and if there is, provides the corresponding information in step 670 .

예를 들어, 단계(620)에서 운전자(110)가 스마트 폰으로 영화 보기 작업을 수행 중인 것으로 결정되면, 단계(630)에서 적어도 하나의 감각 채널은 시각 채널 및 청각 채널로 결정되고, 단계(640)에서 주의 점유 대상은 스마트 폰으로 결정되며, 단계(650) 내지 단계(670)에서 정보 제공부(230)는, 스마트 폰의 시각 채널 및 청각 채널을 통해 운전자(110)에게 시각 정보와 청각 정보를 제공할 수 있다. 따라서, 운전자(110)가 스마트 폰으로 영화 보기와 같은 NDRT를 현재 수행 중이라면, 운전 작업에 대한 민감도가 떨어진 운전자(110)에게 보낼 긴급한 요청(예를 들어 TOR 등) 발생 시에, 스마트 폰의 시각 채널 및 청각 채널을 통해 운전자(110)에게 정보를 제공함으로써, 운전자(110) 반응 지연을 최소화하고, 주어진 임계시간 내에 운전자(110)가 해당 요청을 인지하고 반응하도록 도울 수 있다. 이에 따라, 자율 주행의 안전성이 향상될 수 있다.For example, if it is determined in step 620 that the driver 110 is performing a movie watching operation with a smart phone, at least one sensory channel is determined as a visual channel and an auditory channel in step 630 , and in step 640 . ), the target of attention is determined by a smart phone, and in steps 650 to 670 , the information providing unit 230 provides visual and auditory information to the driver 110 through the visual and auditory channels of the smart phone. can provide Therefore, if the driver 110 is currently performing NDRT such as watching a movie with a smart phone, when an urgent request (eg, TOR, etc.) to be sent to the driver 110 with reduced sensitivity to driving tasks occurs, the By providing information to the driver 110 through the visual channel and the auditory channel, the driver 110 reaction delay can be minimized, and the driver 110 can recognize and respond to the request within a given threshold time. Accordingly, the safety of autonomous driving may be improved.

일 예에서, 단계(670)에서 정보 제공부(230)는 제공하려는 정보 이외의 다른 정보는 일시적으로 차단할 수 있다.In one example, in step 670 , the information providing unit 230 may temporarily block information other than the information to be provided.

일 예에서, 도 6에 도시된 정보 제공 과정은 반복적으로 수행될 수 있다.In one example, the information providing process shown in FIG. 6 may be repeatedly performed.

일 예에서, 단계(640)은 단계(620) 및 단계(630)에 선행하여 수행되거나 또는 단계(620) 및 단계(630)과 동시에 병렬적으로 수행될 수 있다.In one example, step 640 may be performed prior to steps 620 and 630 or performed concurrently with steps 620 and 630 in parallel.

일 예에서, 단계(640)에서 결정한 주의 점유 대상에 기반하여 단계(630)에서 수행작업을 결정할 수 있다.In one example, the task to be performed may be determined in operation 630 based on the target of attention determined in operation 640 .

이상, 자율 주행 차량의 운전자에게 자율 주행 관련 정보를 제공하는 경우를 상정하여 설명하였으나, 본 발명의 기술적 사상은 전술한 각 실시예에 따른 정보 제공 방법에 국한되지 않는다As described above, the description has been made on the assumption that autonomous driving-related information is provided to the driver of the autonomous driving vehicle, but the technical spirit of the present invention is not limited to the information providing method according to each of the above-described embodiments.

일 실시예는 이용자(110)에게 정보 제공이 필요한 제반 환경에서, 이용자(110)가 현재 수행하고 있는 수행작업에 따라 적합한 방식으로 정보를 제공하는 정보 제공 방법을 제공한다. 정보를 제공받을 이용자(110)의 현재 수행작업에 따라 이용자의 적어도 하나의 활성 감각을 결정하는 단계, 적어도 하나의 활성 감각에 기반하여 정보를 제공하는 데 사용할 적어도 하나의 감각 채널을 결정하는 단계, 및 적어도 하나의 감각 채널을 통하여 이용자(110)에게 정보를 제공하는 단계를 포함하는 정보 제공 방법을 제공할 수 있다.An embodiment provides an information providing method for providing information in an appropriate manner according to the task currently being performed by the user 110 in an environment requiring information provision to the user 110 . determining at least one active sense of the user according to the current performance task of the user 110 to be provided with information, determining at least one sensory channel to be used to provide information based on the at least one active sense; and providing information to the user 110 through at least one sensory channel.

일 예에서, 이용자(110)는 정보를 인식할 수 있는 주체를 포함할 수 있다. 예를 들어, 이용자(110)는 사람일 수 있다. 다른 예에서, 이용자(110)는 로봇일 수 있다.In one example, the user 110 may include a subject capable of recognizing information. For example, the user 110 may be a person. In another example, the user 110 may be a robot.

일 예에서, 정보 제공 장치(120)는 범용 정보 제공 장치를 포함한다. 예를 들어, 정보 제공 장치(120)는 전자 광고판, 키오스크, 또는 스마트홈 제어기 등을 포함한다.In one example, the information providing device 120 includes a general information providing device. For example, the information providing device 120 includes an electronic billboard, a kiosk, or a smart home controller.

한편, 본 발명의 실시예에 따른 정보 제공 장치 및 방법은 컴퓨터 시스템에서 구현되거나, 또는 기록매체에 기록될 수 있다. 컴퓨터 시스템은 적어도 하나 이상의 프로세서와, 메모리와, 사용자 입력 장치와, 데이터 통신 버스와, 사용자 출력 장치와, 저장소를 포함할 수 있다. 전술한 각각의 구성 요소는 데이터 통신 버스를 통해 데이터 통신을 한다.Meanwhile, the information providing apparatus and method according to an embodiment of the present invention may be implemented in a computer system or recorded in a recording medium. The computer system may include at least one processor, a memory, a user input device, a data communication bus, a user output device, and storage. Each of the above-described components performs data communication through a data communication bus.

컴퓨터 시스템은 네트워크에 커플링된 네트워크 인터페이스를 더 포함할 수 있다. 프로세서는 중앙처리 장치(central processing unit (CPU))이거나, 혹은 메모리 및/또는 저장소에 저장된 명령어를 처리하는 반도체 장치일 수 있다. The computer system may further include a network interface coupled to the network. The processor may be a central processing unit (CPU) or a semiconductor device that processes instructions stored in a memory and/or storage.

메모리 및 저장소는 다양한 형태의 휘발성 혹은 비휘발성 저장매체를 포함할 수 있다. 예컨대, 메모리는 ROM 및 RAM을 포함할 수 있다.The memory and storage may include various types of volatile or non-volatile storage media. For example, memory may include ROM and RAM.

따라서, 본 발명의 실시예에 따른 정보 제공 방법은 컴퓨터에서 실행 가능한 방법으로 구현될 수 있다. 본 발명의 실시예에 따른 정보 제공 방법이 컴퓨터 장치에서 수행될 때, 컴퓨터로 판독 가능한 명령어들이 본 발명에 따른 정보 제공 방법을 수행할 수 있다.Accordingly, the information providing method according to the embodiment of the present invention may be implemented as a computer-executable method. When the information providing method according to an embodiment of the present invention is performed in a computer device, computer readable instructions may perform the information providing method according to the present invention.

한편, 상술한 본 발명에 따른 정보 제공 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Meanwhile, the information providing method according to the present invention described above may be implemented as a computer readable code on a computer readable recording medium. The computer-readable recording medium includes any type of recording medium in which data that can be read by a computer system is stored. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like. In addition, the computer-readable recording medium may be distributed in computer systems connected through a computer communication network, and stored and executed as readable codes in a distributed manner.

이제까지 본 발명을 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양하게 변경 또는 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명을 위한 예시적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at mainly in the embodiments. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be implemented in variously changed or modified forms without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated by the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

120: 정보 제공 장치
210: 인식부
220: 수행작업 결정부
230: 정보 제공부
232: 활성 감각 결정부
234: 감각 채널 결정부
236: 주의 점유 결정부
120: information providing device
210: recognition unit
220: work determination unit
230: information provider
232: active sensory determining unit
234: sensory channel determining unit
236: state occupation decision unit

Claims (16)

자율 주행 차량의 운전자 상태 정보를 획득하는 인식부;
사전설정된 수행작업 모델에 기반하여 상기 운전자 상태 정보를 분석하여 상기 운전자의 예상 수행작업을 결정하고, 이 예상 수행작업에 기반하여 상기 현재 수행작업을 결정하는 수행작업 결정부; 및
상기 현재 수행작업에 기반하여 적어도 하나의 감각 채널을 결정하고, 상기 적어도 하나의 감각 채널을 통해 상기 운전자에게 상기 자율 주행 관련 정보를 제공하는 정보 제공부를 포함하되,
상기 운전자 상태 정보는 차량 및 운전자의 영상 정보, 차량 내부의 소리 정보, 운전자의 음성 정보, 및 운전자의 생체 신호를 포함하고,
상기 현재 수행작업은 운전자의 자율 주행 차량의 운전 행위 및 자율 주행 중에 행해지는 운전이 아닌 다른 작업(NDRT)을 포함하는 것을 특징으로 하는 정보 제공 장치.
a recognition unit for acquiring driver state information of the autonomous vehicle;
a to-be-performed task determining unit that analyzes the driver state information based on a preset to-be-performed work model to determine an expected to be performed of the driver, and to determine the current to be performed based on the expected to be performed; and
An information providing unit that determines at least one sensory channel based on the currently performed task and provides the autonomous driving-related information to the driver through the at least one sensory channel,
The driver state information includes image information of the vehicle and the driver, sound information inside the vehicle, voice information of the driver, and bio-signals of the driver,
The information providing apparatus, characterized in that the currently performed task includes a driver's driving of the autonomous vehicle and a task other than driving (NDRT) performed during autonomous driving.
삭제delete 제 1 항에 있어서,
상기 수행작업 결정부는,
상기 예상 수행작업의 일 세트를 분석하여 상기 운전자의 상기 현재 수행작업을 결정하는, 정보 제공 장치.
The method of claim 1,
The task determination unit,
and determining the current performance of the driver by analyzing a set of the expected to-be-performed tasks.
제 1 항에 있어서,
상기 정보 제공부는,
상기 현재 수행작업에 기반하여 상기 운전자의 적어도 하나의 활성 감각을 결정하는 활성 감각 결정부; 및
상기 적어도 하나의 활성 감각에 기반하여 상기 주행 관련 정보를 제공할 상기 적어도 하나의 감각 채널을 결정하는 감각 채널 결정부;
를 포함하는 정보 제공 장치.
The method of claim 1,
The information providing unit,
an active sense determining unit configured to determine at least one active sense of the driver based on the currently performed task; and
a sensory channel determining unit configured to determine the at least one sensory channel through which the driving-related information is to be provided based on the at least one active sense;
An information providing device comprising a.
제 4 항에 있어서,
상기 활성 감각 결정부는 사전설정된 활성 감각 모델에 기반하여 상기 현재 수행작업을 분석하여 상기 적어도 하나의 활성 감각의 활성도를 결정하고,
상기 감각 채널 결정부는,
상기 활성도에 기반하여 결정되는 상기 적어도 하나의 활성 감각의 주의 점유 활성도에 기반하여 상기 적어도 하나의 감각 채널을 결정하는, 정보 제공 장치.
5. The method of claim 4,
The active sensory determining unit determines the activity level of the at least one active sensory by analyzing the currently performed task based on a preset active sensory model;
The sensory channel determining unit,
and determining the at least one sensory channel based on the attention-occupying activity of the at least one active sense determined based on the activity level.
제 5 항에 있어서,
상기 감각 채널 결정부는,
상기 주의 점유 활성도가 최대 기준 활성도를 초과하는 경우에, 상기 주의 점유 활성도에 대응하는 감각을 상기 적어도 하나의 감각 채널로 결정하는, 정보 제공 장치.
6. The method of claim 5,
The sensory channel determining unit,
and when the attention-occupying activity exceeds a maximum reference activity, determining a sensation corresponding to the attention-occupying activity as the at least one sensory channel.
제 5 항에 있어서,
상기 감각 채널 결정부는,
상기 주의 점유 활성도가 최소 기준 활성도 이하인 경우에, 모든 상기 활성 감각을 상기 적어도 하나의 감각 채널로 결정하는, 정보 제공 장치.
6. The method of claim 5,
The sensory channel determining unit,
and when the attention-occupying activity is equal to or less than a minimum reference activity, determining all of the active senses as the at least one sensory channel.
제 5 항에 있어서,
상기 주의 점유 활성도는 상기 주행 관련 정보의 제공에 대한 상기 운전자의 반응 지연과 연관되는, 정보 제공 장치.
6. The method of claim 5,
and the attention-occupying activity is associated with a delay in response of the driver to the provision of the driving-related information.
제 1 항에 있어서,
상기 정보 제공부는,
상기 운전자 상태 정보에 기반하여 상기 운전자의 주의를 점유하고 있는 대상을 결정하는 주의 점유 결정부;
를 포함하는 정보 제공 장치.
The method of claim 1,
The information providing unit,
an attention occupation determining unit configured to determine an object occupying the driver's attention based on the driver state information;
An information providing device comprising a.
제 9 항에 있어서,
상기 정보 제공부는,
상기 적어도 하나의 감각 채널 중 상기 주의를 점유하고 있는 대상이 제공하는 감각 채널을 통하여 상기 주행 관련 정보를 제공하는 정보 제공 장치.
10. The method of claim 9,
The information providing unit,
An information providing apparatus for providing the driving-related information through a sensory channel provided by an object occupying the attention among the at least one sensory channel.
자율 주행 차량의 운전자 상태 정보에 기반하여 운전자의 현재 수행작업을 결정하는 단계;
상기 현재 수행작업에 따라 상기 운전자의 적어도 하나의 활성 감각을 결정하는 단계; 및
상기 적어도 하나의 활성 감각에 기반하여 자율 주행 관련 정보를 제공할 적어도 하나의 감각 채널을 결정하는 단계를 포함하되,
상기 운전자 상태 정보는 차량 및 운전자의 영상 정보, 차량 내부의 소리 정보, 운전자의 음성 정보, 및 운전자의 생체 신호를 포함하고,
상기 현재 수행작업은 운전자의 자율 주행 차량의 운전 행위 및 자율 주행 중에 행해지는 운전이 아닌 다른 작업(NDRT)을 포함하는 것을 특징으로 하는 정보 제공 방법.
determining a currently performed task of a driver based on driver state information of the autonomous vehicle;
determining at least one active sense of the driver according to the currently performed task; and
determining at least one sensory channel to provide autonomous driving-related information based on the at least one active sensory;
The driver state information includes image information of the vehicle and the driver, sound information inside the vehicle, voice information of the driver, and bio-signals of the driver,
The method for providing information, characterized in that the currently performed task includes a driver's driving behavior of the autonomous vehicle and a task other than driving (NDRT) performed during autonomous driving.
제 11 항에 있어서,
상기 운전자 상태 정보에 기반하여 상기 운전자의 주의 점유 대상을 결정하는 단계; 및
상기 적어도 하나의 감각 채널 중 상기 주의 점유 대상이 제공하는 감각 채널을 통하여 상기 운전자에게 자율 주행 관련 정보를 제공하는 단계
를 더 포함하는 정보 제공 방법.
12. The method of claim 11,
determining an attention occupant target of the driver based on the driver state information; and
providing autonomous driving-related information to the driver through a sensory channel provided by the attention-occupying target among the at least one sensory channel
A method of providing information further comprising a.
제 11 항에 있어서,
상기 적어도 하나의 활성 감각을 결정하는 단계는,
상기 적어도 하나의 활성 감각의 활성도를 결정하는 단계
를 포함하고,
상기 적어도 하나의 감각 채널을 결정하는 단계는,
상기 적어도 하나의 활성 감각의 활성도에 기반하여 상기 적어도 하나의 활성 감각의 주의 점유 활성도를 결정하는 단계
를 포함하는 정보 제공 방법.
12. The method of claim 11,
Determining the at least one active sense comprises:
determining the activity of the at least one active sense;
including,
Determining the at least one sensory channel comprises:
determining an attention-occupying activity of the at least one active sense based on the activity of the at least one active sense;
A method of providing information, including
제 13 항에 있어서,
상기 적어도 하나의 감각 채널을 결정하는 단계는,
상기 주의 점유 활성도가 최대 기준 활성도를 초과하는 경우에, 상기 주의 점유 활성도에 대응하는 감각을 상기 적어도 하나의 감각 채널로 결정하는 것인, 정보 제공 방법.
14. The method of claim 13,
Determining the at least one sensory channel comprises:
When the attention-occupying activity exceeds a maximum reference activity, determining the sensation corresponding to the attention-occupying activity as the at least one sensory channel.
자율 주행 차량의 정보를 제공받을 이용자의 상태 정보에 기반하여 결정된 현재 수행작업에 따라 상기 이용자의 적어도 하나의 활성 감각을 결정하는 단계;
상기 적어도 하나의 활성 감각에 기반하여 정보를 제공하는 데 사용할 적어도 하나의 감각 채널을 결정하는 단계; 및
상기 적어도 하나의 감각 채널을 통하여 상기 이용자에게 정보를 제공하는 단계를 포함하되,
상기 이용자 상태 정보는 차량 및 이용자의 영상 정보, 차량 내부의 소리 정보, 이용자의 음성 정보, 및 이용자의 생체 신호를 포함하고,
상기 현재 수행작업은 이용자의 자율 주행 차량의 운전 행위 및 자율 주행 중에 행해지는 운전이 아닌 다른 작업(NDRT)을 포함하는 것을 특징으로 하는 정보 제공 방법.
determining at least one active sense of the user according to a current task determined based on status information of the user to be provided with information of the autonomous vehicle;
determining at least one sensory channel to use for providing information based on the at least one active sensory; and
providing information to the user through the at least one sensory channel;
The user status information includes image information of the vehicle and the user, sound information inside the vehicle, voice information of the user, and biosignals of the user,
The method for providing information, characterized in that the currently performed task includes a user's driving of the autonomous vehicle and a task other than driving (NDRT) performed during autonomous driving.
제 15 항에 있어서,
상기 현재 상태 정보에 기반하여 상기 이용자의 주의 점유 대상을 결정하는 단계
를 더 포함하고,
상기 정보를 제공하는 단계는,
상기 적어도 하나의 감각 채널 중 상기 주의 점유 대상이 제공하는 감각 채널을 통하여 상기 이용자에게 정보를 제공하는 것인, 정보 제공 방법.
16. The method of claim 15,
Determining the target of the user's attention based on the current state information
further comprising,
Providing the information includes:
The method of providing information to the user through a sensory channel provided by the attention-occupying object among the at least one sensory channel.
KR1020180147304A 2018-11-26 2018-11-26 Apparatus and method for providing information based on a current task of a user KR102322863B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180147304A KR102322863B1 (en) 2018-11-26 2018-11-26 Apparatus and method for providing information based on a current task of a user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180147304A KR102322863B1 (en) 2018-11-26 2018-11-26 Apparatus and method for providing information based on a current task of a user

Publications (2)

Publication Number Publication Date
KR20200068047A KR20200068047A (en) 2020-06-15
KR102322863B1 true KR102322863B1 (en) 2021-11-10

Family

ID=71081544

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180147304A KR102322863B1 (en) 2018-11-26 2018-11-26 Apparatus and method for providing information based on a current task of a user

Country Status (1)

Country Link
KR (1) KR102322863B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018655A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Driver's action estimation device
JP2014065478A (en) 2012-09-24 2014-04-17 Hyundai Motor Company Co Ltd Driving control right exchanging method for autonomous vehicle
JP2017107502A (en) * 2015-12-11 2017-06-15 トヨタ自動車株式会社 On-vehicle warning system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160036968A (en) * 2014-09-26 2016-04-05 국민대학교산학협력단 Integrated assessment apparatus and method of drivers' drowsiness, inattention and workload
KR20180090644A (en) * 2017-02-03 2018-08-13 한국전자통신연구원 Device and mehtod for interaction between driver and vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018655A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Driver's action estimation device
JP2014065478A (en) 2012-09-24 2014-04-17 Hyundai Motor Company Co Ltd Driving control right exchanging method for autonomous vehicle
JP2017107502A (en) * 2015-12-11 2017-06-15 トヨタ自動車株式会社 On-vehicle warning system

Also Published As

Publication number Publication date
KR20200068047A (en) 2020-06-15

Similar Documents

Publication Publication Date Title
US11027608B2 (en) Driving assistance apparatus and driving assistance method
US11738757B2 (en) Information processing device, moving apparatus, method, and program
US11709488B2 (en) Manual control re-engagement in an autonomous vehicle
JP7299840B2 (en) Information processing device and information processing method
JP6515764B2 (en) Dialogue device and dialogue method
US11820228B2 (en) Control system and method using in-vehicle gesture input
JP2019021229A (en) Vehicle control device and vehicle control method
US10829130B2 (en) Automated driver assistance system
US11495033B2 (en) Method and apparatus for controlling unmanned vehicle, electronic device and storage medium
CN109472253B (en) Driving safety intelligent reminding method and device, intelligent steering wheel and intelligent bracelet
US20200410264A1 (en) Control system using in-vehicle gesture input
CN114253392A (en) Virtual conversation agent for controlling multiple in-vehicle intelligent virtual assistants
KR102322863B1 (en) Apparatus and method for providing information based on a current task of a user
CN114760417A (en) Image shooting method and device, electronic equipment and storage medium
CN110626352A (en) Vehicle and method and device for detecting anxiety condition of driver and passenger thereof
KR102667424B1 (en) Control system using gesture in vehicle
KR20210000465A (en) Control system using gesture in vehicle
JP7501658B2 (en) Vehicle control device, vehicle control method and program
CN111783550B (en) Monitoring and adjusting method and system for emotion of driver
WO2019163255A1 (en) Information processing device, information processing method, and program
CN117246352A (en) Pipe connection reminding method and device and vehicle
JP2022111156A (en) Vehicle control device and vehicle control method
CN115723772A (en) Vehicle human-machine interface mode providing method and device
KR20210000462A (en) Control system and method using gesture in vehicle
KR20210000463A (en) Control system using gesture in vehicle

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant