KR102051136B1 - Artificial intelligence dashboard robot base on cloud server for recognizing states of a user - Google Patents

Artificial intelligence dashboard robot base on cloud server for recognizing states of a user Download PDF

Info

Publication number
KR102051136B1
KR102051136B1 KR1020170163208A KR20170163208A KR102051136B1 KR 102051136 B1 KR102051136 B1 KR 102051136B1 KR 1020170163208 A KR1020170163208 A KR 1020170163208A KR 20170163208 A KR20170163208 A KR 20170163208A KR 102051136 B1 KR102051136 B1 KR 102051136B1
Authority
KR
South Korea
Prior art keywords
driver
image
driving
information
cloud server
Prior art date
Application number
KR1020170163208A
Other languages
Korean (ko)
Other versions
KR20190063986A (en
Inventor
성낙윤
유영선
Original Assignee
주식회사 라스테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 라스테크 filed Critical 주식회사 라스테크
Priority to KR1020170163208A priority Critical patent/KR102051136B1/en
Publication of KR20190063986A publication Critical patent/KR20190063986A/en
Application granted granted Critical
Publication of KR102051136B1 publication Critical patent/KR102051136B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • G06K9/00845
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/627
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 운전자의 얼굴정보 및 차량의 주행상황을 촬영하여 클라우드서버로 전송하고, 클라우드서버가 영상인식 및 처리, 분석을 통해 운전자의 상태를 모니터링하며, 운전자가 졸음운전시 알림정보를 대쉬보드로봇으로 전송가능한 클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템에 관한 것이다. 본 발명은 운전자의 얼굴인식뿐만 아니라, 차량의 주행속도, 주행방향 등의 다양한 요소등을 데이터화하여 이를 인공지능 클라우드 서버로 전송하여 서버에서 분석 후 졸음여부를 단계적으로 판단하고, 졸음운전이라고 판단되는 경우 졸음방지 방향제를 분사하거나 산소공급, 경고음, 인공지능과 대화 및 설정된 전화번호로 전화연결 등의 기능을 제공함으로써, 운전자의 졸음운전을 예방할 수 있는 이점이 있다. The present invention captures the driver's face information and driving conditions of the vehicle and transmits it to the cloud server, the cloud server monitors the driver's state through image recognition, processing, and analysis, and the dashboard robot sends notification information when the driver is drowsy. The present invention relates to a user state recognition system using an artificial intelligence robot robot based on a cloud server that can be transmitted to the server. The present invention not only recognizes the driver's face, but also various factors such as the vehicle's driving speed, driving direction, and the like, and transmits the data to the artificial intelligence cloud server to determine whether the user's drowsiness is analyzed step by step after being analyzed by the server, and determined to be drowsy driving. In case of drowsy anti-drowsy spray or by providing a function such as oxygen supply, warning sound, artificial intelligence and telephone connection to the set phone number, there is an advantage that can prevent drowsy driving of the driver.

Description

클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템 {ARTIFICIAL INTELLIGENCE DASHBOARD ROBOT BASE ON CLOUD SERVER FOR RECOGNIZING STATES OF A USER}User State Recognition System using AI Dashboard Robot Based on Cloud Server {ARTIFICIAL INTELLIGENCE DASHBOARD ROBOT BASE ON CLOUD SERVER FOR RECOGNIZING STATES OF A USER}

본 발명은 차량의 대쉬보드에 설치되는 로봇을 통해 사용자의 상태를 인식하는 시스템에 관한 것으로서, 보다 상세하게는 운전자의 얼굴정보 및 차량의 주행상황을 촬영하여 클라우드서버로 전송하고, 클라우드서버가 영상인식 및 처리, 분석을 통해 운전자의 상태를 모니터링하며, 운전자가 졸음운전시 알림정보를 대쉬보드로봇으로 전송가능한 클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템에 관한 것이다.The present invention relates to a system for recognizing a user's state through a robot installed on a dashboard of a vehicle, and more particularly, photographing a driver's face information and a driving situation of a vehicle and transmitting the same to a cloud server, and the cloud server displays an image. The present invention relates to a user state recognition system using an intelligent dashboard robot based on a cloud server that monitors a driver's state through recognition, processing, and analysis, and transmits notification information to a dashboard robot when the driver is drowsy.

최근 자동차의 대중화에 따라 차내 탑승인원의 감소로 나홀로 운전자가 많아지고 트럭 및 버스 등 장거리, 장시간 운전자가 많아짐에 따라 교통사고 중 사망사고의 가장 큰 원인은 졸음운전으로 발표되고 있다. 이에 따라 자동차 졸음운전 사고 방지를 위한 방안이 요구되고 있는데 졸음운전을 감지하고 이를 판단하는 기술적 접근방법이 많으나 이를 차내에 설치하고 처리하는데 고사양의 CPU와 그래픽 처리를 위한 GPU 등 많은 자원이 요구되고 있다. Recently, the most common cause of death accidents is drowsiness driving, with the increase in the number of passengers alone and the increase of long-distance and long-distance drivers such as trucks and buses due to the reduction of the number of passengers in the car. Accordingly, there is a demand for measures to prevent drowsy driving accidents. There are many technical approaches for detecting and determining drowsy driving, but many resources such as a high-end CPU and a GPU for graphics processing are required to install and process the drowsy driving. .

또한 자동차의 이용이 많아지고 졸음운전 방지를 위한 기술적 접근방법이 다양하지만 눈꺼풀을 감지하여 졸음여부를 판단하는 방법이 가장 많이 쓰이고 있으며, 안면을 인식하여 인공지능을 통해 상태를 판단하는 기술적 접근은 아직 시도되고 있지 않고 있는데, 이는 인공지능을 통한 영상처리에 고사양의 그래픽처리장치가 필요하기 때문이다.In addition, there are many uses of cars and various technical approaches to prevent drowsiness driving.However, a method of detecting drowsiness by detecting eyelids is most commonly used, and a technical approach of judging a state through artificial intelligence by recognizing a face is still in use. This has not been attempted, because a high specification graphic processing apparatus is required for image processing through artificial intelligence.

특히, 자동차 내에 대쉬보드로봇을 설치하여 영상처리와 졸음 인식을 위한 알고리즘을 수행하기 위한 로봇의 중앙처리장치와 영상처리장치가 매우 높은 사양에 크기도 커서 이를 설치하고 운영하는데 상당한 비용이 소모되고 대쉬보드에 간단히 올려놓고 쓰기에 무리가 있어 오히려 사고의 위험이 따르고, 처리속도의 한계로 빠른 속도의 자동차에서 순간의 졸음운전 판단 지연으로 인한 사고의 위험도 있어 쉽게 접근하기 어려운 상황이다. In particular, the robot's central processing unit and image processing unit for installing the robot robot in the car and performing algorithms for image processing and drowsiness recognition are very large in size and are very expensive to install and operate. It is difficult to access easily because it is difficult to put it on the board and use it, but there is a risk of an accident, and there is a risk of an accident due to the delay of judgment of drowsy driving in a fast car due to the limitation of processing speed.

한국 등록특허 제10-0778059호(이하 '선행문헌'이라 칭함)는 운전자의 졸음운전방지장치의 내부에 GPS 및 통신부를 장착하여 졸음운전시 졸음운전상황에 대한 정보 및 차량의 주행위치를 중앙관제센터 또는 교통사고 예방관리기관 등에 통보함으로써 미연에 대형사고방지할 수 있는 얼굴인식기술을 이용한 졸음운전 방지장치 및 이를 이용한 졸음운전 방지시스템에 관한 것이다.Korean Patent No. 10-0778059 (hereinafter referred to as “priority document”) is equipped with a GPS and a communication unit inside the driver's drowsy driving prevention device to provide information on the drowsy driving situation and the driving position of the vehicle during drowsy driving. The present invention relates to a drowsiness driving prevention device using face recognition technology and a drowsiness driving prevention system using the same, which can prevent a large accident in advance by notifying a center or a traffic accident prevention management agency to the center.

선행문헌과 같은 독립형 대쉬보드로봇은 고사양의 하드웨어 플랫폼이 소요되어 매우 고가의 로봇시스템된다. 따라서 좀 더 저렴하고 빠른 속도의 처리능력과 서비스가 가능하도록 인공지능을 이용한 상태인식 서비스를 클라우드 기반으로 제공하고 빅데이터 수집이 가능하도록 구성하여 운전자 상태 모니터링 및 기타 서비스가 가능하도록 구성할 필요가 있다.Stand-alone dashboard robots, such as the prior literature, is a very expensive robotic system requires a high-end hardware platform. Therefore, it is necessary to configure the driver condition monitoring and other services by providing a state-based service using artificial intelligence in the cloud based to enable cheaper and faster processing power and services, and to configure big data collection. .

1. 한국등록특허공보 제10-0778059호 '얼굴인식기술을 이용한 졸음운전 방지장치 및 이를 이용한 졸음운전 방지시스템' (출원일자 2007.05.22)1. Korea Patent Publication No. 10-0778059 'Drowsiness operation prevention device using face recognition technology and drowsiness operation prevention system using the same' (application date 2007.05.22) 2. 한국등록특허공보 제10-1023819호 '팬틸트 장치' (출원일자 2009.05.26.)2. Korean Patent Publication No. 10-1023819 'Pan Tilt Device' (Application Date 2009.05.26.)

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 운전자의 얼굴인식뿐만 아니라, 차량의 주행속도, 주행방향 등의 다양한 요소등을 데이터화하여 이를 인공지능 클라우드 서버로 전송하여 서버에서 분석 후 졸음여부를 단계적으로 판단하고, 졸음운전이라고 판단되는 경우 졸음방지 방향제를 분사하거나 산소공급, 경고음, 인공지능과 대화 및 설정된 전화번호로 전화연결 등의 기능을 제공하고자 한다. The present invention has been devised to solve the above problems, as well as the driver's face recognition, data of various factors such as the driving speed, driving direction, etc. of the data and transmits it to the AI cloud server to analyze the server sleepiness after analysis If it is determined step by step, if it is determined that drowsiness operation is to spray drowsiness-preventing fragrance or provide functions such as oxygen supply, warning sound, artificial intelligence and dialogue and telephone connection to the set phone number.

또한, 본 발명은 운전자의 얼굴인식을 통한 상태인식을 위해 필요한 자원을 최소화하기 위해 인공지능에 소요되는 많은 자원을 무선통신 기반으로 클라우드 서비스를 통해 제공받고자 한다.In addition, the present invention is intended to receive a lot of resources required for artificial intelligence through the cloud service based on wireless communication in order to minimize the resources required for state recognition through the driver's face recognition.

상기 목적을 달성하기 위한 본 발명의 관점에 따른 클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템은 운전자의 안면 및 차량의 핸들을 촬영하는 전면카메라,차량의 주행상황을 촬영하는 후면카메라, 차량의 내부환경을 측정하는 센서부; 상기 전면카메라에 의해 촬영된 전면영상 및 상기 후면카메라를 통해 촬영된 주행영상을 저장하는 영상정보수집부, 및 상기 전면영상, 주행영상 및 센서부에 의해 측정된 내부환경정보를 무선통신망을 통해 기 설정된 주기마다 외부로 전송하는 영상환경정보전송부가 포함된 대쉬보드로봇와 상기 대쉬보드로봇으로부터 상기 전면영상, 주행영상 및 내부환경정보를 수신 및 상기 전면영상내 상기 운전자의 최초안면영상을 템플리트데이터로 생성하는 정보수집부, 및 상기 템플리트데이터와 상기 전면영상내 안면영상을 비교 및 분석하여 상기 운전자의 감정 및 상태를 판단하며, 상기 전면영상내 상기 차량의 핸들영상, 상기 주행영상을 통해 상기 운전자의 졸음을 분석하는 인공지능처리부가 포함된 클라우드서버를 포함한다. A user state recognition system using an intelligent dashboard robot based on a cloud server in accordance with an aspect of the present invention for achieving the above object is a front camera for photographing the driver's face and the steering wheel of the vehicle, to shoot the driving situation of the vehicle Rear camera, sensor unit for measuring the internal environment of the vehicle; The image information collecting unit which stores the front image photographed by the front camera and the driving image photographed by the rear camera, and the internal environment information measured by the front image, the driving image and the sensor unit can be read through a wireless communication network. Receives the front image, the driving image and the internal environment information from the dashboard robot and the dashboard robot including the image environment information transmission unit for transmitting to the outside every set period and generates the first face image of the driver in the front image as template data. The information collecting unit, and comparing and analyzing the template data and the face image in the front image to determine the emotion and state of the driver, the drowsiness of the driver through the steering image, the driving image of the vehicle in the front image It includes a cloud server containing an artificial intelligence processing unit for analyzing the.

본 발명에 따른 상기 대쉬보드로봇은 상기 클라우드서버로부터 상기 운전자의 감정 및 상태정보와 상기 운전자의 졸음정보를 수신하며, 상기 운전자의 졸음운전의 빈도, 감종 및 상태정보의 수준에 따라 상기 운전자의 졸음을 초기, 중기 및 졸음운전단계로 분석하는 분석정보수집부, 및 상기 운전자에게 시각적, 촉각적, 청각적으로 알림을 인지시키는 알림장치가 구비된 모션제어부, 상기 운전자의 졸음 단계에 따라 상기 모션제어부를 선택적 또는 순차적으로 작동시키는 주제어부를 더 포함한다. The dashboard robot according to the present invention receives the driver's emotion and state information and the driver's drowsy information from the cloud server, and the driver's drowsiness according to the frequency of the drowsy driving of the driver, the level of sensitivity and the state information. A motion control unit equipped with an analysis information collecting unit for analyzing the initial, middle, and drowsy driving stages, and a notification device for recognizing a notification visually, tactilely, and audibly to the driver, and the motion control unit according to the drowsiness stage of the driver. It further includes a main control unit to operate selectively or sequentially.

본 발명에 따른 상기 클라우드서버는 상기 대쉬보드로봇로부터 전송된 상기 전면영상, 주행영상 및 내부환경정보를 바탕으로 상기 운전자의 누적정보를 저장하는 사용자정보데이터베이스, 및 상기 사용자정보데이터베이스에 저장된 누적정보를 바탕으로 상기 운전자의 졸음판단의 정확도를 증가시키기 위한 정보학습처리부를 포함한다.The cloud server according to the present invention is a user information database for storing the cumulative information of the driver based on the front image, the driving image and the internal environment information transmitted from the dashboard robot, and the accumulated information stored in the user information database Based on the information learning processing unit for increasing the accuracy of the drowsiness determination of the driver.

본 발명은 운전자의 얼굴인식뿐만 아니라, 차량의 주행속도, 주행방향 등의 다양한 요소등을 데이터화하여 이를 인공지능 클라우드 서버로 전송하여 서버에서 분석 후 졸음여부를 단계적으로 판단하고, 졸음운전이라고 판단되는 경우 졸음방지 방향제를 분사하거나 산소공급, 경고음, 인공지능과 대화 및 설정된 전화번호로 전화연결 등의 기능을 제공함으로써, 운전자의 졸음운전을 예방할 수 있는 이점이 있다. The present invention not only recognizes the driver's face, but also various factors such as the vehicle's driving speed, driving direction, and the like, and transmits the data to the AI cloud server to determine whether the user's drowsiness is analyzed step by step after being analyzed by the server. In case of drowsy anti-drowsy spray or by providing a function such as oxygen supply, warning sound, artificial intelligence and telephone connection to the set phone number, there is an advantage that can prevent drowsy driving of the driver.

또한, 본 발명은 운전자의 얼굴인식을 통한 상태인식을 위해 필요한 자원을 최소화하기 위해 인공지능에 소요되는 많은 자원을 무선통신 기반으로 클라우드 서비스를 통해 제공받음으로써, 더욱 경제적으로 졸음운전 및 안전운전 도우미 기능의 대쉬보드로봇을 구현할 수 있는 이점이 있다.In addition, the present invention provides a more economical drowsy driving and safe driving assistant by receiving a lot of resources required for artificial intelligence through a cloud service based on wireless communication in order to minimize the resources required for state recognition through the face recognition of the driver There is an advantage to implement a dashboard robot of functionality.

도 1은 본 발명의 따른 대쉬보드 로봇을 나타낸 사시도이다.
도 2는 본 발명에 따른 클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템의 계념도이다.
도 3은 본 발명에 따른 클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템의 구성도이다.
도 4는 본 발명에 따른 대쉬보드로봇의 내부 계층 구조를 나타낸 도면이다.
1 is a perspective view showing a dashboard robot according to the present invention.
2 is a conceptual diagram of a user state recognition system using an artificial intelligence dashboard robot based on a cloud server according to the present invention.
3 is a configuration diagram of a user state recognition system using an artificial intelligence dashboard robot based on a cloud server according to the present invention.
4 is a diagram illustrating an internal hierarchical structure of the dashboard robot according to the present invention.

이하, 본 발명의 바람직한 실시 예에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. 본 발명의 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the embodiments of the present invention, when it is determined that the detailed description of the related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

도 1 은 본 발명의 따른 대쉬보드 로봇을 나타낸 사시도이다. 본 발명의 대시보드로봇은 이클라우드 기반으로 작동한다. 대쉬보드로봇은 바람직하게는 차량의 실내공간 특히 대쉬보드 위에 설치되며, 운전자의 졸음운전 여부를 판단하기 위한 장치와 블랙박스에 해당한다. 그리고, 가정이나 건물의 실내공간에 설치되어 원하는 영상을 통해 실내공간의 모습을 확인할 수 있고 양방향 대화도 가능하다.1 is a perspective view showing a dashboard robot according to the present invention. The dashboard robot of the present invention operates on an ecloud basis. The dashboard robot is preferably installed on the indoor space of the vehicle, in particular on the dashboard, and corresponds to a device and a black box for determining whether the driver is drowsy. In addition, it is installed in an indoor space of a home or building to check the appearance of the indoor space through a desired image, and two-way conversation is possible.

도 1을 참조하면 본 발명에 따른 대쉬보드로봇은 상부하우징(100), 촬영안내부(200), 전면카메라(300) 및 하부하우징, 후방카메라(500), 센서부(210)를 포함할 수 있다. Referring to FIG. 1, the dashboard robot according to the present invention may include an upper housing 100, a photographing guide 200, a front camera 300 and a lower housing, a rear camera 500, and a sensor unit 210. have.

상부하우징(100)은 내부가 중공되며 일측이 개방된 형상을 이룬다. 촬영안내부(200)는 상부하우징(100) 내부에 장착되어 상하 좌우 회전된다. 이때, 촬영안내부(200)와 상부하우징(100)은 팬틸트구조로 이루어져 있으며, 이에 대한 상세한 설명은 한국특허공보 제10-2009-0046015호(선행문헌 2)에 기재된 '팬틸트 장치'를 참조한다. '팬틸트 장치'는 카메라를 좌우(팬), 상하(틸트)로 움직이는 공지된 기술로써, 그 자세한 설명은 생략하도록 한다.The upper housing 100 forms a hollow shape and one side is open. The photographing guide 200 is mounted inside the upper housing 100 and rotates up, down, left, and right. At this time, the photographing guide 200 and the upper housing 100 is made of a pan tilt structure, a detailed description of the 'pan tilt device' described in Korea Patent Publication No. 10-2009-0046015 (prior document 2) See. 'Pan tilt device' is a known technique for moving the camera left and right (pan), up and down (tilt), its detailed description will be omitted.

촬영안내부(200)는 운전자의 얼굴과 핸들 부분을 포함하여 촬영하는 전면카메라(300)를 포함한다. 촬영안내부(200)는 전면카메라(300)를 통해 촬영된 영상정보와 인공지능을 이용하여 운전자의 얼굴을 지속적으로 촬영할 수 있도록 운전자의 얼굴을 추적한다.The photographing guide unit 200 includes a front camera 300 that photographs the driver's face and the handle. The shooting guide unit 200 tracks the driver's face so that the driver's face can be continuously photographed using the image information and artificial intelligence photographed through the front camera 300.

도 1을 참조하면 하부하우징(400)의 수용공간(S) 내부에 설치되는 후면카메라(500)가 구비된다. 후면카메라(500)는 차량의 주행상황을 지속적으로 촬영한다.Referring to FIG. 1, a rear camera 500 installed in the accommodation space S of the lower housing 400 is provided. The rear camera 500 continuously photographs the driving situation of the vehicle.

센서부(510)차량의 내부환경을 측정하는 장치이다. 센서부(510)는 실내공간의 이산화탄소 농도를 측정하여 공기를 감지하는 장치로 구비될 수 있다. 또한, 센서부(510)는 차량내부의 온도, 습도, 밝기 등을 감지할 수 있다.Sensor unit 510 is a device for measuring the internal environment of the vehicle. The sensor unit 510 may be provided as a device for sensing air by measuring the carbon dioxide concentration of the indoor space. In addition, the sensor unit 510 may detect temperature, humidity, brightness, and the like in the vehicle.

도 2는 본 발명에 따른 클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템의 계념도이다. 도 2를 참조하면, 대쉬보드로봇(900)에는 인공지능이 탑재되지 않고 클라우드 서버(700)에서 인공지능이 장착된다. 클라우드 서버(700)는 대쉬보드로봇(900)에서 수집된 다양한 영상 및 환경 정보를 분석하고 처리하며, 이를 축적하여 빅데이터로 활용하며, 안전운전을 위한 다양한 정보제공 및 대응을 위한 자료로 활용한다. 또한, 클라우드 서버(700)는 대쉬보드로봇(900)뿐 아니라 스마트폰(800)과도 연동되어 스마트폰(800)으로부터 전송된 영상정보 및 환경정보를 분석하고 처리한다. 또한, 스마트폰의 인공지능 서비스나 다양한 앱을 활용한 대화 서비스가 가능하도록 인터페이스를 제공한다.2 is a conceptual diagram of a user state recognition system using an artificial intelligence dashboard robot based on a cloud server according to the present invention. Referring to FIG. 2, the artificial intelligence is not mounted on the dashboard robot 900 but is mounted on the cloud server 700. The cloud server 700 analyzes and processes various images and environmental information collected from the dashboard robot 900, accumulates them as big data, and uses them as data for providing and responding to various information for safe driving. . In addition, the cloud server 700 is linked with not only the dashboard robot 900 but also the smart phone 800 to analyze and process the image information and environmental information transmitted from the smart phone 800. In addition, it provides an interface to enable a smartphone AI service or a chat service using a variety of apps.

도 3은 본 발명에 따른 클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템의 구성도이다. 도 3을 살펴보면, 대쉬보드로봇(900)은 주제어부(901), 영상정보수집부(920), 영상환경정보전송부(930), 분석정보수집부(940), 모션제어부(950)를 포함할 수 있다. 3 is a configuration diagram of a user state recognition system using an artificial intelligence robot robot based on a cloud server according to the present invention. Referring to FIG. 3, the dashboard robot 900 includes a main controller 901, an image information collector 920, an image environment information transmitter 930, an analysis information collector 940, and a motion controller 950. can do.

주제어부(910)는 대쉬보드로봇(900)를 제어하는 장치이다. 주제어부(910)는전면카메라(300), 후면카메라(500)로부터 전송된 영상정보를 수집하며, 센서부(510)에 의해 측정된 환경정보를 수집한다. 또한, 클라우스서버(700)로부터 전송된 운전자의 졸음정보에 따라 모션제어부(950)를 제어한다. The main controller 910 is a device for controlling the dashboard robot 900. The main control unit 910 collects image information transmitted from the front camera 300 and the rear camera 500, and collects environmental information measured by the sensor unit 510. In addition, the motion controller 950 is controlled according to the driver's drowsy information transmitted from the cloud server 700.

영상정보수집부(920)는 전면카메라(300)에 의해 촬영된 전면영상 및 후면카메라(500)를 통해 촬영된 주행영상을 저장하는 장치이다. 또한, 영상정보수집부(920)는 휴대용단말기, 바람직하게는 스마트폰의 애플리케이션과 연동될 수 있다. 이로 인해 획득된 영상데이터나 저장된 얼굴영상데이터를 무선통신으로 전송할 수 있으며, 외부에서 연결하여 확인할 수 있다.The image information collecting unit 920 is a device for storing the front image photographed by the front camera 300 and the driving image photographed by the rear camera 500. In addition, the image information collecting unit 920 may be linked with the application of the portable terminal, preferably a smartphone. As a result, the acquired image data or the stored face image data may be transmitted through wireless communication, and may be connected and confirmed from the outside.

영상환경정보전송부(930)는 전면영상, 주행영상 및 센서부(510)에 의해 측정된 내부환경정보를 무선통신망을 통해 클라우드서버(700)로 전송한다. 영상환경정보전송부(930)는 전면영상, 주행영상 및 내부환경정보를 기 설정된 주기 또는/및 영상의 변화가 생겼을 경우에 클라우드서버(700)로 전송한다.The image environment information transmitter 930 transmits the internal environment information measured by the front image, the driving image, and the sensor unit 510 to the cloud server 700 through a wireless communication network. The image environment information transmitting unit 930 transmits the front image, the driving image, and the internal environment information to the cloud server 700 when a predetermined cycle or / and a change of the image occurs.

분석정보수집부(940)는 클라우드서버(700)로부터 운전자의 감정 및 상태정보와 운전자의 졸음정보를 수신한다. 또한, 분석정보수집부(940)는 운전자의 졸음운전의 빈도, 감종 및 상태정보의 수준에 따라 운전자의 졸음을 초기, 중기 및 졸음운전단계로 분석한다. 클라우드서버(700)에 의해 분석된 운전자의 감정 및 상태정보와 운전자의 졸음정보는 추후 설명한다.The analysis information collecting unit 940 receives the driver's emotion and state information and the driver's drowsiness information from the cloud server 700. In addition, the analysis information collection unit 940 analyzes the drowsiness of the driver in the initial, middle and drowsy driving stages according to the frequency of the driver's drowsy operation, the level of the kind and the state information. The driver's emotion and state information analyzed by the cloud server 700 and the driver's drowsiness information will be described later.

모션제어부(950)는 운전자에게 시각적, 촉각적, 후각적, 청각적으로 알림을 인지시키는 알림장치가 구비된 장치이다. 모션제어부(950)는 운전자에게 촉각적으로 알림을 인지시키기 위해 상부하우징(100)의 일측에 장착되어 외부로 산소를 토출시키는 산소분사부 등을 포함할 수 있다. 또한, 운전자에게 후각적으로 알림을 인지시키기 위해 하부하우징(400)의 내측에 장착되어 하부하우징(400)의 외부로 방향제를 분사하는 방향제분사부 등을 포함할 수 있다. 운전자에게 청각적으로 알림을 인지시키기 위해 내장된 음성데이터를 재생시켜 운전자가 청각으로 재생되는 소리를 감지할 수 있도록 작동시키는 알람장치 등이 포함될 수 있다.The motion controller 950 is a device equipped with a notification device for recognizing a notification visually, tactilely, olfactoryly, or audibly to the driver. The motion controller 950 may include an oxygen spray unit mounted on one side of the upper housing 100 to discharge the oxygen to the outside in order to recognize the driver tactilely. In addition, it may include a fragrance spraying unit for spraying the fragrance to the outside of the lower housing 400 is mounted inside the lower housing 400 in order to recognize the driver olfactory notification. It may include an alarm device for operating the driver so that the driver can detect the sound reproduced by hearing by playing the built-in voice data to recognize the notification to the driver.

주제어부(910)는 운전자의 졸음 단계에 따라 모션제어부(950)를 선택적 또는 순차적으로 작동시킨다. 예를 들어, 운전자의 졸음 단계가 초기일 경우, 운전자에게 후각적 알림만 작동시킬 수 있으나, 운전자의 졸음 단계가 졸음단계일 경우는 청각적, 촉각적, 후각적 알림을 모두 발생시킬 수 있을 것이다. The main controller 910 selectively or sequentially operates the motion controller 950 according to the driver's drowsiness stage. For example, if the driver's drowsiness stage is the initial stage, the driver may activate only olfactory notification, but if the driver's drowsiness stage is the drowsy stage, it may generate an audible, tactile, and olfactory notification. .

한편, 모션제어부(920)는 운전자와 대화를 주고받을 수 있도록 운전자의 음성신호를 획득하는 마이크장치 및 음성을 출력하는 스피커장치가 포함될 수 있다.On the other hand, the motion controller 920 may include a microphone device for obtaining a voice signal of the driver and a speaker device for outputting a voice to communicate with the driver.

클라우드서버(700)는 정보수집부(710), 인공지능처리부(720), 분석정보전송부(730), 사용자정보데이터베이스(740), 정보학습처리부(750)를 포함할 수 있다. The cloud server 700 may include an information collecting unit 710, an artificial intelligence processing unit 720, an analysis information transmitting unit 730, a user information database 740, and an information learning processing unit 750.

정보수집부(710)는 대쉬보드로봇(900)으로부터 전면영상, 주행영상 및 내부환경정보를 수신하는 장치이다. 또한, 정보수집부(710)는 전면영상내 운전자의 최초안면영상을 템플리트데이터로 생성한다. 템플리트데이터는 영상 속에 촬영한 데이터를 통해 운전자의 안면을 구성하는 모든 특징 요소들을 추출하여 수치화한 데이터를 의미한다. 즉, 졸음운전 인식을 위한 눈의 깜빡임, 눈꺼풀의 크기, 얼굴의 각도, 얼굴의 흔들림 등을 분석하기 위한 데이터에 해당하며, 딥러닝을 통해 운전자의 상태를 판단할 수 있도록 사전에 학습된 인공지능으로 운전자의 졸음운전 여부를 판단하기 위한 데이터로 활용된다.The information collecting unit 710 is a device that receives the front image, the driving image and the internal environment information from the dashboard robot 900. In addition, the information collecting unit 710 generates the first face image of the driver in the front image as template data. Template data refers to data obtained by extracting and digitizing all the feature elements constituting the driver's face through data captured in the image. That is, it corresponds to data for analyzing eye blinking, eyelid size, face angle, and face shaking for recognition of drowsy driving, and AI previously learned to determine driver's condition through deep learning. It is used as data to determine whether the driver is drowsy driving.

인공지능처리부(720)는 템플리트데이터와 전면영상내 안면영상을 비교 및 분석하여 운전자의 감정 및 상태를 판단하며, 전면영상내 차량의 핸들영상, 주행영상을 통해 운전자의 졸음을 분석하는 장치이다. 인공지능처리부(720)는 딥러닝 기반으로 운전자의 안면부 영상으로 운전자의 감정 및 상태를 판단하며, 차선변화, 핸들의 움직임을 포함하여 좀더 정확하게 운전자의 졸음여부를 판단한다. 대쉬보드 로봇(900)은 운전자의 얼굴인식뿐만 아니라, 차량의 주행속도, 주행방향 움직임 등의 다양한 요소 등을 통해 졸음운전 여부를 판단할 수 있고, 다양한 방법을 통해 운전자의 졸음운전을 예방할 수 있는 이점이 있다. The artificial intelligence processing unit 720 compares and analyzes the template data and the face image in the front image to determine the driver's emotion and state, and analyzes the driver's drowsiness through the steering image and the driving image of the vehicle in the front image. The artificial intelligence processor 720 determines the driver's emotion and state based on the deep learning based on the driver's facial part image, and determines whether the driver is drowsy more accurately, including lane change and steering wheel movement. The dashboard robot 900 may determine not only drowsy driving through various factors such as the vehicle's driving speed and driving direction movement, as well as the driver's face recognition, and may prevent the driver's drowsy driving through various methods. There is an advantage.

분석정보전송부(730)는 분석된 운전자의 졸음정보를 대쉬보드로봇(900)으로 전송한다. 대쉬보드로봇(900)는 수신된 운전자의 졸음정보를 통해 운전사의 상태를 인식하게 된다. The analysis information transmitter 730 transmits the analyzed driver's drowsy information to the dashboard robot 900. The dashboard robot 900 recognizes the driver's state through the received drowsy information of the driver.

사용자정보데이터베이스(740)는 대쉬보드로봇로부터 전송된 전면영상, 주행영상 및 내부환경정보를 바탕으로 운전자의 누적정보를 저장하는 장치이다.The user information database 740 is a device that stores the accumulated information of the driver based on the front image, the driving image, and the internal environment information transmitted from the dashboard robot.

정보학습처리부(750)는 사용자정보데이터베이스(740)에 저장된 누적정보를 바탕으로 운전자의 졸음판단의 정확도를 증가시키기 위한 장치이다. 인공지능을 이용한 운전자의 상태정보가 많이 누적될 수록 판단 정확도는 높아지게 된다.The information learning processor 750 is an apparatus for increasing the accuracy of the driver's drowsiness determination based on the accumulated information stored in the user information database 740. As the state information of the driver using artificial intelligence accumulates, judgment accuracy becomes higher.

정보학습처리부(750)는 수신된 누적정보를 축적하여 빅데이터로 활용하며, 안전운전을 위한 다양한 정보제공 및 대응을 위한 자료로 활용한다.The information learning processing unit 750 accumulates the received accumulated information and uses it as big data, and uses it as data for providing and providing various information for safe driving.

도 4는 본 발명에 따른 대쉬보드로봇의 내부 계층 구조를 나타낸 것이다. 도 4를 살펴보면, 대쉬보드로봇(900)는 독립적으로 행동을 제어하거나, 정보를 기반으로 행동을 제어하는 모션모듈로 구성된다. 또한, 환경 및 영상정보를 수집 및 전송하는 통신모듈과 영상을 촬영하는 영상센서, 환경을 측정하는 환경센서, 사용자의 움직임을 감지하는 모션인터페이스로 구성되는 센서모듈로 구성된다.Figure 4 shows the internal hierarchy of the dashboard robot according to the present invention. Referring to FIG. 4, the dashboard robot 900 is configured as a motion module that independently controls behavior or controls behavior based on information. In addition, the sensor module includes a communication module for collecting and transmitting environment and image information, an image sensor for capturing images, an environment sensor for measuring the environment, and a motion interface for detecting a user's movement.

100 : 상부하우징 200 : 촬영안내부
300 : 전면카메라 400 : 하부하우징
500 : 후면카메라 700 : 클라우드서버
800 : 스마트폰 900 : 데쉬보드로봇
100: upper housing 200: shooting guide
300: front camera 400: lower housing
500: rear camera 700: cloud server
800: smartphone 900: dashboard robot

Claims (3)

운전자의 안면 및 차량의 핸들을 촬영하는 전면카메라; 차량의 주행상황을 촬영하는 후면카메라; 차량의 내부환경을 측정하는 센서부; 상기 전면카메라에 의해 촬영된 전면영상 및 상기 후면카메라를 통해 촬영된 주행영상을 저장하는 영상정보수집부, 및 상기 전면영상, 주행영상 및 센서부에 의해 측정된 내부환경정보를 무선통신망을 통해 기 설정된 주기마다 외부로 전송하는 영상환경정보전송부; 운전자의 졸음운전의 빈도, 감정 및 상태정보의 수준에 따라 운전자의 졸음을 초기, 중기 및 졸음운전단계로 분석하는 분석정보수집부; 상기 운전자에게 시각적, 촉각적, 후각적, 청각적으로 알림을 인지시키는 알림장치가 구비된 모션제어부; 및 상기 운전자의 졸음 단계에 따라 상기 모션제어부를 선택적 또는 순차적으로 작동시키는 주제어부;가 포함된 대쉬보드로봇 및
상기 대쉬보드로봇으로부터 상기 전면영상, 주행영상 및 내부환경정보를 수신 및 상기 전면영상내 상기 운전자의 최초안면영상을 템플리트데이터로 생성하는 정보수집부; 및 상기 템플리트데이터와 상기 전면영상내 안면영상을 비교 및 분석하여 상기 운전자의 감정 및 상태를 판단하며, 상기 전면영상내 상기 차량의 핸들영상과 상기 주행영상을 통해 차량의 주행속도, 주행방향 움직임의 요소를 식별하여 상기 운전자의 졸음을 분석하는 인공지능처리부; 및 상기 분석된 운전자의 졸음정보를 상기 대쉬보드로봇으로 전송하는 분석정보전송부가 포함된 클라우드서버를 포함하는 것을 특징으로 하는 클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템.
A front camera for photographing a driver's face and a steering wheel of the vehicle; A rear camera for photographing driving conditions of the vehicle; Sensor unit for measuring the internal environment of the vehicle; Image information collecting unit for storing the front image photographed by the front camera and the driving image photographed by the rear camera, and the internal environment information measured by the front image, the driving image and the sensor through the wireless communication network Image environment information transmission unit for transmitting to the outside every set period; An analysis information collecting unit for analyzing the driver's drowsiness in the initial, middle and drowsy driving stages according to the frequency of the driver's drowsy driving, the emotion and the state information; A motion control unit including a notification device for recognizing a notification visually, tactilely, olfactoryly, and aurally to the driver; And a main controller for selectively or sequentially operating the motion control unit according to the drowsiness step of the driver.
An information collecting unit which receives the front image, the driving image and the internal environment information from the dashboard robot and generates the first face image of the driver in the front image as template data; And comparing and analyzing the template data and the face image in the front image to determine the emotion and state of the driver, and determine the driving speed and the driving direction of the vehicle through the steering image and the driving image of the vehicle in the front image. An artificial intelligence processor for identifying elements to analyze sleepiness of the driver; And a cloud server including an analysis information transmitting unit for transmitting the analyzed driver's drowsy information to the dashboard robot.
삭제delete 제1항에 있어서, 상기 클라우드서버는
상기 대쉬보드로봇로부터 전송된 상기 전면영상, 주행영상 및 내부환경정보를 바탕으로 운전자의 누적정보를 저장하는 사용자정보데이터베이스; 및
상기 사용자정보데이터베이스에 저장된 누적정보를 바탕으로 운전자의 졸음판단의 정확도를 증가시키기 위한 정보학습처리부를 포함하는 것을 특징으로 하는 클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템.
The method of claim 1, wherein the cloud server
A user information database for storing cumulative information of a driver based on the front image, the driving image, and the internal environment information transmitted from the dashboard robot; And
A user state recognition system using an intelligent dashboard robot based on a cloud server, characterized in that it comprises an information learning processing unit for increasing the accuracy of the driver's drowsiness determination based on the accumulated information stored in the user information database.
KR1020170163208A 2017-11-30 2017-11-30 Artificial intelligence dashboard robot base on cloud server for recognizing states of a user KR102051136B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170163208A KR102051136B1 (en) 2017-11-30 2017-11-30 Artificial intelligence dashboard robot base on cloud server for recognizing states of a user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170163208A KR102051136B1 (en) 2017-11-30 2017-11-30 Artificial intelligence dashboard robot base on cloud server for recognizing states of a user

Publications (2)

Publication Number Publication Date
KR20190063986A KR20190063986A (en) 2019-06-10
KR102051136B1 true KR102051136B1 (en) 2020-01-08

Family

ID=66848851

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170163208A KR102051136B1 (en) 2017-11-30 2017-11-30 Artificial intelligence dashboard robot base on cloud server for recognizing states of a user

Country Status (1)

Country Link
KR (1) KR102051136B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11396304B2 (en) 2019-06-18 2022-07-26 Lg Electronics Inc. Vehicle control method
KR102338067B1 (en) * 2019-12-26 2021-12-10 경북대학교 산학협력단 Driver monitoring system for using interest area
KR102403887B1 (en) * 2020-11-26 2022-05-30 동의대학교 산학협력단 System and method for protecting drowsy driving
KR20230090004A (en) 2021-12-14 2023-06-21 주식회사 켐얼라이언스 Electrolyte for secondary battery, manufacturing method thereof, and secondary battery comprising same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100778059B1 (en) 2007-05-22 2007-11-21 (주)텔릭스타 Apparatus and system blowing out dozing off motorways using facial recognition technology
WO2009145401A1 (en) 2008-05-26 2009-12-03 Piezoelectric Technology Co., Ltd. Pan/tilt apparatus
KR20150061668A (en) * 2013-11-27 2015-06-05 주식회사 디온테크 An apparatus for warning drowsy driving and the method thereof
KR101912703B1 (en) * 2015-10-29 2019-01-14 주식회사 세코닉스 3-channel monitoring apparatus for state of vehicle and method thereof
KR20170093569A (en) * 2016-02-05 2017-08-16 울산과학기술원 Method and apparatus for providing combined monitoring system

Also Published As

Publication number Publication date
KR20190063986A (en) 2019-06-10

Similar Documents

Publication Publication Date Title
KR102051136B1 (en) Artificial intelligence dashboard robot base on cloud server for recognizing states of a user
US10223603B1 (en) Apparatuses, systems, and methods for determining when a vehicle occupant is using a mobile telephone
WO2019232972A1 (en) Driving management method and system, vehicle-mounted intelligent system, electronic device and medium
CN105488957B (en) Method for detecting fatigue driving and device
US11223381B2 (en) Phone docking station mounted on a vehicle for enhanced driving safety
US10783360B1 (en) Apparatuses, systems and methods for vehicle operator gesture recognition and transmission of related gesture data
US11897483B2 (en) Apparatuses, systems and methods for determining distracted drivers associated with vehicle driving routes
WO2018046015A1 (en) Alarm method, device and terminal for vehicle
US10282624B1 (en) Apparatuses, systems, and methods for determining when a vehicle operator is texting while driving
US10445604B1 (en) Apparatuses, systems and methods for detecting various actions of a vehicle operator
US20180204078A1 (en) System for monitoring the state of vigilance of an operator
CN212098749U (en) Intelligent system and electronic module
US10943136B1 (en) Apparatuses, systems and methods for generating a vehicle driver signature
US11423671B1 (en) Apparatuses, systems, and methods for detecting vehicle occupant actions
US20240169744A1 (en) Apparatuses, systems and methods for generation and transmission of vehicle operation mode data
US20240096116A1 (en) Devices and methods for detecting drowsiness of drivers of vehicles
US10452933B1 (en) Apparatuses, systems and methods for generating a vehicle driver model for a particular vehicle
CN115720555A (en) Method and system for improving user alertness in an autonomous vehicle
US20220172494A1 (en) Apparatuses, systems and methods for generating a vehicle driver signature
CN113506436A (en) System and method for monitoring and detecting whether driver plays mobile phone in vehicle
CN112307920A (en) High-risk work-type operator behavior early warning device and method
CN115320626B (en) Danger perception capability prediction method and device based on human-vehicle state and electronic equipment
US11321951B1 (en) Apparatuses, systems and methods for integrating vehicle operator gesture detection within geographic maps
CN113276869A (en) Device and method for automatically detecting that driver plays mobile phone
WO2022241598A1 (en) Device and method for automatically detecting mobile phone usage of driver

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant