KR20220032074A - Driver behavior detection method, apparatus, electronic device, storage medium and program - Google Patents

Driver behavior detection method, apparatus, electronic device, storage medium and program Download PDF

Info

Publication number
KR20220032074A
KR20220032074A KR1020227003906A KR20227003906A KR20220032074A KR 20220032074 A KR20220032074 A KR 20220032074A KR 1020227003906 A KR1020227003906 A KR 1020227003906A KR 20227003906 A KR20227003906 A KR 20227003906A KR 20220032074 A KR20220032074 A KR 20220032074A
Authority
KR
South Korea
Prior art keywords
hand
steering wheel
driver
detection
detection result
Prior art date
Application number
KR1020227003906A
Other languages
Korean (ko)
Inventor
페이 왕
천 첸
Original Assignee
상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드 filed Critical 상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드
Publication of KR20220032074A publication Critical patent/KR20220032074A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06K9/6268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 출원의 실시예에서는 운전자 행위 검출 방법, 장치, 전자 디바이스, 컴퓨터 저장 매체 및 컴퓨터 프로그램을 제공한다. 상기 방법은, 캐빈 내 운전 위치 영역의 검출될 이미지를 획득하는 단계; 상기 검출될 이미지에 대하여 검출을 수행하여, 스티어링 휠 검출 결과 및 손 검출 결과를 포함하는 목표 검출 결과를 얻는 단계; 상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하는 단계; 및 상기 운전자의 운전 행위 카테고리가 위험 운전일 때 경고 메시지를 발송하는 단계를 포함한다.Embodiments of the present application provide a method, an apparatus, an electronic device, a computer storage medium, and a computer program for detecting a driver's behavior. The method comprises: acquiring an image to be detected of a driving position area within the cabin; performing detection on the to-be-detected image to obtain a target detection result including a steering wheel detection result and a hand detection result; determining a driving behavior category of the driver according to the target detection result; and sending a warning message when the driver's driving behavior category is dangerous driving.

Description

운전자 행위 검출 방법, 장치, 전자 디바이스, 저장 매체 및 프로그램Driver behavior detection method, apparatus, electronic device, storage medium and program

[관련 출원의 교차 인용][Cross Citation of Related Applications]

본 출원은 2020년 8월 7일 제출되고 출원번호가 202010790208.3인 중국 특허출원을 기반으로 제출되고, 상기 중국 특허출원의 우선권을 주장하며, 상기 중국 특허출원의 내용 전부는 참조로서 본 출원에 인용된다.This application is filed on the basis of the Chinese patent application filed on August 7, 2020 and with an application number of 202010790208.3, claiming the priority of the Chinese patent application, the entire content of the Chinese patent application is incorporated herein by reference. .

[기술분야][Technical field]

본 출원은 딥러닝 기술분야에 관한 것으로, 구체적으로 운전자 행위 검출 방법, 장치, 전자 디바이스, 컴퓨터 저장 매체 및 컴퓨터 프로그램에 관한 것이다.This application relates to the field of deep learning technology, and more specifically, to a method, an apparatus, an electronic device, a computer storage medium, and a computer program for detecting a driver's behavior.

차량이 신속하게 발달됨에 따라 차량은 사용자 외출 시의 중요한 교통 도구로 되었고, 이로 인해 차량 안전주행이 현재 자동차 산업의 중요한 과제 중 하나가 되었다. 차량 안전주행은 운전자의 운전 행위, 도로 상황, 기상 상황 등과 같은 다양한 요소에 의해 결정된다.With the rapid development of the vehicle, the vehicle has become an important transportation tool when users go out, and therefore, safe driving of the vehicle has become one of the important tasks of the current automobile industry. Safe driving of a vehicle is determined by various factors such as a driver's driving behavior, road conditions, and weather conditions.

일반적으로, 위험한 운전 행위는 대부분의 교통사고를 초래하는 주요 요인 중 하나이다. 따라서, 주행 안전성을 향상시키고, 승객 및 운전자의 안전을 보장하기 위해 운전자의 운전 행위를 검출할 수 있다.In general, dangerous driving behavior is one of the main factors that cause most traffic accidents. Accordingly, it is possible to detect the driving behavior of the driver to improve driving safety and ensure the safety of passengers and drivers.

본 출원의 실시예에서는 적어도 하나의 운전자 행위 검출 방법, 장치, 전자 디바이스, 컴퓨터 저장 매체 및 컴퓨터 프로그램을 제공한다.Embodiments of the present application provide at least one method, apparatus, electronic device, computer storage medium, and computer program for detecting driver behavior.

본 출원의 실시예에서는 운전자 행위 검출 방법을 제공하는 바, 상기 방법은,An embodiment of the present application provides a method for detecting a driver's behavior, the method comprising:

캐빈 내 운전 위치 영역의 검출될 이미지를 획득하는 단계;acquiring an image to be detected of a driving position area within the cabin;

상기 검출될 이미지에 대하여 검출을 수행하여, 스티어링 휠 검출 결과 및 손 검출 결과를 포함하는 목표 검출 결과를 얻는 단계;performing detection on the to-be-detected image to obtain a target detection result including a steering wheel detection result and a hand detection result;

상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하는 단계; 및determining a driving behavior category of the driver according to the target detection result; and

상기 운전자의 운전 행위 카테고리가 위험 운전일 때 경고 메시지를 발송하는 단계를 포함한다.and sending a warning message when the driving behavior category of the driver is dangerous driving.

상기 방법을 이용하여, 획득된 운전 위치 영역의 검출될 이미지에 대하여 검출을 수행하여, 스티어링 휠 검출 결과 및 손 검출 결과를 포함하는 목표 검출 결과를 얻는다. 또한 목표 검출 결과를 통해 운전자의 운전 행위 카테고리를 결정하고, 운전자의 운전 행위 카테고리가 위험 운전일 때 경고 메시지를 발송하여 운전자의 운전 행위의 검출을 구현함으로써, 운전자에게 안전 주의를 시키는 데에 편리하게 하며 차량 운전의 안전성을 향상시킨다.By using the above method, detection is performed on the image to be detected of the obtained driving position area to obtain a target detection result including a steering wheel detection result and a hand detection result. In addition, the driver's driving behavior category is determined based on the target detection result, and when the driver's driving behavior category is dangerous driving, a warning message is sent to realize the detection of the driver's driving behavior, which is convenient to give the driver safety attention. and improve vehicle driving safety.

본 출원의 일부 실시예에서, 상기 스티어링 휠 검출 결과에는 스티어링 휠이 포함되고 상기 손 검출 결과에는 손이 포함될 때, 상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는,In some embodiments of the present application, when the steering wheel detection result includes a steering wheel and the hand detection result includes a hand, determining the driving behavior category of the driver according to the target detection result includes:

상기 스티어링 휠 검출 결과 및 상기 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계; 및determining a positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result; and

상기 위치 관계에 따라 운전자의 운전 행위 카테고리를 결정하는 단계를 포함한다.and determining a driving behavior category of the driver according to the positional relationship.

본 출원의 일부 실시예에서, 위치 관계에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는,In some embodiments of the present application, the step of determining the driving behavior category of the driver according to the location relationship includes:

상기 위치 관계가 운전자의 손이 스티어링 휠을 잡고 있음을 나타내는 경우, 상기 운전자의 운전 행위 카테고리가 안전 운전인 것으로 결정하는 단계를 포함한다.and when the positional relationship indicates that the driver's hand is holding the steering wheel, determining that the driver's driving behavior category is safe driving.

본 출원의 일부 실시예에서, 위치 관계에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는,In some embodiments of the present application, the step of determining the driving behavior category of the driver according to the location relationship includes:

상기 위치 관계가 운전자의 양손이 스티어링 휠을 이탈했음을 나타내는 경우, 상기 운전자의 운전 행위 카테고리가 위험 운전인 것으로 결정하는 단계를 포함한다.and determining that the driving behavior category of the driver is dangerous driving when the positional relationship indicates that both hands of the driver have left the steering wheel.

본 출원의 일부 실시예에서, 상기 스티어링 휠 검출 결과 및 상기 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계는,In some embodiments of the present application, the determining of the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result includes:

상기 손 검출 결과에 한쪽 손을 포함하는 경우, 만일 상기 손 검출 결과 중 손에 대응하는 검출 박스가 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정하고, 만일 상기 손 검출 결과 중 손에 대응하는 검출 박스가 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하지 않으면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하는 단계를 포함한다.When one hand is included in the hand detection result, if there is a region where a detection box corresponding to a hand in the hand detection result overlaps a detection box corresponding to the steering wheel in the steering wheel detection result, the steering wheel and the hand The positional relationship between the two determines that the driver's hand is holding the steering wheel, and if a detection box corresponding to the hand in the hand detection result overlaps with a detection box corresponding to the steering wheel in the steering wheel detection result does not exist. otherwise, determining that the positional relationship between the steering wheel and the hand is that the driver's hands are off the steering wheel.

본 출원의 일부 실시예에서, 상기 스티어링 휠 검출 결과 및 상기 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계는,In some embodiments of the present application, the determining of the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result includes:

상기 손 검출 결과에 양쪽 손을 포함하는 경우, 만일 상기 손 검출 결과 중 양쪽 손에 대응하는 검출 박스가 각각 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하지 않으면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하고, 만일 상기 손 검출 결과 중 적어도 한쪽 손에 대응하는 검출 박스가 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정하는 단계를 포함한다.When both hands are included in the hand detection result, if a detection box corresponding to both hands in the hand detection result does not overlap with a detection box corresponding to the steering wheel in the steering wheel detection result, the steering wheel The positional relationship between the hand and the hand determines that both hands of the driver leave the steering wheel, and if a detection box corresponding to at least one hand among the hand detection results is a detection box corresponding to the steering wheel among the steering wheel detection results, and determining that the positional relationship between the steering wheel and the hand is that the driver's hand is holding the steering wheel if an overlapping area exists.

본 출원의 일부 실시예에서, 상기 스티어링 휠 검출 결과 및 상기 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계는,In some embodiments of the present application, the determining of the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result includes:

상기 검출될 이미지를 기반으로 상기 검출될 이미지에 대응하는 중간 특징 맵을 생성하는 단계;generating an intermediate feature map corresponding to the to-be-detected image based on the to-be-detected image;

상기 중간 특징 맵에 대하여 콘볼루션 처리를 적어도 1회 수행하여, 상기 중간 특징 맵에 대응하는 두 채널의 분류 특징 맵을 생성하는 단계 - 상기 두 채널의 분류 특징 맵 중의 각 채널 특징 맵은 하나의 손 카테고리에 대응함 -;performing convolution processing on the intermediate feature map at least once to generate a classification feature map of two channels corresponding to the intermediate feature map; Corresponds to category -;

상기 손 검출 결과 중 손에 대응하는 검출 박스 정보가 나타내는 중심점 위치 정보를 기반으로 상기 분류 특징 맵에서 상기 중심점 위치 정보에 매칭되는 특징 위치의 두 개의 특징값을 추출하고; 두 개의 특징값 중 최대 특징값을 선택하고, 상기 분류 특징 맵 중 상기 최대 특징값에 대응하는 채널 특징 맵의 카테고리를 상기 중심점 위치 정보에 대응하는 카테고리로 결정하는 단계; 및extracting two feature values of a feature location matching the center point location information from the classification feature map based on center point location information indicated by detection box information corresponding to a hand among the hand detection results; selecting a maximum feature value from among two feature values, and determining a category of a channel feature map corresponding to the maximum feature value among the classification feature maps as a category corresponding to the center point location information; and

상기 손에 대응하는 검출 박스 정보가 나타내는 각 중심점 위치 정보에 대응하는 카테고리를 기반으로 상기 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계를 포함한다.and determining a positional relationship between the steering wheel and the hand based on a category corresponding to each center point position information indicated by the detection box information corresponding to the hand.

상기 실시형태에서, 스티어링 휠 검출결과를 결정하고 중간 특징 맵에 대하여 콘볼루션 처리를 적어도 1회 수행하여 분류 특징 맵을 생성한 후, 생성된 운전자 손의 중심점 위치 정보를 결합하여, 스티어링 휠과 손 사이의 위치 관계를 보다 정확하게 결정할 수 있다.In the above embodiment, after determining the steering wheel detection result and performing convolution processing on the intermediate feature map at least once to generate a classification feature map, the generated center point position information of the driver's hand is combined, and the steering wheel and the hand The positional relationship between them can be determined more accurately.

본 출원의 일부 실시예에서, 상기 손에 대응하는 검출 박스 정보가 나타내는 각 중심점 위치 정보에 대응하는 카테고리를 기반으로 상기 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계는,In some embodiments of the present application, the determining of the positional relationship between the steering wheel and the hand based on a category corresponding to each center point position information indicated by the detection box information corresponding to the hand comprises:

상기 손에 대응하는 검출 박스 정보에 하나의 중심점 위치 정보를 포함하는 경우, 상기 중심점 위치 정보에 대응하는 카테고리를 스티어링 휠과 손 사이의 위치 관계로 결정하는 단계; 및determining a category corresponding to the center point position information as a positional relationship between the steering wheel and the hand when the detection box information corresponding to the hand includes one center point position information; and

상기 손에 대응하는 검출 박스 정보에 두 개의 중심점 위치 정보를 포함하며 상기 두 개의 중심점 위치 정보에 대응하는 카테고리가 운전자의 손이 스티어링 휠을 이탈한 카테고리인 경우, 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하고, 상기 두 개의 중심점 위치 정보에 대응하는 카테고리 중 적어도 하나의 중심점 위치 정보에 대응하는 카테고리가 운전자의 손이 스티어링 휠을 잡고 있는 카테고리인 경우, 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정하는 단계를 포함한다.When the detection box information corresponding to the hand includes two center point location information, and the category corresponding to the two center point location information is a category in which the driver's hand leaves the steering wheel, the position between the steering wheel and the hand The relationship determines that both hands of the driver leave the steering wheel, and when the category corresponding to at least one center point location information among the categories corresponding to the two center point location information is a category in which the driver's hands are holding the steering wheel, determining that the positional relationship between the steering wheel and the hand is that the driver's hand is holding the steering wheel.

본 출원의 일부 실시예에서, 상기 스티어링 휠 검출 결과에 스티어링 휠을 포함하고 상기 손 검출 결과에 손을 포함하지 않을 때 상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는,In some embodiments of the present application, when the steering wheel is included in the steering wheel detection result and the hand is not included in the hand detection result, determining the driving behavior category of the driver according to the target detection result includes:

상기 목표 검출 결과에 따라 상기 운전자의 운전 행위 카테고리가 위험 운전인 것으로 결정하는 단계를 포함한다.and determining that the driving behavior category of the driver is dangerous driving according to the target detection result.

본 출원의 일부 실시예에서, 상기 검출될 이미지에 대하여 검출을 수행하여 목표 검출 결과를 얻는 단계는,In some embodiments of the present application, the step of obtaining a target detection result by performing detection on the image to be detected includes:

상기 검출될 이미지를 기반으로 상기 검출될 이미지에 대응하는 중간 특징 맵을 생성하는 단계;generating an intermediate feature map corresponding to the to-be-detected image based on the to-be-detected image;

상기 중간 특징 맵에 대하여 목표 콘볼루션 처리를 적어도 1회 수행하여, 상기 중간 특징 맵에 대응하는 복수 채널의 검출 특징 맵을 생성하는 단계;performing a target convolution process on the intermediate feature map at least once to generate a detection feature map of a plurality of channels corresponding to the intermediate feature map;

활성화 함수를 이용하여 복수 채널의 상기 검출 특징 맵 중 위치를 나타내는 목표 채널 특징 맵의 각 특징값에 대하여 특징값 변환 처리를 수행하여, 변환 후의 목표 채널 특징 맵을 생성하는 단계;generating a target channel feature map after transformation by performing a feature value conversion process on each feature value of a target channel feature map indicating a location among the detection feature maps of a plurality of channels using an activation function;

미리 설정된 풀링 사이즈 및 풀링 스트라이드에 따라 변환 후의 목표 채널 특징 맵에 대하여 최대 풀링 처리를 수행하여 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 얻는 단계 - 상기 위치 인덱스는 상기 변환 후의 목표 채널 특징 맵에서의 상기 풀링값의 위치를 식별하는 데에 사용됨 -;Obtaining a plurality of pooling values and a position index corresponding to each pooling value among the plurality of pooling values by performing maximum pooling processing on the target channel feature map after transformation according to a preset pooling size and pooling stride - The position index is the used to identify the location of the pooling value in the target channel feature map after transformation;

복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 목표 검출 박스 정보를 생성하는 단계; 및generating target detection box information based on a plurality of pooling values and a location index corresponding to each pooling value among the plurality of pooling values; and

상기 목표 검출 박스 정보에 따라 상기 목표 검출 결과를 결정하는 단계를 포함한다.and determining the target detection result according to the target detection box information.

상기 실시 형태에 있어서, 목표 채널 특징 맵에 대하여 최대 풀링 처리를 수행함으로써 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 얻고 목표 검출 박스 정보를 생성함으로써, 목표 검출 결과를 생성하는 데에 데이터 지원을 제공한다.In the above embodiment, by performing maximum pulling processing on the target channel feature map to obtain a plurality of pooling values and a position index corresponding to each pooling value among the plurality of pooling values, and by generating target detection box information, the target detection result is determined Provides data support for creation.

본 출원의 일부 실시예에서, 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 상기 목표 검출 박스 정보를 생성하는 단계는,In some embodiments of the present application, generating the target detection box information based on a plurality of pooling values and a location index corresponding to each pooling value among the plurality of pooling values includes:

상기 복수의 풀링값 중 적어도 하나의 풀링값이 설정된 풀링 임계값보다 큰 경우, 상기 복수의 풀링값 및 풀링 임계값을 기반으로 상기 복수의 풀링값 중에서 상기 목표 검출 박스의 중심점의 목표 풀링값을 결정하는 단계; 및When at least one pooling value among the plurality of pooling values is greater than a set pooling threshold, a target pooling value of the center point of the target detection box is determined from among the plurality of pooling values based on the plurality of pooling values and a pooling threshold to do; and

상기 목표 풀링값에 대응하는 위치 인덱스를 기반으로 상기 목표 검출 박스 정보를 생성하는 단계를 포함한다.and generating the target detection box information based on a location index corresponding to the target pooling value.

상기 실시형태에서, 복수의 풀링값 중 풀링 임계값보다 큰 풀링값을 스티어링 휠 또는 운전자 손의 목표 검출 박스의 중심점에 속하는 목표 풀링값으로 결정하고, 목표 풀링값에 대응하는 위치 인덱스를 기반으로 스티어링 휠 또는 운전자 손의 적어도 하나의 목표 검출 박스 정보를 보다 정확하게 생성한다.In the above embodiment, a pulling value larger than a pulling threshold value among a plurality of pulling values is determined as a target pulling value belonging to a center point of a target detection box of a steering wheel or a driver's hand, and steering is based on a position index corresponding to the target pulling value At least one target detection box information of a wheel or a driver's hand is more accurately generated.

본 출원의 일부 실시예에서, 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 상기 목표 검출 박스 정보를 생성하는 단계는,In some embodiments of the present application, generating the target detection box information based on a plurality of pooling values and a location index corresponding to each pooling value among the plurality of pooling values includes:

상기 복수의 풀링값이 설정된 풀링 임계값보다 작거나 같을 경우, 상기 목표 검출 박스 정보가 비어 있는 것으로 결정하는 단계를 포함한다.and determining that the target detection box information is empty when the plurality of pooling values are less than or equal to a set pooling threshold.

이하 장치, 전자 디바이스 등의 효과에 대한 설명은 상기 방법에 대한 설명을 참조하며, 여기서는 중복 설명을 생략한다.Hereinafter, for descriptions of the effects of the apparatus, the electronic device, and the like, reference is made to the description of the method, and a redundant description will be omitted herein.

본 출원의 실시예에서 운전자 행위 검출 장치를 제공하는 바, 상기 운전자 행위 검출 장치는,An embodiment of the present application provides an apparatus for detecting a driver's behavior, wherein the apparatus for detecting a driver's behavior includes:

캐빈 내 운전 위치 영역의 검출될 이미지를 획득하도록 구성되는 획득 모듈;an acquiring module, configured to acquire an image to be detected of a driving position area within the cabin;

상기 검출될 이미지에 대하여 검출을 수행하여, 스티어링 휠 검출 결과 및 손 검출 결과를 포함하는 목표 검출 결과를 얻도록 구성되는 검출 모듈;a detection module, configured to perform detection on the to-be-detected image to obtain a target detection result including a steering wheel detection result and a hand detection result;

상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하도록 구성되는 결정 모듈; 및a determining module, configured to determine a driving behavior category of the driver according to the target detection result; and

상기 운전자의 운전 행위 카테고리가 위험 운전일 때 경고 메시지를 발송하도록 구성되는 경고 모듈을 포함한다.and a warning module, configured to send a warning message when the driving behavior category of the driver is dangerous driving.

본 출원의 실시예에서 프로세서, 메모리 및 버스를 포함하는 전자 디바이스를 제공하는 바, 상기 메모리에는 상기 프로세서가 실행할 수 있는 기기 판독 가능 명령이 저장되어 있고, 전자 디바이스가 실행될 경우 상기 프로세서는 버스를 통해 상기 메모리와 통신하며, 상기 기기 판독 가능 명령이 상기 프로세서에 의해 실행될 때 상기 어느 한 실시형태에 따른 운전자 행위 검출 방법을 실행한다.An embodiment of the present application provides an electronic device including a processor, a memory, and a bus, wherein the memory stores machine-readable instructions executable by the processor, and when the electronic device is executed, the processor operates through the bus In communication with the memory, when the machine-readable instruction is executed by the processor, the method for detecting driver behavior according to any one of the above embodiments is executed.

본 출원의 실시예에서 컴퓨터 판독 가능 저장 매체를 제공하는 바, 상기 컴퓨터 판독 가능 저장 매체에는 컴퓨터 프로그램이 저장되어 있고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행 시 상기 어느 한 실시형태에 따른 운전자 행위 검출 방법을 실행한다.An embodiment of the present application provides a computer-readable storage medium, wherein a computer program is stored in the computer-readable storage medium, and when the computer program is executed by a processor, the method for detecting driver behavior according to any one of the above embodiments run

본 출원의 실시예에서 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램을 더 제공하는 바, 상기 컴퓨터 판독 가능 코드가 전자 디바이스에서 실행 시, 상기 전자 디바이스 중의 프로세서는 상기 어느 한 실시형태에 따른 운전자 행위 검출 방법을 실행하는 데에 사용된다.An embodiment of the present application further provides a computer program including a computer readable code, wherein when the computer readable code is executed in an electronic device, a processor in the electronic device is configured to detect a driver's behavior according to any one of the above embodiments used to run

본 출원의 상기 목적, 특징 및 장점을 보다 쉽게 이해하도록 하기 위해, 이하 바람직한 실시예를 첨부된 도면에 결부시켜 상세히 설명한다.In order to make it easier to understand the above objects, features and advantages of the present application, preferred embodiments will be described in detail below in conjunction with the accompanying drawings.

본 출원의 실시예의 기술방안을 보다 명확히 설명하기 위해, 이하 실시예에 사용되는 도면에 대하여 간단히 소개한다. 여기서의 도면은 명세서에 병합되어 본 명세서의 일부분을 구성하며, 이 도면들은 본 출원의 실시예에 적합하고 명세서와 함께 본 출원을 설명하는 데에 사용되는 기술방안을 도시한다. 이하 도면은 단지 본 출원의 일부 실시예를 도시한 것으로서 범위에 대한 한정으로 간주해서는 안 되며, 당업자는 창조적 노력이 없이 이들 도면에 따라 기타 관련된 도면을 획득할 수도 있다는 점을 이해해야 한다.
도 1a는 본 출원의 실시예에 따른 하나의 응용 시나리오의 모식도를 도시한다;
도 1b는 본 출원의 실시예에서 제공하는 운전자 행위 검출 방법의 개략 흐름도를 도시한다;
도 2는 본 출원의 실시예에서 제공하는 운전자 행위 검출 방법 중 검출될 이미지에 대하여 검출을 수행하여 목표 검출 결과를 얻는 구체적인 방법의 개략 흐름도를 도시한다;
도 3은 본 출원의 실시예에서 제공하는 운전자 행위 검출 장치의 구조 모식도를 도시한다;
도 4는 본 출원의 실시예에서 제공하는 전자 디바이스의 구조 모식도를 도시한다.
In order to more clearly explain the technical solutions of the embodiments of the present application, the drawings used in the embodiments will be briefly introduced below. BRIEF DESCRIPTION OF THE DRAWINGS The drawings herein are incorporated in and constitute a part of this specification, and the drawings illustrate technical solutions suitable for embodiments of the present application and used together with the specification to describe the present application. It should be understood that the following drawings illustrate only some embodiments of the present application, and should not be regarded as limitations on the scope, and those skilled in the art may obtain other related drawings according to these drawings without creative efforts.
1A shows a schematic diagram of one application scenario according to an embodiment of the present application;
1B shows a schematic flowchart of a driver behavior detection method provided in an embodiment of the present application;
2 is a schematic flowchart of a specific method of obtaining a target detection result by performing detection on an image to be detected among the driver behavior detection methods provided by the embodiments of the present application;
3 shows a structural schematic diagram of a driver behavior detection device provided in an embodiment of the present application;
4 shows a structural schematic diagram of an electronic device provided in an embodiment of the present application.

본 출원의 실시예의 목적, 기술방안 및 장점을 보다 명확히 이해하도록 하기 위해, 이하 본 출원의 실시예의 도면을 결부시켜 본 출원의 실시예에 따른 기술방안에 대하여 명확하고 완전하게 설명할 것이다. 설명된 실시예는 본 출원의 일부 실시예일 뿐, 모든 실시예는 아니다. 통상적으로 도면에 설명 및 도시된 본 출원의 실시예의 구성 요소는 서로 다른 다양한 구성으로 배치 및 설계될 수 있다. 따라서, 이하 도면에서 제공하는 본 출원의 실시예에 대한 상세한 설명은 단지 본 출원의 선택된 실시예를 나타내기 위한 것일 뿐, 보호하고자 하는 본 출원의 범위를 제한하려는 것이 아니다. 본 출원의 실시예에 기반하여 당업자가 창조적 노력 없이 획득한 다른 모든 실시예 또한 본 출원의 보호범위 내에 속한다.In order to more clearly understand the purpose, technical solution and advantages of the embodiments of the present application, the technical solutions according to the embodiments of the present application will be clearly and completely described below in conjunction with the drawings of the embodiments of the present application. The described embodiments are only some embodiments of the present application, not all embodiments. In general, the components of the embodiment of the present application described and illustrated in the drawings may be arranged and designed in various different configurations. Accordingly, the detailed description of the embodiments of the present application provided in the following drawings is only for showing selected embodiments of the present application, and is not intended to limit the scope of the present application to be protected. All other embodiments obtained by those skilled in the art based on the embodiments of the present application without creative efforts also fall within the protection scope of the present application.

위험한 운전 행위는 대부분의 교통사고를 초래하는 주요 요인 중의 하나이다. 따라서, 주행 안전성을 향상시키고, 승객 및 운전자의 안전을 보장하기 위해 운전자의 운전 행위를 검출할 수 있다. 이에 따라, 상기 과제를 해결하기 위해 본 출원의 실시예에서 운전자 행위 검출 방법을 제공한다.Dangerous driving behavior is one of the main factors that cause most traffic accidents. Accordingly, it is possible to detect the driving behavior of the driver to improve driving safety and ensure the safety of passengers and drivers. Accordingly, in order to solve the above problems, an embodiment of the present application provides a method for detecting a driver's behavior.

본 출원의 실시예를 이해하는 데에 편리하도록, 먼저 본 출원의 실시예에서 공개한 운전자 행위 검출 방법에 대하여 자세하게 소개한다.For convenient understanding of the embodiments of the present application, first, the driver behavior detection method disclosed in the embodiments of the present application will be described in detail.

본 출원의 일부 실시예에서, 상기 운전자 행위 검출 방법은 운전자 행위 검출 장치에 의해 실행될 수 있으며, 운전자 행위 검출 장치는 사용자 장비(User Equipment,UE), 모바일 디바이스, 사용자 단말, 단말, 셀룰러 폰, 무선 전화, PDA(personal digital assistant), 핸드헬드 디바이스, 컴퓨팅 디바이스, 차량 내 디바이스(in-vehicle device), 웨어러블 디바이스 등일 수 있다. 방법은 메모리에 저장된 컴퓨터 판독가능 명령어들을 호출하는 프로세서에 의해 구현될 수 있다. 대안적으로, 서버가 방법을 수행할 수 있다.In some embodiments of the present application, the driver behavior detection method may be executed by a driver behavior detection apparatus, and the driver behavior detection apparatus includes a user equipment (UE), a mobile device, a user terminal, a terminal, a cellular phone, a wireless It may be a telephone, personal digital assistant (PDA), handheld device, computing device, in-vehicle device, wearable device, or the like. The method may be implemented by a processor invoking computer readable instructions stored in a memory. Alternatively, a server may perform the method.

이하, 하나의 응용 시나리오를 결합시켜 본 출원에 대하여 더 설명한다.Hereinafter, the present application will be further described by combining one application scenario.

본 출원의 실시예에 따른 운전자 행위 검출 방법은 운전자 주행 등 응용 시나리오에 응용될 수 있다. 도 1a는 본 출원의 실시예에 따른 하나의 응용 시나리오의 모식도다. 도 1a에 도시된 바와 같이, 운전자 행위 검출 장치(10)를 통해 운전 위치 영역의 검출될 이미지(11)를 획득할 수 있으며, 검출될 이미지(11)는 스티어링 휠(110) 및 손(111)을 포함한다. 운전자 행위 검출 장치(10)에서, 전술한 실시예에 기재된 운전자 행위 검출 수행함으로써 스티어링 휠(110) 및 손(111)의 검출 결과를 얻을 수 있다. 나아가, 스티어링 휠(110) 및 손(111)의 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정할 수 있고, 운전자의 운전 행위 카테고리가 위험 운전일 때 운전자 행위 검출 장치(10)가 경고 메시지를 발송하여 운전자의 운전 행위의 검출을 구현함으로써, 운전자에게 안전 주의를 시키는 데에 편리하게 하며 차량 운전의 안전성을 향상시켰다.The method for detecting a driver's behavior according to an embodiment of the present application may be applied to application scenarios such as driver driving. 1A is a schematic diagram of one application scenario according to an embodiment of the present application. As shown in FIG. 1A , an image to be detected 11 of the driving position area may be acquired through the driver behavior detection device 10 , and the image 11 to be detected is a steering wheel 110 and a hand 111 . includes In the driver behavior detecting apparatus 10 , the detection results of the steering wheel 110 and the hand 111 may be obtained by performing the driver behavior detection described in the above-described embodiment. Furthermore, the driver's driving behavior category can be determined according to the detection result of the steering wheel 110 and the hand 111, and when the driver's driving behavior category is dangerous driving, the driver behavior detecting device 10 sends a warning message to By implementing the detection of the driver's driving behavior, it is convenient to give the driver safety attention and the safety of vehicle driving is improved.

도 1b는 본 출원의 실시예에서 제공하는 운전자 행위 검출 방법의 개략 흐름도를 도시하는 바, 상기 방법은 다음과 같이 S101 내지 S104를 포함한다:1B shows a schematic flowchart of a method for detecting driver behavior provided by an embodiment of the present application, the method including S101 to S104 as follows:

S101: 캐빈 내 운전 위치 영역의 검출될 이미지를 획득한다.S101: Acquire an image to be detected of the driving position area in the cabin.

S102: 검출될 이미지에 대하여 검출을 수행하여, 스티어링 휠 검출 결과 및 손 검출 결과를 포함하는 목표 검출 결과를 얻는다.S102: Perform detection on the image to be detected, to obtain a target detection result including a steering wheel detection result and a hand detection result.

S103: 상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정한다.S103: A driver's driving behavior category is determined according to the target detection result.

S104: 상기 운전자의 운전 행위 카테고리가 위험 운전일 때 경고 메시지를 발송한다.S104: When the driving behavior category of the driver is dangerous driving, a warning message is sent.

상기 방법에서, 획득된 운전 위치 영역의 검출될 이미지에 대하여 검출을 수행하여, 스티어링 휠 검출 결과 및 손 검출 결과를 포함하는 목표 검출 결과를 얻는다. 또한 목표 검출 결과를 통해 운전자의 운전 행위 카테고리를 결정하고, 운전자의 운전 행위 카테고리가 위험 운전일 때 경고 메시지를 발송하여 운전자의 운전 행위의 검출을 구현함으로써, 운전자에게 안전 주의를 시키는 데에 편리하게 하며 차량 운전의 안전성을 향상시킨다.In the method, detection is performed on the to-be-detected image of the obtained driving position area to obtain a target detection result including a steering wheel detection result and a hand detection result. In addition, the driver's driving behavior category is determined based on the target detection result, and when the driver's driving behavior category is dangerous driving, a warning message is sent to realize the detection of the driver's driving behavior, which is convenient to give the driver safety attention. and improve vehicle driving safety.

S101에 대해:About S101:

여기서, 캐빈 내에 촬영 디바이스를 설치하고, 캐빈 내에 설치된 촬영 디바이스를 통해 운전 위치 영역의 검출될 이미지를 실시간으로 획득할 수 있다. 여기서, 상기 촬영 디바이스의 장착 위치는 운전 위치 영역 내의 스티어링 휠 및 운전석 영역을 촬영할 수 있는 위치일 수 있다.Here, a photographing device may be installed in the cabin, and an image to be detected of the driving position area may be acquired in real time through the photographing device installed in the cabin. Here, the mounting position of the photographing device may be a position capable of photographing the steering wheel and the driver's seat area within the driving position area.

S102 및 S103에 대해:For S102 and S103:

여기서, 검출될 이미지를 훈련된 신경망에 입력하고, 검출될 이미지에 대하여 각각 검출을 수행하여 목표 검출 결과를 얻을 수 있다. 여기서, 목표 검출 결과는 스티어링 휠 검출 결과 및 손 검출 결과를 포함한다. 스티어링 휠 검출 결과는 검출될 이미지에 스티어링 휠이 있는지 여부의 정보를 포함하며, 스티어링 휠이 있는 경우, 스티어링 휠 검출 결과에는 스티어링 휠의 검출 박스 정보를 포함한다. 손 검출 결과는 검출될 이미지에 손의 검출 박스가 있는지 여부의 정보를 포함하며, 손이 있는 경우, 손 검출 결과는 손의 검출 박스 정보를 포함한다.Here, the target detection result can be obtained by inputting the image to be detected into the trained neural network, and performing detection on each image to be detected. Here, the target detection result includes a steering wheel detection result and a hand detection result. The steering wheel detection result includes information on whether or not there is a steering wheel in the image to be detected, and when there is a steering wheel, the steering wheel detection result includes detection box information of the steering wheel. The hand detection result includes information on whether or not there is a hand detection box in the image to be detected, and if there is a hand, the hand detection result includes hand detection box information.

선택 가능한 일 실시형태에서, 도 2에 도시한 바를 참조하면, 검출될 이미지에 대하여 검출을 수행하여 목표 검출 결과를 얻는 단계는 다음을 포함할 수 있다:In one selectable embodiment, referring to FIG. 2 , performing detection on an image to be detected to obtain a target detection result may include:

S201: 검출될 이미지를 기반으로 검출될 이미지에 대응하는 중간 특징 맵을 생성한다.S201: Generate an intermediate feature map corresponding to the image to be detected based on the image to be detected.

S202: 중간 특징 맵에 대하여 목표 콘볼루션 처리를 적어도 1회 수행하여, 중간 특징 맵에 대응하는 복수 채널의 검출 특징 맵을 생성한다.S202: Perform target convolution processing on the intermediate feature map at least once to generate a detection feature map of a plurality of channels corresponding to the intermediate feature map.

S203: 활성화 함수를 이용하여 복수 채널의 검출 특징 맵 중 위치를 나타내는 목표 채널 특징 맵의 각 특징값에 대하여 특징값 변환 처리를 수행하여, 변환 후의 목표 채널 특징 맵을 생성한다.S203: Perform a feature value conversion process on each feature value of a target channel feature map indicating a location among detection feature maps of a plurality of channels by using an activation function to generate a target channel feature map after transformation.

S204: 미리 설정된 풀링 사이즈 및 풀링 스트라이드에 따라 변환 후의 목표 채널 특징 맵에 대하여 최대 풀링 처리를 수행하여 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 얻는 바. 상기 위치 인덱스는 변환 후의 목표 채널 특징 맵에서의 풀링값의 위치를 식별하는 데에 사용된다.S204: Perform maximum pooling processing on the target channel feature map after transformation according to the preset pooling size and pooling stride to obtain a plurality of pooling values and a position index corresponding to each pooling value among the plurality of pooling values. The position index is used to identify the position of the pooling value in the target channel feature map after transformation.

S205: 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 목표 검출 박스 정보를 생성한다.S205: Generate target detection box information based on a plurality of pooling values and a location index corresponding to each pooling value among the plurality of pooling values.

S206: 목표 검출 박스 정보에 따라 목표 검출 결과를 결정한다.S206: Determine a target detection result according to target detection box information.

상기 실시형태에서는, 목표 채널 특징 맵에 대하여 최대 풀링 처리를 수행함으로써 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 얻고 목표 검출 박스 정보를 생성함으로써, 목표 검출 결과를 생성하는 데에 데이터 지원을 제공한다.In the above embodiment, a plurality of pooling values and a position index corresponding to each pooling value among the plurality of pooling values are obtained by performing maximum pooling processing on the target channel feature map, and target detection box information is generated, thereby generating a target detection result. It provides data support for

검출될 이미지를 훈련된 신경망에 입력하고, 훈련된 신경망 중의 백본망이 검출될 이미지에 대하여 콘볼루션 처리를 여러 회 수행하여, 검출될 이미지에 대응하는 중간 특징 맵을 생성할 수 있다. 여기서, 신경망 중 백본망의 구조는 실제 수요에 따라 설정할 수 있다.An image to be detected is input to a trained neural network, and the backbone network in the trained neural network performs convolution processing on the image to be detected several times to generate an intermediate feature map corresponding to the image to be detected. Here, the structure of the backbone network among the neural networks can be set according to actual demand.

여기서, 중간 특징 맵을 각각 신경망의 스티어링 휠 검출 분기 네트워크 및 손 검출 분기 네트워크에 입력하여, 스티어링 휠 검출 결과 및 손 검출 결과를 생성할 수 있다. 이하, 스티어링 휠 검출 결과 생성에 대하여 상세하게 설명한다.Here, the intermediate feature map may be input to the steering wheel detection branch network and the hand detection branch network of the neural network, respectively, to generate a steering wheel detection result and a hand detection result. Hereinafter, the generation of the steering wheel detection result will be described in detail.

여기서, 먼저 중간 특징 맵에 대하여 제1 콘볼루션 처리(즉, 목표 콘볼루션 처리)를 적어도 1회 수행하여, 스티어링 휠에 대응하는 복수 채널의 검출 특징 맵을 생성할 수 있으며, 상기 검출 특징 맵에 대응하는 채널 수는 세 개일 수 있다. 여기서, 상기 검출 특징 맵은 위치를 나타내는 제1 채널 특징 맵(상기 제1 채널 특징 맵은 목표 채널 특징 맵임), 검출 박스 길이 정보를 나타내는 제2 채널 특징 맵 및 검출 박스 폭 정보를 나타내는 제3 채널 특징 맵을 포함한다.Here, first, the first convolution process (ie, target convolution process) is performed on the intermediate feature map at least once to generate a detection feature map of a plurality of channels corresponding to the steering wheel, and the detected feature map is The number of corresponding channels may be three. Here, the detection characteristic map includes a first channel characteristic map indicating a location (the first channel characteristic map is a target channel characteristic map), a second channel characteristic map indicating detection box length information, and a third channel indicating detection box width information. Includes feature maps.

또한 활성화 함수를 이용하여 복수 채널의 검출 특징 맵 중 위치를 나타내는 목표 채널 특징 맵에 대하여 특징값 변환 처리를 수행하여, 변환 후의 목표 채널 특징 맵을 생성한다. 변환 후의 목표 채널 특징 맵 중 각 특징값은 모두 0에서 1 사이의 수치이다. 여기서, 상기 활성화 함수는 sigmoid함수일 수 있다. 변환 후의 목표 채널 특징 맵 중 어느 한 특징점의 특징값에 대하여, 상기 특징값이 1에 가까울수록 상기 특징값에 대응하는 특징점이 스티어링 휠의 검출 박스의 중심점에 속할 확률도 점점 높아진다.In addition, a feature value conversion process is performed on a target channel feature map indicating a position among detection feature maps of a plurality of channels by using an activation function to generate a target channel feature map after transformation. Each feature value in the target channel feature map after transformation is a numerical value between 0 and 1. Here, the activation function may be a sigmoid function. With respect to the feature value of any one feature point in the target channel feature map after transformation, the closer the feature value is to 1, the higher the probability that the feature point corresponding to the feature value belongs to the center point of the detection box of the steering wheel.

이어서, 미리 설정된 풀링 사이즈 및 풀링 스트라이드에 따라 변환 후의 목표 채널 특징 맵에 대하여 최대 풀링 처리를 수행하여, 목표 채널 특징 맵 중 각 특징 위치에 대응하는 풀링값 및 각 풀링값에 대응하는 위치 인덱스를 얻는다. 상기 위치 인덱스는 변환 후의 목표 채널 특징 맵에서의 풀링값의 위치를 식별하는 데에 사용될 수 있다. 나아가, 각 특징 위치에 대응하는 위치 인덱스 중 동일한 위치 인덱스를 병합 처리하여, 상기 목표 채널 특징 맵에 대응하는 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 얻을 수 있다. 여기서, 미리 설정된 사이즈 및 풀링 스트라이드는 실제 수요에 따라 설정할 수 있는 바, 예를 들어, 미리 설정된 풀링 사이즈는 3×3일 수 있고, 미리 설정된 풀링 스트라이드는 1일 수 있다.Next, maximum pooling processing is performed on the target channel feature map after transformation according to the preset pooling size and pooling stride, to obtain a pooling value corresponding to each feature position in the target channel feature map and a position index corresponding to each pooling value . The position index may be used to identify the position of the pooling value in the target channel feature map after transformation. Furthermore, a plurality of pooling values corresponding to the target channel feature map and a location index corresponding to each pooling value among the plurality of pooling values may be obtained by merging the same location index among location indexes corresponding to each feature location. Here, the preset size and the pulling stride may be set according to actual demand, for example, the preset pooling size may be 3×3, and the preset pulling stride may be 1.

나아가, 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 스티어링 휠에 대응하는 제1 검출 박스 정보(즉, 목표 검출 박스 정보)를 생성할 수 있다.Furthermore, first detection box information (ie, target detection box information) corresponding to the steering wheel may be generated based on a plurality of pulling values and a position index corresponding to each of the plurality of pulling values.

본 출원의 일부 실시예에서, 목표 채널 특징 맵에 대하여, 사이즈가 3×3이며 스트라이드가 1인 최대 풀링 처리를 수행할 수 있다. 풀링 시, 목표 채널 특징 맵에서의 각 3×3개 특징점의 특징값에 대하여, 3×3개 특징점의 최대 응답값(즉, 풀링값) 및 목표 채널 특징 맵상에서의 최대 응답값의 위치 인덱스를 결정한다. 이 때, 최대 응답값의 개수는 목표 채널 특징 맵의 사이즈와 관련된다. 예를 들어, 만일 목표 채널 특징 맵의 사이즈가 80×60×3이면, 목표 채널 특징 맵에 대하여 최대 풀링 처리를 수행한 후 얻은 최대 응답값은 총 80×60개이다. 또한 각 최대 응답값에 대해, 그 위치 인덱스와 동일한 적어도 하나의 기타 최대 응답값이 있을 수 있다. 그리고 나서 위치 인덱스가 동일한 최대 응답값을 병합하여, M개의 최대 응답값 및 M개의 최대 응답값 중 각 최대 응답값에 대응하는 위치 인덱스를 얻는다. 마지막으로, M개의 최대 응답값(풀링값) 및 각 최대 응답값에 대응하는 위치 인덱스를 기반으로 스티어링 휠에 대응하는 제1 검출 박스 정보를 생성한다.In some embodiments of the present application, a maximum pooling process with a size of 3×3 and a stride of 1 may be performed on the target channel feature map. At the time of pooling, with respect to the feature value of each 3×3 feature point in the target channel feature map, the maximum response value of the 3×3 feature point (ie, the pooling value) and the position index of the maximum response value on the target channel feature map decide In this case, the number of maximum response values is related to the size of the target channel feature map. For example, if the size of the target channel feature map is 80×60×3, the maximum response value obtained after performing the maximum pooling process on the target channel feature map is 80×60 in total. Also, for each maximum response value, there may be at least one other maximum response value equal to its location index. Then, the maximum response values having the same location index are merged to obtain a location index corresponding to each of the M maximum response values and the M maximum response values. Finally, the first detection box information corresponding to the steering wheel is generated based on the M maximum response values (pooling values) and the position index corresponding to each maximum response value.

여기서, 손에 대응하는 제2 검출 박스 정보의 결정 과정은 스티어링 휠에 대응하는 제1 검출 박스 정보의 결정 과정을 참고할 수 있으며 여기서는 중복 설명을 생략한다.Here, the determination process of the second detection box information corresponding to the hand may refer to the determination process of the first detection box information corresponding to the steering wheel, and a redundant description will be omitted herein.

스티어링 휠에 대응하는 제1 검출 박스 정보를 얻은 후, 제1 검출 박스 정보를 스티어링 휠 검출 결과로 결정할 수 있다. 스티어링 휠에 대응하는 제1 검출 박스 정보를 얻지 못했을 경우, 스티어링 휠 검출 결과를 스티어링 휠을 포함하지 않는 것으로 결정한다. 또한, 손에 대응하는 제2 검출 박스 정보를 얻은 후 제2 검출 박스 정보를 손 검출 결과로 결정할 수 있다. 손에 대응하는 제2 검출 박스 정보를 얻지 못했을 경우 손 검출 결과를 손을 포함하지 않는 것으로 결정한다.After obtaining the first detection box information corresponding to the steering wheel, the first detection box information may be determined as the steering wheel detection result. When the first detection box information corresponding to the steering wheel is not obtained, it is determined that the steering wheel detection result does not include the steering wheel. In addition, after obtaining the second detection box information corresponding to the hand, the second detection box information may be determined as the hand detection result. When the second detection box information corresponding to the hand is not obtained, the hand detection result is determined as not including the hand.

선택 가능한 일 실시형태에서, 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 목표 검출 박스 정보를 생성하는 단계는 다음을 포함할 수 있다:In one selectable embodiment, generating target detection box information based on a plurality of pooling values and a position index corresponding to each pooling value among the plurality of pooling values may include:

단계 A1: 복수의 풀링값 중 적어도 하나의 풀링값이 설정된 풀링 임계값보다 큰 경우, 복수의 풀링값 및 풀링 임계값을 기반으로 복수의 풀링값 중에서 목표 검출 박스의 중심점의 목표 풀링값을 결정한다.Step A1: when at least one pooling value among the plurality of pooling values is greater than the set pooling threshold, a target pooling value of the center point of the target detection box is determined from among the plurality of pooling values based on the plurality of pooling values and the pooling threshold .

단계 A2: 목표 풀링값에 대응하는 위치 인덱스를 기반으로 목표 검출 박스 정보를 생성한다.Step A2: Generate target detection box information based on the position index corresponding to the target pooling value.

계속해서 스티어링 휠을 예로 들어 설명한다. 여기서는 풀링 임계값을 설정할 수 있다. 복수의 풀링값 중 적어도 하나의 풀링값이 설정된 풀링 임계값보다 큰 경우, 설정된 풀링 임계값을 기반으로 복수의 풀링값을 선별하여 복수의 풀링값 중 풀링 임계값보다 큰 하나의 목표 풀링값을 얻는다. 복수의 풀링값 중 각 풀링값이 설정된 풀링 임계값보다 작거나 같을 경우, 목표 풀링값은 존재하지 않는 바, 즉, 스티어링 휠의 제1 검출 박스 정보는 존재하지 않는다.Continuing, the steering wheel will be described as an example. Here you can set the pooling threshold. When at least one pooling value among the plurality of pooling values is greater than the set pooling threshold, a plurality of pooling values are selected based on the set pooling threshold to obtain one target pooling value greater than the pooling threshold among the plurality of pooling values. . When each of the plurality of pulling values is less than or equal to the set pulling threshold, the target pulling value does not exist, that is, the first detection box information of the steering wheel does not exist.

나아가, 목표 풀링값에 대응하는 위치 인덱스를 기반으로 스티어링 휠에 대응하는 제1 검출 박스의 중심점 위치 정보를 생성할 수 있다. 여기서, 스티어링 휠에 대응하는 풀링 임계값과 운전자 손에 대응하는 풀링 임계값은 동일할 수도 있고 서로 다를 수도 있다. 구체적으로, 스티어링 휠에 대응하는 풀링 임계값과 운전자 손에 대응하는 풀링 임계값은 실제 경우에 따라 결정될 수 있다. 예를 들어, 검출될 이미지에 대응하는 촬영 디바이스가 수집한 다중 프레임 샘플 이미지를 획득하고, 수집된 다중 프레임 샘플 이미지에 따라 적응형 알고리즘을 이용하여 스티어링 휠에 대응하는 풀링 임계값 및 운전자 손에 대응하는 풀링 임계값을 각각 생성할 수 있다.Furthermore, center point location information of the first detection box corresponding to the steering wheel may be generated based on the location index corresponding to the target pooling value. Here, the pulling threshold corresponding to the steering wheel and the pulling threshold corresponding to the driver's hand may be the same or different. Specifically, the pulling threshold corresponding to the steering wheel and the pulling threshold corresponding to the driver's hand may be determined according to actual cases. For example, a multi-frame sample image collected by a photographing device corresponding to an image to be detected is obtained, and an adaptive algorithm is used according to the collected multi-frame sample image to correspond to a pulling threshold corresponding to the steering wheel and a driver's hand Each pooling threshold can be created.

상기 예시에 이어서 계속 설명하면, M개의 최대 응답값 및 M개의 최대 응답값 중 각 최대 응답값에 대응하는 위치 인덱스를 얻은 후, M개의 최대 응답값 중의 각 최대 응답값과 풀링 임계값을 비교할 수 있으며; 어떤 최대 응답값이 상기 풀링 임계값보다 큰 경우, 상기 최대 응답값을 목표 풀링값으로 결정한다. 목표 풀링값에 대응하는 위치 인덱스가, 즉 스티어링 휠의 제1 검출 박스의 중심점 위치 정보이다.Continuing with the example above, after obtaining the position index corresponding to each maximum response value among the M maximum response values and the M maximum response values, each maximum response value among the M maximum response values can be compared with the pooling threshold. there is; When a certain maximum response value is greater than the pooling threshold, the maximum response value is determined as a target pooling value. The position index corresponding to the target pulling value is the center point position information of the first detection box of the steering wheel.

여기서, 변환하기 전의 목표 채널 특징 맵에 대하여 직접 최대 풀링 처리를 수행하여, 스티어링 휠의 제1 검출 박스의 중심점 위치 정보를 얻을 수도 있다.Here, the maximum pulling process may be directly performed on the target channel feature map before conversion to obtain center point position information of the first detection box of the steering wheel.

본 출원의 일부 실시예에서, 스티어링 휠의 제1 검출 박스의 중심점 위치 정보를 얻은 후, 상기 중심점 위치 정보를 기반으로 제2 채널 특징 맵 중에서 상기 중심점 위치 정보에 매칭되는 특징 위치의 제2 특징값을 선택하고, 선택된 제2 특징값을 스티어링 휠의 제1 검출 박스에 대응하는 길이로 결정하고, 또한 제3 채널 특징 맵 중에서 상기 중심점 위치 정보에 매칭되는 특징 위치의 제3 특징값을 선택하고, 선택된 제3 특징값을 스티어링 휠의 제1 검출 박스에 대응하는 폭으로 결정하여, 스티어링 휠의 제1 검출 박스의 사이즈 정보를 얻을 수도 있다.In some embodiments of the present application, after obtaining the center point position information of the first detection box of the steering wheel, a second feature value of a feature location matching the center point location information in a second channel feature map based on the center point location information selects, determines the selected second feature value as a length corresponding to the first detection box of the steering wheel, and selects a third feature value of a feature location matching the center point location information from a third channel feature map, Size information of the first detection box of the steering wheel may be obtained by determining the selected third feature value as a width corresponding to the first detection box of the steering wheel.

여기서, 운전자 손을 대상으로 하나 또는 두 개의 제2 검출 박스 정보를 얻을 수 있다. 즉, 왼손 및/또는 오른손에 각각 대응하는 제2 검출 박스 정보를 얻을 수 있다. 구체적으로, 운전자 손에 대응하는 제2 검출 박스 정보를 결정하는 과정은 상기 스티어링 휠의 제1 검출 박스 정보를 결정하는 과정을 참고할 수 있으며, 여기서는 중복 설명을 생략한다.Here, information on one or two second detection boxes may be obtained for the driver's hand. That is, the second detection box information corresponding to the left hand and/or the right hand, respectively, may be obtained. Specifically, the process of determining the second detection box information corresponding to the driver's hand may refer to the process of determining the first detection box information of the steering wheel, and a redundant description will be omitted herein.

상기 실시형태에서, 복수의 풀링값 중 풀링 임계값보다 큰 풀링값을 스티어링 휠 또는 운전자 손의 목표 검출 박스의 중심점에 속하는 목표 풀링값으로 결정하고, 목표 풀링값에 대응하는 위치 인덱스를 기반으로 스티어링 휠 또는 운전자 손의 적어도 하나의 목표 검출 박스 정보를 보다 정확하게 생성한다.In the above embodiment, a pulling value larger than a pulling threshold value among a plurality of pulling values is determined as a target pulling value belonging to a center point of a target detection box of a steering wheel or a driver's hand, and steering is based on a position index corresponding to the target pulling value At least one target detection box information of a wheel or a driver's hand is more accurately generated.

선택 가능한 일 실시형태에서, 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 목표 검출 박스 정보를 생성하는 단계는, 복수의 풀링값이 설정된 풀링 임계값보다 작거나 같을 경우, 목표 검출 박스 정보가 비어 있는 것으로 결정하는 단계를 포함할 수 있다.In one selectable embodiment, the generating of target detection box information based on a plurality of pooling values and a position index corresponding to each of the plurality of pooling values comprises: If equal, determining that the target detection box information is empty.

여기서, 스티어링 휠에 대응하는 복수의 풀링값이 설정된 풀링 임계값보다 작거나 같을 경우, 스티어링 휠의 제1 검출 박스 정보가 비어 있는 것으로 결정하고, 스티어링 휠에 대응하는 복수의 풀링값 중 적어도 하나의 풀링값이 설정된 풀링 임계값보다 큰 경우, 스티어링 휠의 제1 검출 박스 정보가 비어 있지 않는 것으로 결정한다.Here, when the plurality of pulling values corresponding to the steering wheel are less than or equal to the set pulling threshold value, it is determined that the first detection box information of the steering wheel is empty, and at least one of the plurality of pulling values corresponding to the steering wheel is selected. When the pulling value is greater than the set pulling threshold, it is determined that the first detection box information of the steering wheel is not empty.

스티어링 휠 검출 결과 및 손 검출 결과를 얻은 후, 스티어링 휠 검출 결과 및 손 검출 결과를 기반으로 운전자의 운전 행위 카테고리를 결정할 수 있다.After the steering wheel detection result and the hand detection result are obtained, the driver's driving behavior category may be determined based on the steering wheel detection result and the hand detection result.

본 출원의 일부 실시예에서, 스티어링 휠 검출 결과에 스티어링 휠을 포함하고 손 검출 결과에 손을 포함할 때, 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는,In some embodiments of the present application, when the steering wheel is included in the steering wheel detection result and the hand is included in the hand detection result, determining the driving behavior category of the driver according to the target detection result includes:

스티어링 휠 검출 결과 및 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계; 및determining a positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result; and

위치 관계에 따라 운전자의 운전 행위 카테고리를 결정하는 단계를 포함할 수 있다.The method may include determining a driving behavior category of the driver according to the location relationship.

여기서, 먼저 스티어링 휠 검출 결과 및 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하고, 결정된 위치 관계에 따라 운전자의 운전 행위 카테고리를 결정한다. 즉, 운전자는 안전 운전을 하고 있는지 아님 위험 운전을 하고 있는 지를 결정한다.Here, first, the positional relationship between the steering wheel and the hand is determined according to the steering wheel detection result and the hand detection result, and the driver's driving behavior category is determined according to the determined positional relationship. That is, the driver decides whether he is driving safely or driving dangerously.

본 출원의 일부 실시예에서, 위치 관계에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는, 상기 위치 관계가 운전자의 손이 스티어링 휠을 잡고 있음을 나타내는 경우, 상기 운전자의 운전 행위 카테고리가 안전 운전인 것으로 결정하는 단계를 포함할 수 있다.In some embodiments of the present application, the determining of the driver's driving behavior category according to the positional relationship includes: when the positional relationship indicates that the driver's hand is holding the steering wheel, the driver's driving behavior category is safe driving It may include the step of determining that

여기서, 위치 관계가 운전자의 손이 스티어링 휠을 잡고 있음을 나타내는 것을 검출했을 때, 운전자의 행위 카테고리가 안전 운전인 것으로 결정한다. 상기 운전자의 손이 스티어링 휠을 잡고 있는 경우는 운전자가 왼손으로 스티어링 휠을 잡고 있는 경우, 운전자가 오른손으로 스티어링 휠을 잡고 있는 경우 또는 운전자가 양손으로 스티어링 휠을 잡고 있는 경우를 포함한다.Here, when detecting that the positional relationship indicates that the driver's hand is holding the steering wheel, it is determined that the driver's behavior category is safe driving. The case in which the driver's hand is holding the steering wheel includes a case in which the driver holds the steering wheel with the left hand, the case where the driver holds the steering wheel with the right hand, or the case where the driver holds the steering wheel with both hands.

본 출원의 일부 실시예에서, 위치 관계에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는, 위치 관계가 운전자의 양손이 스티어링 휠을 이탈했음을 나타내는 경우, 운전자의 운전 행위 카테고리가 위험 운전인 것으로 결정하는 단계를 포함할 수 있다.In some embodiments of the present application, the determining of the driving behavior category of the driver according to the positional relationship may include determining that the driver's driving behavior category is dangerous driving when the positional relationship indicates that both hands of the driver have left the steering wheel. may include steps.

여기서, 위치 관계가 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하면, 상기 운전자의 운전 행위 카테고리가 위험 운전인 것으로 결정한다.Here, if the positional relationship determines that the driver's both hands have left the steering wheel, it is determined that the driver's driving behavior category is dangerous driving.

본 출원의 일부 실시예에서, 스티어링 휠 검출 결과에 스티어링 휠을 포함하고 손 검출 결과에 손을 포함하지 않을 때, 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는: 목표 검출 결과에 따라 운전자의 운전 행위 카테고리가 위험 운전인 것으로 결정하는 단계를 포함할 수 있다.In some embodiments of the present application, when the steering wheel is included in the steering wheel detection result and the hand is not included in the hand detection result, determining the driving behavior category of the driver according to the target detection result includes: according to the target detection result determining that the driving behavior category of the driver is dangerous driving.

여기서, 스티어링 휠 검출 결과에서 스티어링 휠을 검출하고 손 검출 결과에서 손을 검출하지 못했다면 상기 운전자의 양손이 스티어링 휠을 이탈했다는 것을 나타내며, 상기 운전자의 운전 행위 카테고리가 위험 운전인 것으로 결정한다.Here, if the steering wheel is detected from the steering wheel detection result and the hand is not detected from the hand detection result, it indicates that both hands of the driver have left the steering wheel, and it is determined that the driver's driving behavior category is dangerous driving.

본 출원의 일부 실시예에서, 스티어링 휠 검출 결과에서 스티어링 휠을 검출하지 못했다면 검출될 이미지를 이상 이미지로 결정하고, 이에 상기 운전자의 운전 행위 카테고리를 상태 이상으로 결정한다.In some embodiments of the present application, if the steering wheel is not detected in the steering wheel detection result, an image to be detected is determined as an abnormal image, and the driving behavior category of the driver is determined as an abnormal state.

본 출원의 일부 실시예에서, 스티어링 휠 검출 결과 및 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계는, 만일 손 검출 결과에 한쪽 손을 포함하는 경우, 손 검출 결과 중 손에 대응하는 검출 박스가 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하면, 스티어링 휠과 손 사이의 위치 관계를 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정하고, 만일 손 검출 결과 중 손에 대응하는 검출 박스가 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하지 않으면, 스티어링 휠과 손 사이의 위치 관계를 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하는 단계를 포함할 수 있다.In some embodiments of the present application, the step of determining the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result may include: If a region in which the corresponding detection box overlaps the detection box corresponding to the steering wheel exists among the steering wheel detection results, the positional relationship between the steering wheel and the hand is determined as that the driver's hand is holding the steering wheel, and if the hand detection result Determining the positional relationship between the steering wheel and the hand that the driver's both hands are out of the steering wheel if there is no area in which the detection box corresponding to the middle hand overlaps the detection box corresponding to the steering wheel among the steering wheel detection results may include

본 출원의 일부 실시예에서, 스티어링 휠 검출 결과 및 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계는, 만일 손 검출 결과에 양쪽 손을 포함하는 경우, 손 검출 결과 중 양쪽 손에 대응하는 검출 박스가 각각 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하지 않으면, 스티어링 휠과 손 사이의 위치 관계는 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하고, 만일 손 검출 결과 중 적어도 한쪽 손에 대응하는 검출 박스가 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하면, 스티어링 휠과 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정하는 단계를 포함할 수 있다.In some embodiments of the present application, the step of determining the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result may include, if both hands are included in the hand detection result, both hands among the hand detection results If there is no region in which the detection box corresponding to the detection box overlaps the detection box corresponding to the steering wheel among the steering wheel detection results, the positional relationship between the steering wheel and the hand determines that the driver's both hands have left the steering wheel, and if If there is an area in which the detection box corresponding to at least one hand of the hand detection result overlaps the detection box corresponding to the steering wheel among the steering wheel detection results, the positional relationship between the steering wheel and the hand is determined by the driver's hand holding the steering wheel. It may include the step of determining that

여기서, 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 손 검출 결과 중 손에 대응하는 검출 박스를 이용하여 스티어링 휠과 손 사이의 위치 관계를 판단할 수 있다.Here, the positional relationship between the steering wheel and the hand may be determined using a detection box corresponding to the steering wheel among the steering wheel detection results and a detection box corresponding to the hand among the hand detection results.

손 검출 결과에 한쪽 손을 포함하는 경우, 상기 손에 대응하는 검출 박스가 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하면, 스티어링 휠과 손 사이의 위치 관계는 손이 스티어링 휠을 잡고 있는 것이라고 결정한다. 손에 대응하는 검출 박스가 스티어링 휠에 대응하는 검출 박스와 겹치지 않는 영역이 존재하면, 스티어링 휠과 손 사이의 위치 관계는 손이 스티어링 휠을 이탈한 것이라고 결정한다.When one hand is included in the hand detection result, if there is an area where the detection box corresponding to the hand overlaps the detection box corresponding to the steering wheel, the positional relationship between the steering wheel and the hand means that the hand is holding the steering wheel decide If there is an area in which the detection box corresponding to the hand does not overlap the detection box corresponding to the steering wheel, the positional relationship between the steering wheel and the hand determines that the hand leaves the steering wheel.

손 검출 결과에 양쪽 손을 포함하는 경우, 적어도 한쪽 손에 대응하는 검출 박스가 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하면, 스티어링 휠과 손 사이의 위치 관계는 손이 스티어링 휠을 잡고 있는 것이라고 결정한다. 양쪽 손에 각각 대응하는 검출 박스가 스티어링 휠에 대응하는 검출 박스와 모두 겹치지 않는 영역이 있으면, 스티어링 휠과 손 사이의 위치 관계는 손이 스티어링 휠을 이탈한 것이라고 결정한다.When both hands are included in the hand detection result, if there is an area where the detection box corresponding to at least one hand overlaps the detection box corresponding to the steering wheel, the positional relationship between the steering wheel and the hand is decide that If there is an area in which the detection boxes respectively corresponding to both hands do not overlap with the detection boxes corresponding to the steering wheel, the positional relationship between the steering wheel and the hand determines that the hand leaves the steering wheel.

선택 가능한 일 실시형태에서, 스티어링 휠 검출 결과 및 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계는,In one selectable embodiment, determining the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result comprises:

검출될 이미지를 기반으로 검출될 이미지에 대응하는 중간 특징 맵을 생성하는 단계; 및generating an intermediate feature map corresponding to the image to be detected based on the image to be detected; and

중간 특징 맵에 대하여 콘볼루션 처리를 적어도 1회 수행하여 중간 특징 맵에 대응하는 두 채널의 분류 특징 맵을 생성하는 단계 - 두 채널의 분류 특징 맵 중의 각 채널 특징 맵은 하나의 손 카테고리에 대응함 -를 포함한다.generating a classification feature map of two channels corresponding to the intermediate feature map by performing convolution processing on the intermediate feature map at least once - Each channel feature map in the classification feature map of the two channels corresponds to one hand category - includes

손 검출 결과 중 손에 대응하는 검출 박스 정보가 나타내는 중심점 위치 정보를 기반으로, 분류 특징 맵 중에서 중심점 위치 정보에 매칭되는 특징 위치의 두 개의 특징값을 추출하고, 두 개의 특징값 중 최대 특징값을 선택하고, 분류 특징 맵 중 최대 특징값에 대응하는 채널 특징 맵의 카테고리를 중심점 위치 정보에 대응하는 카테고리로 결정한다.Based on the center point position information indicated by the detection box information corresponding to the hand among the hand detection results, two feature values of the feature location matching the center point location information are extracted from the classification feature map, and the maximum feature value among the two feature values is extracted. is selected, and a category of the channel feature map corresponding to the maximum feature value among the classification feature maps is determined as a category corresponding to the center point location information.

손에 대응하는 검출 박스 정보가 나타내는 각 중심점 위치 정보에 대응하는 카테고리를 기반으로, 스티어링 휠과 손 사이의 위치 관계를 결정한다.A positional relationship between the steering wheel and the hand is determined based on a category corresponding to each center point position information indicated by the detection box information corresponding to the hand.

여기서, 손 검출 결과가 나타내는 제2 검출 박스 정보가 비어 있지 않는 경우, 중간 특징 맵에 대하여 콘볼루션 처리를 적어도 1회 수행하여 중간 특징 맵에 대응하는 두 채널의 분류 특징 맵을 생성할 수 있다. 여기서, 두 채널의 분류 특징 맵 중의 각 채널 특징 맵은 하나의 손 카테고리에 대응한다. 예를 들어, 분류 특징 맵에서 제0 채널의 채널 특징 맵에 대응하는 카테고리는 운전자의 손이 스티어링 휠을 이탈한 카테고리일 수 있고, 제1 채널의 채널 특징 맵에 대응하는 카테고리는 운전자의 손이 스티어링 휠을 잡고 있는 카테고리일 수 있다.Here, when the second detection box information indicated by the hand detection result is not empty, convolution processing may be performed on the intermediate feature map at least once to generate a classification feature map of two channels corresponding to the intermediate feature map. Here, each channel feature map among the classification feature maps of the two channels corresponds to one hand category. For example, in the classification feature map, the category corresponding to the channel feature map of channel 0 may be a category in which the driver's hand leaves the steering wheel, and the category corresponding to the channel feature map of the first channel is the category in which the driver's hand leaves the steering wheel. It could be the category holding the steering wheel.

나아가, 손에 대응하는 검출 박스 정보가 나타내는 중심점 위치 정보를 기반으로, 분류 특징 맵에서 중심점 위치 정보에 매칭되는 특징 위치의 두 개의 특징값을 추출하여, 두 특징값 중 최대 특징값을 선택하고, 분류 특징 맵 중 상기 최대 특징값에 대응하는 채널 특징 맵의 카테고리를 중심점 위치 정보에 대응하는 카테고리로 결정할 수 있다.Furthermore, based on the center point location information indicated by the detection box information corresponding to the hand, extract two feature values of the feature location matching the center point location information from the classification feature map, and select the maximum feature value among the two feature values, A category of the channel feature map corresponding to the maximum feature value among the classification feature maps may be determined as a category corresponding to the center point location information.

손에 대응하는 검출 박스 정보에 두 개의 중심점 위치 정보를 포함할 때(즉, 왼손에 대응하는 중심점 위치 정보 및 오른손에 대응하는 중심점 위치 정보를 포함), 각 중심점 위치 정보에 대하여 상기 중심점 위치 정보에 대응하는 카테고리를 결정한다.When two center point position information is included in the detection box information corresponding to the hand (that is, the center point position information corresponding to the left hand and the center point position information corresponding to the right hand are included), for each center point position information, the center point position information is Determine the corresponding category.

예를 들어, 분류 특징 맵 중, 제0 채널의 채널 특징 맵에 대응하는 카테고리는 운전자의 손이 스티어링 휠을 이탈한 카테고리일 수 있고, 제1 채널의 채널 특징 맵에 대응하는 카테고리는 운전자의 손이 스티어링 휠을 잡고 있는 카테고리일 수 있을 경우, 왼손에 대응하는 중심점 위치 정보에 대하여, 분류 특징 맵에서 두 개의 특징값 0.8, 0.2를 추출하고, 분류 특징 맵 중 0.8에 대응하는 제0 채널 특징 맵의 카테고리를 왼손에 대응하는 중심점 위치 정보의 카테고리로 결정하는 바, 즉, 왼손에 대응하는 중심점 위치 정보의 카테고리는 운전자의 손이 스티어링 휠을 이탈한 카테고리이다. 이와 동시에, 오른손에 대응하는 중심점 위치 정보의 카테고리를 얻을 수 있다.For example, in the classification feature map, the category corresponding to the channel feature map of channel 0 may be a category in which the driver's hand leaves the steering wheel, and the category corresponding to the channel feature map of the first channel is the driver's hand. If it is a category holding the steering wheel, two feature values 0.8 and 0.2 are extracted from the classification feature map with respect to the center point location information corresponding to the left hand, and the 0th channel feature map corresponding to 0.8 in the classification feature map The category of is determined as a category of center point location information corresponding to the left hand, that is, the category of center point location information corresponding to the left hand is a category in which the driver's hand leaves the steering wheel. At the same time, the category of center point position information corresponding to the right hand can be obtained.

상기 실시형태에서, 스티어링 휠 검출결과를 결정하고 중간 특징 맵에 대하여 콘볼루션 처리를 적어도 1회 수행하여 분류 특징 맵을 생성한 후, 생성된 운전자 손의 중심점 위치 정보를 결합하여, 스티어링 휠과 손 사이의 위치 관계를 보다 정확하게 결정할 수 있다.In the above embodiment, after determining the steering wheel detection result and performing convolution processing on the intermediate feature map at least once to generate a classification feature map, the generated center point position information of the driver's hand is combined, and the steering wheel and the hand The positional relationship between them can be determined more accurately.

선택 가능한 일 실시형태에서, 손에 대응하는 검출 박스 정보가 나타내는 각 중심점 위치 정보에 대응하는 카테고리를 기반으로 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계는 다음을 포함할 수 있다:In one selectable embodiment, determining the positional relationship between the steering wheel and the hand based on a category corresponding to each center point position information indicated by the detection box information corresponding to the hand may include:

방식 1: 손에 대응하는 검출 박스 정보에 하나의 중심점 위치 정보를 포함하는 경우, 중심점 위치 정보에 대응하는 카테고리를 스티어링 휠과 손 사이의 위치 관계로 결정한다;Method 1: When the detection box information corresponding to the hand includes one center point position information, a category corresponding to the center point position information is determined as a positional relationship between the steering wheel and the hand;

방식 2: 손에 대응하는 검출 박스 정보에 두 개의 중심점 위치 정보를 포함하며 두 개의 중심점 위치 정보에 대응하는 카테고리가 운전자의 손이 스티어링 휠을 이탈한 카테고리인 경우, 스티어링 휠과 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 이탈한 것이라고 결정하고; 두 개의 중심점 위치 정보에 대응하는 카테고리 중 적어도 하나의 중심점 위치 정보에 대응하는 카테고리가 운전자의 손이 스티어링 휠을 잡고 있는 카테고리인 경우, 스티어링 휠과 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정한다.Method 2: When two center point location information is included in the detection box information corresponding to the hand, and the category corresponding to the two center point location information is a category in which the driver's hand leaves the steering wheel, the positional relationship between the steering wheel and the hand determines that the driver's hand is off the steering wheel; When the category corresponding to at least one center point position information among the categories corresponding to the two center point position information is a category in which the driver's hand is holding the steering wheel, the positional relationship between the steering wheel and the hand is decide to hold

방식 1의 경우, 손에 대응하는 검출 박스 정보에 하나의 중심점 위치 정보를 포함할 때, 즉, 손에 대응하는 검출 박스 정보에 왼손에 대응하는 중심점 위치 정보 또는 오른손에 대응하는 중심점 위치 정보를 포함하는 경우, 손에 대응하는 검출 박스 정보 중 상기 중심점 위치 정보에 대응하는 카테고리를 스티어링 휠과 손 사이의 위치 관계로 결정할 수 있다. 예를 들어, 손에 대응하는 검출 박스 정보에 왼손에 대응하는 중심점 위치 정보를 포함하고, 상기 왼손에 대응하는 중심점 위치 정보의 카테고리가 운전자의 손이 스티어링 휠을 잡고 있는 카테고리인 경우, 스티어링 휠과 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이다.In the case of method 1, when one center point location information is included in the detection box information corresponding to the hand, that is, the center point location information corresponding to the left hand or the center point location information corresponding to the right hand is included in the detection box information corresponding to the hand. In this case, a category corresponding to the center point position information among detection box information corresponding to the hand may be determined as a positional relationship between the steering wheel and the hand. For example, when the center point location information corresponding to the left hand is included in the detection box information corresponding to the hand, and the category of the center point location information corresponding to the left hand is a category in which the driver's hand is holding the steering wheel, the steering wheel and The positional relationship between the hands is that the driver's hand is holding the steering wheel.

방식 2의 경우, 손에 대응하는 검출 박스 정보에 두 개의 중심점 위치 정보를 포함할 때, 즉, 손에 대응하는 검출 박스 정보에 왼손에 대응하는 중심점 위치 정보 및 오른손에 대응하는 중심점 위치 정보를 포함할 경우, 두 개의 중심점 위치 정보에 대응하는 카테고리가 모두 운전자의 손이 스티어링 휠을 이탈한 카테고리일 때, 스티어링 휠과 손 사이의 위치 관계를 운전자의 손이 스티어링 휠을 이탈한 것이라고 결정하며, 왼손에 대응하는 중심점 위치 정보의 카테고리가 운전자의 손이 스티어링 휠을 잡고 있는 카테고리이고, 및/또는, 오른손에 대응하는 중심점 위치 정보의 카테고리가 운전자의 손이 스티어링 휠을 잡고 있는 카테고리일 때, 스티어링 휠과 손 사이의 위치 관계를 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정한다.In the case of method 2, when two center point position information is included in the detection box information corresponding to the hand, that is, the center point position information corresponding to the left hand and the center point position information corresponding to the right hand are included in the detection box information corresponding to the hand. In this case, when the categories corresponding to the two center point position information are all categories in which the driver's hand deviates from the steering wheel, it is determined that the positional relationship between the steering wheel and the hand is that the driver's hand deviates from the steering wheel, and the left hand When the category of the center point position information corresponding to is a category in which the driver's hand is holding the steering wheel, and/or the category of the center point position information corresponding to the right hand is the category in which the driver's hand is holding the steering wheel, the steering wheel The positional relationship between and hand determines that the driver's hand is holding the steering wheel.

S104에 대해:About S104:

여기서, 운전자의 운전 행위 카테고리가 위험 운전인 것으로 결정했을 때, 운전자의 운전 행위 카테고리를 기반으로 운전자에게 경고 메시지를 생성할 수 있다. 여기서, 상기 경고 메시지는 음성 형식으로 재생할 수 있다. 예를 들어, 생성되는 경고 메시지는 "위험합니다. 스티어링 휠을 잘 잡으세요."일 수 있다.Here, when it is determined that the driver's driving behavior category is dangerous driving, a warning message may be generated to the driver based on the driver's driving behavior category. Here, the warning message may be reproduced in a voice format. For example, the warning message generated could be "Dangerous. Hold the steering wheel."

구체적인 실시형태에 따른 상기 방법에서, 각 단계의 작성 순서는 엄격한 실행 순서임을 의미하지 않고 실시 과정에 대하여 어떤 한정도 하지 않으며, 각 단계의 구체적인 실행 순서는 그 기능 및 가능한 내재적 논리에 따라 결정되어야 한다는 점을 당업자는 이해할 수 있다.In the above method according to the specific embodiment, the writing order of each step does not imply a strict execution order and does not make any limitation on the implementation process, and that the specific execution order of each step should be determined according to its function and possible implicit logic The point can be understood by those skilled in the art.

위와 동일한 구상을 기반으로, 본 출원의 실시예에서 운전자 행위 검출 장치를 더 제공한다. 도 3에 도시한 바를 참조하면, 본 출원의 실시예에서 제공하는 운전자 행위 검출 장치의 구조 모식도는 획득 모듈(301), 검출 모듈(302), 결정 모듈(303) 및 경고 모듈(304)을 포함한다. 구체적으로:Based on the same concept as above, an embodiment of the present application further provides an apparatus for detecting a driver's behavior. Referring to FIG. 3 , the structural schematic diagram of the driver behavior detection device provided in the embodiment of the present application includes an acquisition module 301 , a detection module 302 , a determination module 303 , and a warning module 304 . do. Specifically:

획득 모듈(301)은 캐빈 내 운전 위치 영역의 검출될 이미지를 획득하도록 구성된다;the acquiring module 301 is configured to acquire an image to be detected of the driving position area in the cabin;

검출 모듈(302)은 상기 검출될 이미지에 대하여 검출을 수행하여, 스티어링 휠 검출 결과 및 손 검출 결과를 포함하는 목표 검출 결과를 얻도록 구성된다;the detection module 302 is configured to perform detection on the image to be detected, to obtain a target detection result including a steering wheel detection result and a hand detection result;

결정 모듈(303)은 상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하도록 구성된다;the determining module 303 is configured to determine the driving behavior category of the driver according to the target detection result;

경고 모듈(304)은 상기 운전자의 운전 행위 카테고리가 위험 운전일 때 경고 메시지를 발송하도록 구성된다.The warning module 304 is configured to send a warning message when the driving behavior category of the driver is dangerous driving.

본 출원의 일부 실시예에서, 상기 스티어링 휠 검출 결과에는 스티어링 휠이 포함되고 상기 손 검출 결과에는 손이 포함될 때, 상기 결정 모듈(303)이 상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정할 때,In some embodiments of the present application, when the steering wheel detection result includes a steering wheel and the hand detection result includes a hand, when the determination module 303 determines the driver's driving behavior category according to the target detection result ,

상기 스티어링 휠 검출 결과 및 상기 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하고;determine a positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result;

상기 위치 관계에 따라 운전자의 운전 행위 카테고리를 결정하도록 구성된다.and determine the driving behavior category of the driver according to the positional relationship.

본 출원의 일부 실시예에서, 상기 결정 모듈(303)이 위치 관계에 따라 운전자의 운전 행위 카테고리를 결정할 때,In some embodiments of the present application, when the determining module 303 determines the driving behavior category of the driver according to the positional relationship,

상기 위치 관계가 운전자의 손이 스티어링 휠을 잡고 있음을 나타내는 경우, 상기 운전자의 운전 행위 카테고리가 안전 운전인 것으로 결정하도록 구성된다.and determine that the driving behavior category of the driver is safe driving when the positional relationship indicates that the driver's hand is holding the steering wheel.

본 출원의 일부 실시예에서, 상기 결정 모듈(303)이 위치 관계에 따라 운전자의 운전 행위 카테고리를 결정할 때,In some embodiments of the present application, when the determining module 303 determines the driving behavior category of the driver according to the positional relationship,

상기 위치 관계가 운전자의 양손이 스티어링 휠을 이탈했음을 나타내는 경우, 상기 운전자의 운전 행위 카테고리가 위험 운전인 것으로 결정하도록 구성된다.and determine that the driving behavior category of the driver is dangerous driving when the positional relationship indicates that the driver's both hands have left the steering wheel.

본 출원의 일부 실시예에서, 상기 스티어링 휠 검출 결과에 스티어링 휠을 포함하고 상기 손 검출 결과에 손을 포함하지 않을 때, 상기 결정 모듈(303)이 상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정할 때,In some embodiments of the present application, when the steering wheel is included in the steering wheel detection result and the hand is not included in the hand detection result, the determination module 303 determines the driver's driving behavior category according to the target detection result when deciding,

상기 목표 검출 결과에 따라 상기 운전자의 운전 행위 카테고리가 위험 운전인 것으로 결정하도록 구성된다.and determine that the driving behavior category of the driver is dangerous driving according to the target detection result.

본 출원의 일부 실시예에서, 상기 검출 모듈(302)이 상기 검출될 이미지에 대하여 검출을 수행하여 목표 검출 결과를 얻을 때,In some embodiments of the present application, when the detection module 302 performs detection on the to-be-detected image to obtain a target detection result,

상기 검출될 이미지를 기반으로 상기 검출될 이미지에 대응하는 중간 특징 맵을 생성하고;generate an intermediate feature map corresponding to the to-be-detected image based on the to-be-detected image;

상기 중간 특징 맵에 대하여 목표 콘볼루션 처리를 적어도 1회 수행하여, 상기 중간 특징 맵에 대응하는 복수 채널의 검출 특징 맵을 생성하고;performing target convolution processing on the intermediate feature map at least once to generate a detection feature map of a plurality of channels corresponding to the intermediate feature map;

활성화 함수를 이용하여 복수 채널의 상기 검출 특징 맵 중 위치를 나타내는 목표 채널 특징 맵의 각 특징값에 대하여 특징값 변환 처리를 수행하여, 변환 후의 목표 채널 특징 맵을 생성하고;performing a feature value conversion process on each feature value of a target channel feature map indicating a location among the detection feature maps of a plurality of channels by using an activation function to generate a target channel feature map after transformation;

미리 설정된 풀링 사이즈 및 풀링 스트라이드에 따라 변환 후의 목표 채널 특징 맵에 대하여 최대 풀링 처리를 수행하여 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 얻는 바, 상기 위치 인덱스는 상기 변환 후의 목표 채널 특징 맵에서의 상기 풀링값의 위치를 식별하는 데에 사용되고;A maximum pooling process is performed on the target channel feature map after transformation according to a preset pooling size and pooling stride to obtain a plurality of pooling values and a location index corresponding to each pooling value among the plurality of pooling values, wherein the location index is the used to identify the location of the pooling value in the target channel feature map after transformation;

복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 목표 검출 박스 정보를 생성하고;generate target detection box information based on a plurality of pooling values and a position index corresponding to each pooling value among the plurality of pooling values;

상기 목표 검출 박스 정보에 따라 상기 목표 검출 결과를 결정하도록 구성된다.and determine the target detection result according to the target detection box information.

본 출원의 일부 실시예에서, 상기 검출 모듈(302)이 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 목표 검출 박스 정보를 생성할 때,In some embodiments of the present application, when the detection module 302 generates target detection box information based on a plurality of pooling values and a position index corresponding to each pooling value among the plurality of pooling values,

상기 복수의 풀링값 중 적어도 하나의 풀링값이 설정된 풀링 임계값보다 큰 경우, 상기 복수의 풀링값 및 풀링 임계값을 기반으로 상기 복수의 풀링값 중에서 상기 목표 검출 박스의 중심점의 목표 풀링값을 결정하고;When at least one pooling value among the plurality of pooling values is greater than a set pooling threshold, a target pooling value of the center point of the target detection box is determined from among the plurality of pooling values based on the plurality of pooling values and a pooling threshold and;

상기 목표 풀링값에 대응하는 위치 인덱스를 기반으로 상기 목표 검출 박스 정보를 생성하도록 구성된다.and generate the target detection box information based on a location index corresponding to the target pooling value.

본 출원의 일부 실시예에서, 상기 검출 모듈(302)이 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 상기 목표 검출 박스 정보를 생성할 때,In some embodiments of the present application, when the detection module 302 generates the target detection box information based on a plurality of pooling values and a position index corresponding to each pooling value among the plurality of pooling values,

상기 복수의 풀링값이 설정된 풀링 임계값보다 작거나 같을 경우, 상기 목표 검출 박스 정보가 비어 있는 것으로 결정하도록 구성된다.and determine that the target detection box information is empty when the plurality of pooling values are less than or equal to a set pooling threshold.

본 출원의 일부 실시예에서, 상기 결정 모듈(303)이 상기 스티어링 휠 검출 결과 및 상기 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정할 때,In some embodiments of the present application, when the determining module 303 determines the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result,

상기 손 검출 결과에 한쪽 손을 포함하는 경우, 만일 상기 손 검출 결과 중 손에 대응하는 검출 박스가 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정하고, 만일 상기 손 검출 결과 중 손에 대응하는 검출 박스가 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하지 않으면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하도록 구성된다.When one hand is included in the hand detection result, if there is a region where a detection box corresponding to a hand in the hand detection result overlaps a detection box corresponding to the steering wheel in the steering wheel detection result, the steering wheel and the hand The positional relationship between the two determines that the driver's hand is holding the steering wheel, and if a detection box corresponding to the hand in the hand detection result overlaps with a detection box corresponding to the steering wheel in the steering wheel detection result does not exist. otherwise, the positional relationship between the steering wheel and the hand is configured to determine that both hands of the driver are off the steering wheel.

본 출원의 일부 실시예에서, 상기 결정 모듈(303)이 상기 스티어링 휠 검출 결과 및 상기 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정할 때,In some embodiments of the present application, when the determining module 303 determines the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result,

상기 손 검출 결과에 양쪽 손을 포함하는 경우, 만일 상기 손 검출 결과 중 양쪽 손에 대응하는 검출 박스가 각각 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하지 않으면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하고, 만일 상기 손 검출 결과 중 적어도 한쪽 손에 대응하는 검출 박스가 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정하도록 구성된다.When both hands are included in the hand detection result, if a detection box corresponding to both hands in the hand detection result does not overlap with a detection box corresponding to the steering wheel in the steering wheel detection result, the steering wheel The positional relationship between the hand and the hand determines that both hands of the driver leave the steering wheel, and if a detection box corresponding to at least one hand among the hand detection results is a detection box corresponding to the steering wheel among the steering wheel detection results, If an overlapping region exists, the positional relationship between the steering wheel and the hand is configured to determine that the driver's hand is holding the steering wheel.

본 출원의 일부 실시예에서, 상기 결정 모듈(303)이 상기 스티어링 휠 검출 결과 및 상기 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정할 때,In some embodiments of the present application, when the determining module 303 determines the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result,

상기 검출될 이미지를 기반으로 상기 검출될 이미지에 대응하는 중간 특징 맵을 생성하고;generate an intermediate feature map corresponding to the to-be-detected image based on the to-be-detected image;

상기 중간 특징 맵에 대하여 콘볼루션 처리를 적어도 1회 수행하여, 상기 중간 특징 맵에 대응하는 두 채널의 분류 특징 맵을 생성하고; 여기서 상기 두 채널의 분류 특징 맵 중의 각 채널 특징 맵은 하나의 손 카테고리에 대응한다;performing convolution processing on the intermediate feature map at least once to generate a classification feature map of two channels corresponding to the intermediate feature map; wherein each channel feature map in the classification feature map of the two channels corresponds to one hand category;

상기 손 검출 결과 중 손에 대응하는 검출 박스 정보가 나타내는 중심점 위치 정보를 기반으로 상기 분류 특징 맵에서 상기 중심점 위치 정보에 매칭되는 특징 위치의 두 개의 특징값을 추출하고, 두 개의 특징값 중 최대 특징값을 선택하고, 상기 분류 특징 맵 중 상기 최대 특징값에 대응하는 채널 특징 맵의 카테고리를 상기 중심점 위치 정보에 대응하는 카테고리로 결정하고;Based on the center point location information indicated by the detection box information corresponding to the hand among the hand detection results, two feature values of a feature location matching the center point location information are extracted from the classification feature map, and the maximum feature among the two feature values selecting a value, and determining a category of a channel feature map corresponding to the maximum feature value among the classification feature maps as a category corresponding to the center point location information;

상기 손에 대응하는 검출 박스 정보가 나타내는 각 중심점 위치 정보에 대응하는 카테고리를 기반으로 상기 스티어링 휠과 손 사이의 위치 관계를 결정하도록 구성된다.and determine a positional relationship between the steering wheel and the hand based on a category corresponding to each center point position information indicated by the detection box information corresponding to the hand.

본 출원의 일부 실시예에서, 상기 결정 모듈(303)이 상기 손에 대응하는 검출 박스 정보가 나타내는 각 중심점 위치 정보에 대응하는 카테고리를 기반으로 상기 스티어링 휠과 손 사이의 위치 관계를 결정할 때,In some embodiments of the present application, when the determining module 303 determines the positional relationship between the steering wheel and the hand based on a category corresponding to each center point position information indicated by the detection box information corresponding to the hand,

상기 손에 대응하는 검출 박스 정보에 하나의 중심점 위치 정보를 포함하는 경우, 상기 중심점 위치 정보에 대응하는 카테고리를 스티어링 휠과 손 사이의 위치 관계로 결정하고;when the detection box information corresponding to the hand includes one center point position information, determining a category corresponding to the center point position information as a positional relationship between the steering wheel and the hand;

상기 손에 대응하는 검출 박스 정보에 두 개의 중심점 위치 정보를 포함하며, 상기 두 개의 중심점 위치 정보에 대응하는 카테고리가 운전자의 손이 스티어링 휠을 이탈한 카테고리인 경우, 상기 스티어링 휠과 손 사이의 위치 관계는 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하고, 상기 두 개의 중심점 위치 정보에 대응하는 카테고리 중 적어도 하나의 중심점 위치 정보에 대응하는 카테고리가 운전자의 손이 스티어링 휠을 잡고 있는 카테고리인 경우, 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정하도록 구성된다.The detection box information corresponding to the hand includes two center point location information, and when the category corresponding to the two center point location information is a category in which the driver's hand leaves the steering wheel, the position between the steering wheel and the hand The relationship determines that both hands of the driver leave the steering wheel, and when the category corresponding to at least one center point location information among the categories corresponding to the two center point location information is a category in which the driver's hands are holding the steering wheel, The positional relationship between the steering wheel and the hand is configured to determine that the driver's hand is holding the steering wheel.

일부 실시예에서, 본 출원의 실시예에서 제공하는 장치가 구비하는 기능 또는 포함하는 템플릿은 상기 방법 실시예에서 설명한 방법을 실행하는 데에 사용될 수 있으며, 그 구체적인 구현에 대해서는 상기 방법 실시예에서 설명한 바를 참조할 수 있으며, 간결함을 위해 여기서는 중복 설명을 생략한다.In some embodiments, the function provided by the device provided in the embodiments of the present application or the template included may be used to execute the method described in the method embodiment, and the specific implementation described in the method embodiment Reference may be made to the bar, and for the sake of brevity, redundant descriptions are omitted here.

동일한 기술 구상을 기반으로, 본 출원의 실시예에서 전자 디바이스를 더 제공한다. 도 4에 도시한 바를 참조하면, 본 출원의 실시예에서 제공하는 전자 디바이스의 구조 모식도는 프로세서(401), 메모리(402) 및 버스(403)를 포함한다. 여기서, 메모리(402)는 실행 명령을 저장하도록 구성되며, 램(4021) 및 외부 메모리(4022)를 포함한다. 여기서 램(4021)은 내부 메모리라고도 하며, 프로세서(401) 내의 연산 데이터, 및 하드 디스크 등 외부 메모리(4022)와 교환되는 데이터를 일시적으로 저장하도록 구성된다. 프로세서(401)는 램(4021)을 통해 외부 메모리(4022)와 데이터 교환을 수행한다. 전자 디바이스(400)가 실행될 경우, 프로세서(401)와 메모리(402)는 버스(403)를 통해 통신함으로써 프로세서(401)가, 아래의 명령을 실행하도록 한다:Based on the same technical concept, embodiments of the present application further provide an electronic device. Referring to FIG. 4 , a structural schematic diagram of an electronic device provided in an embodiment of the present application includes a processor 401 , a memory 402 , and a bus 403 . Here, the memory 402 is configured to store an execution instruction, and includes a RAM 4021 and an external memory 4022 . Here, the RAM 4021 is also referred to as an internal memory, and is configured to temporarily store arithmetic data in the processor 401 and data exchanged with an external memory 4022 such as a hard disk. The processor 401 performs data exchange with the external memory 4022 through the RAM 4021 . When the electronic device 400 is executed, the processor 401 and the memory 402 communicate via the bus 403 to cause the processor 401 to execute the following commands:

캐빈 내 운전 위치 영역의 검출될 이미지를 획득하는 명령;instructions for obtaining an image to be detected of a driving position area within the cabin;

상기 검출될 이미지에 대하여 검출을 수행하여, 스티어링 휠 검출 결과 및 손 검출 결과를 포함하는 목표 검출 결과를 얻는 명령;instructions for performing detection on the image to be detected to obtain a target detection result including a steering wheel detection result and a hand detection result;

상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하는 명령; 및a command for determining a driving behavior category of the driver according to the target detection result; and

상기 운전자의 운전 행위 카테고리가 위험 운전일 때 경고 메시지를 발송하는 명령.A command to send a warning message when the driving behavior category of the driver is dangerous driving.

또한, 본 출원의 실시예에서 컴퓨터 판독 가능 저장 매체를 더 제공한다. 상기 컴퓨터 판독 가능 저장 매체에는 컴퓨터 프로그램이 저장되어 있고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행 시 상기 방법 실시예에 따른 운전자 행위 검출 방법의 단계를 실행한다.In addition, an embodiment of the present application further provides a computer-readable storage medium. A computer program is stored in the computer readable storage medium, and when the computer program is executed by a processor, the steps of the method for detecting driver behavior according to the embodiment of the method are executed.

본 출원의 실시예에서 제공하는 운전자 행위 검출 방법의 컴퓨터 프로그램 제품은 프로그램 코드가 저장된 컴퓨터 판독 가능 저장 매체를 포함한다. 상기 프로그램 코드에 포함된 명령은 상기 방법 실시예에 따른 운전자 행위 검출 방법의 단계를 실행하는 데에 사용될 수 있으며, 구체적인 내용은 상기 방법 실시예를 참조할 수 있으며, 여기서는 중복 설명을 생략한다.The computer program product of the driver behavior detection method provided in the embodiment of the present application includes a computer-readable storage medium in which the program code is stored. The instructions included in the program code may be used to execute the steps of the method for detecting driver behavior according to the embodiment of the method, and for specific details, reference may be made to the embodiment of the method, and a redundant description will be omitted herein.

편리하고 간결한 설명을 위해, 상술한 시스템, 장치의 구체적인 작업 과정은 상술한 방법 실시예 중 대응하는 과정을 참고할 수 있다는 점을 당업자는 명확히 이해할 수 있으며, 여기서는 중복 설명을 생략한다. 본 출원에서 제공하는 몇 가지 실시예에서, 공개된 시스템, 장치 및 방법은 기타 방식으로 구현될 수 있다는 것을 이해해야 한다. 상문에서 기술된 장치 실시예는 단지 설명을 위한 것에 불과하며, 예를 들어 상기 유닛의 구분은 일종의 논리적인 기능의 구분일 뿐, 실제로 구현 시 별도의 구분 방식이 있을 수 있다. 예를 들어 복수의 유닛 또는 컴포넌트는 별도의 시스템에 결합되거나 집적될 수 있고, 또는 일부 특징을 생략하거나 실행하지 않을 수 있으며, 또한, 나타내거나 논의된 상호 간의 결합이나 직접 결합, 또는 통신 연결은 일부 통신 인터페이스, 장치 또는 유닛을 통한 간접 결합 또는 통신 연결일 수 있으며, 전기적, 기계적 또는 기타 형식일 수 있다.For a convenient and concise description, a person skilled in the art can clearly understand that a specific operation procedure of the above-described system and apparatus may refer to a corresponding procedure among the above-described method embodiments, and redundant description will be omitted herein. In the several embodiments provided in this application, it should be understood that the disclosed systems, apparatuses, and methods may be implemented in other ways. The device embodiment described in the above text is only for explanation, for example, the division of the unit is only a kind of logical function division, and there may be a separate division method in actual implementation. For example, a plurality of units or components may be combined or integrated in separate systems, or some features may be omitted or not implemented, and further, the shown or discussed coupling or direct coupling to each other, or communication connection may be some It may be an indirect coupling or communication connection through a communication interface, device or unit, and may be in an electrical, mechanical or other form.

분리 부품으로서 설명된 상기 유닛은 물리적인 분리일 수도 있고 아닐 수도 있으며, 유닛으로서 나타낸 부품은 물리적인 유닛일 수도 있고 아닐 수도 있는바, 즉 한 곳에 위치할 수도 있고, 복수의 네트워크 유닛에 분포될 수도 있다. 실제 필요에 따라 그 중의 일부 또는 전체 유닛을 선택하여 본 실시예 방안의 목적을 구현할 수 있다.The unit described as a separate part may or may not be physically separate, and the part shown as a unit may or may not be a physical unit, that is, it may be located in one place or distributed in a plurality of network units. there is. According to actual needs, some or all of the units may be selected to implement the purpose of the present embodiment method.

또한, 본 출원의 각 실시예 중의 각 기능 유닛은 하나의 처리 유닛에 집적될 수 있고, 각 유닛이 단독으로 물리적으로 존재할 수도 있으며, 두 개 또는 두 개 이상의 유닛이 하나의 유닛에 집적될 수도 있다.In addition, each functional unit in each embodiment of the present application may be integrated into one processing unit, each unit may physically exist alone, or two or more than two units may be integrated into one unit. .

상기 기능이 소프트웨어 기능 유닛의 형식으로 구현되고 또한 독립된 제품으로 판매 또는 사용될 때, 프로세서가 실행할 수 있는 비휘발성 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해를 기반으로, 본 출원의 기술방안의 본질적인 부분, 다시 말해 종래 기술에 기여하는 부분 또는 상기 기술방안의 일부는 소프트웨어 제품의 형태로 구현할 수 있다. 상기 컴퓨터 소프트웨어 제품은 저장 매체에 저장되고, 약간의 명령어를 포함함으로써 한 대의 컴퓨터 디바이스(개인용 컴퓨터, 서버 또는 네트워크 디바이스 등일 수 있음)가 본 출원의 각 실시예에 따른 방법의 단계의 전부 또는 일부를 실행하도록 한다. 전술한 저장 매체는 U 디스크, 외장 하드디스크, 읽기전용 메모리(ROM, Read-Only Memory), 랜덤 액세스 메모리(RAM, Random Access Memory), 자기 디스크 또는 광 디스크 등 프로그램 코드를 저장할 수 있는 각종 매체를 포함한다.When the above function is implemented in the form of a software function unit and sold or used as an independent product, it may be stored in a non-volatile computer-readable storage medium executable by a processor. Based on this understanding, an essential part of the technical solution of the present application, that is, a part contributing to the prior art or a part of the technical solution may be implemented in the form of a software product. The computer software product is stored in a storage medium, and includes some instructions so that one computer device (which may be a personal computer, a server, or a network device, etc.) performs all or part of the steps of the method according to each embodiment of the present application. make it run The above-mentioned storage medium includes various media capable of storing program codes, such as U disk, external hard disk, read-only memory (ROM), random access memory (RAM), magnetic disk or optical disk. include

이상은 단지 본 출원의 구체적인 실시형태일 뿐이고, 본 출원의 보호범위는 이에 제한되지 않는다. 당업자가 본 출원에 개시된 기술범위 내에서 쉽게 생각할 수 있는 변경 또는 교체는 모두 본 출원의 보호범위 내에 포함되어야 한다. 따라서, 본 출원의 보호 범위는 청구범위의 보호 범위를 기준으로 해야 한다.The above is only a specific embodiment of the present application, and the protection scope of the present application is not limited thereto. Any changes or replacements easily conceivable by those skilled in the art within the technical scope disclosed in this application should be included within the protection scope of the present application. Accordingly, the protection scope of the present application should be based on the protection scope of the claims.

본 출원의 실시예에서 운전자 행위 검출 방법, 장치, 전자 디바이스, 컴퓨터 저장 매체 및 컴퓨터 프로그램을 공개한다. 상기 방법은, 로컬 에이전트 프로그램을 통해 제1 제어되는 디바이스 작업을 제어하는 데에 사용되는 프로그램 코드를 획득하는 단계; 및 상기 로컬 에이전트 프로그램을 통해 상기 프로그램 코드를 상기 제1 제어되는 디바이스에 발송하여, 상기 제1 제어되는 디바이스가 상기 프로그램 코드를 실행하도록 하는 단계를 포함한다. 본 출원의 실시예의 기술방안에 따르면, 로컬 에이전트 프로그램을 기반으로 프로그램 코드를 획득하고 푸시하며, 나아가 프로그램 코드를 기반으로 제1 제어되는 디바이스에 대한 제어를 구현할 수 있다. 또한, 프로그램 코드는 유연하게 편집될 수 있음으로써, 보다 유연하게 제1 제어되는 디바이스를 제어할 수 있다.In the embodiments of the present application, a method, an apparatus, an electronic device, a computer storage medium, and a computer program for detecting a driver's behavior are disclosed. The method includes: obtaining a program code used to control a first controlled device operation through a local agent program; and sending the program code to the first controlled device through the local agent program, so that the first controlled device executes the program code. According to the technical solution of the embodiment of the present application, it is possible to acquire and push the program code based on the local agent program, and further implement control of the first controlled device based on the program code. In addition, since the program code can be flexibly edited, it is possible to more flexibly control the first controlled device.

Claims (16)

운전자 행위 검출 방법에 있어서,
캐빈 내 운전 위치 영역의 검출될 이미지를 획득하는 단계;
상기 검출될 이미지에 대하여 검출을 수행하여, 스티어링 휠 검출 결과 및 손 검출 결과를 포함하는 목표 검출 결과를 얻는 단계;
상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하는 단계; 및
상기 운전자의 운전 행위 카테고리가 위험 운전일 때 경고 메시지를 발송하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
In the driver behavior detection method,
acquiring an image to be detected of a driving position area within the cabin;
performing detection on the to-be-detected image to obtain a target detection result including a steering wheel detection result and a hand detection result;
determining a driving behavior category of the driver according to the target detection result; and
and sending a warning message when the driver's driving behavior category is dangerous driving.
Driver behavior detection method, characterized in that.
제1항에 있어서,
상기 스티어링 휠 검출 결과에는 스티어링 휠이 포함되고 상기 손 검출 결과에는 손이 포함될 때, 상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는,
상기 스티어링 휠 검출 결과 및 상기 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계; 및
상기 위치 관계에 따라 운전자의 운전 행위 카테고리를 결정하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
According to claim 1,
When the steering wheel detection result includes a steering wheel and the hand detection result includes a hand, determining the driving behavior category of the driver according to the target detection result includes:
determining a positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result; and
determining a driving behavior category of the driver according to the positional relationship
Driver behavior detection method, characterized in that.
제2항에 있어서,
상기 위치 관계에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는,
상기 위치 관계가 운전자의 손이 스티어링 휠을 잡고 있음을 나타내는 경우, 상기 운전자의 운전 행위 카테고리가 안전 운전인 것으로 결정하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
3. The method of claim 2,
The step of determining the driving behavior category of the driver according to the positional relationship comprises:
determining that the driver's driving behavior category is safe driving when the positional relationship indicates that the driver's hand is holding the steering wheel
Driver behavior detection method, characterized in that.
제2항에 있어서,
위치 관계에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는,
상기 위치 관계가 운전자의 양손이 스티어링 휠을 이탈했음을 나타내는 경우, 상기 운전자의 운전 행위 카테고리가 위험 운전인 것으로 결정하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
3. The method of claim 2,
The step of determining the driver's driving behavior category according to the location relationship includes:
determining that the driving behavior category of the driver is dangerous driving when the positional relationship indicates that the driver's both hands have left the steering wheel;
Driver behavior detection method, characterized in that.
제2항에 있어서,
상기 스티어링 휠 검출 결과 및 상기 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계는,
상기 손 검출 결과에 한쪽 손을 포함하는 경우, 만일 상기 손 검출 결과 중 손에 대응하는 검출 박스가 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정하고, 만일 상기 손 검출 결과 중 손에 대응하는 검출 박스가 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하지 않으면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
3. The method of claim 2,
The step of determining the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result,
When one hand is included in the hand detection result, if there is an area where a detection box corresponding to a hand in the hand detection result overlaps a detection box corresponding to the steering wheel in the steering wheel detection result, the steering wheel and the hand The positional relationship between the two determines that the driver's hand is holding the steering wheel, and if a detection box corresponding to the hand in the hand detection result overlaps with a detection box corresponding to the steering wheel in the steering wheel detection result does not exist. otherwise, determining that the positional relationship between the steering wheel and the hand is that both hands of the driver have left the steering wheel.
Driver behavior detection method, characterized in that.
제2항에 있어서,
상기 스티어링 휠 검출 결과 및 상기 손 감지 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계는,
상기 손 검출 결과에 양쪽 손을 포함하는 경우, 만일 상기 손 검출 결과 중 양쪽 손에 대응하는 검출 박스가 각각 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하지 않으면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하고, 만일 상기 손 검출 결과 중 적어도 한쪽 손에 대응하는 검출 박스가 상기 스티어링 휠 검출 결과 중 스티어링 휠에 대응하는 검출 박스와 겹치는 영역이 존재하면 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
3. The method of claim 2,
The step of determining the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result,
When both hands are included in the hand detection result, if a detection box corresponding to both hands in the hand detection result does not overlap with a detection box corresponding to the steering wheel in the steering wheel detection result, the steering wheel The positional relationship between the hand and the hand determines that the driver's both hands have left the steering wheel, and if a detection box corresponding to at least one hand among the hand detection results is a detection box corresponding to the steering wheel among the steering wheel detection results, determining that the positional relationship between the steering wheel and the hand is that the driver's hand is holding the steering wheel if an overlapping area exists.
Driver behavior detection method, characterized in that.
제2항에 있어서,
상기 스티어링 휠 검출 결과 및 상기 손 검출 결과에 따라 스티어링 휠과 손 사이의 위치 관계를 결정하는 단계는,
상기 검출될 이미지를 기반으로 상기 검출될 이미지에 대응하는 중간 특징 맵을 생성하는 단계;
상기 중간 특징 맵에 대하여 콘볼루션 처리를 적어도 1회 수행하여, 상기 중간 특징 맵에 대응하는 두 채널의 분류 특징 맵을 생성하는 단계 - 상기 두 채널의 분류 특징 맵 중의 각 채널 특징 맵은 하나의 손 카테고리에 대응함 -;
상기 손 검출 결과 중 손에 대응하는 검출 박스 정보가 나타내는 중심점 위치 정보를 기반으로 상기 분류 특징 맵에서 상기 중심점 위치 정보에 매칭되는 특징 위치의 두 개의 특징값을 추출하는 단계;
상기 두 개의 특징값 중 최대 특징값을 선택하고, 상기 분류 특징 맵 중 상기 최대 특징값에 대응하는 채널 특징 맵의 카테고리를 상기 중심점 위치 정보에 대응하는 카테고리로 결정하는 단계; 및
상기 손에 대응하는 검출 박스 정보가 나타내는 각 중심점 위치 정보에 대응하는 카테고리를 기반으로 상기 스티어링 휠과 상기 손 사이의 위치 관계를 결정하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
3. The method of claim 2,
The step of determining the positional relationship between the steering wheel and the hand according to the steering wheel detection result and the hand detection result,
generating an intermediate feature map corresponding to the image to be detected based on the image to be detected;
generating a classification feature map of two channels corresponding to the intermediate feature map by performing convolution processing on the intermediate feature map at least once Corresponds to category -;
extracting two feature values of a feature location matching the center point location information from the classification feature map based on center point location information indicated by detection box information corresponding to a hand among the hand detection results;
selecting a maximum feature value among the two feature values and determining a category of a channel feature map corresponding to the maximum feature value among the classification feature maps as a category corresponding to the center point location information; and
determining a positional relationship between the steering wheel and the hand based on a category corresponding to each center point position information indicated by the detection box information corresponding to the hand
Driver behavior detection method, characterized in that.
제7항에 있어서,
상기 손에 대응하는 검출 박스 정보가 나타내는 각 중심점 위치 정보에 대응하는 카테고리를 기반으로 상기 스티어링 휠과 상기 손 사이의 위치 관계를 결정하는 단계는,
상기 손에 대응하는 검출 박스 정보에 하나의 중심점 위치 정보를 포함하는 경우, 상기 중심점 위치 정보에 대응하는 카테고리를 스티어링 휠과 손 사이의 위치 관계로 결정하는 단계; 및
상기 손에 대응하는 검출 박스 정보에 두 개의 중심점 위치 정보를 포함하며, 상기 두 개의 중심점 위치 정보에 대응하는 카테고리가 운전자의 손이 스티어링 휠을 이탈한 카테고리인 경우, 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 양손이 스티어링 휠을 이탈한 것이라고 결정하고, 상기 두 개의 중심점 위치 정보에 대응하는 카테고리 중 적어도 하나의 중심점 위치 정보에 대응하는 카테고리가 운전자의 손이 스티어링 휠을 잡고 있는 카테고리인 경우, 상기 스티어링 휠과 상기 손 사이의 위치 관계는 운전자의 손이 스티어링 휠을 잡고 있는 것이라고 결정하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
8. The method of claim 7,
The step of determining a positional relationship between the steering wheel and the hand based on a category corresponding to each center point position information indicated by the detection box information corresponding to the hand comprises:
determining a category corresponding to the center point position information as a positional relationship between the steering wheel and the hand when the detection box information corresponding to the hand includes one center point position information; and
The detection box information corresponding to the hand includes two center point location information, and when the category corresponding to the two center point location information is a category in which the driver's hand leaves the steering wheel, the distance between the steering wheel and the hand When the positional relationship determines that both hands of the driver leave the steering wheel, and a category corresponding to at least one center point position information among the categories corresponding to the two center point location information is a category in which the driver's hands are holding the steering wheel , determining that the positional relationship between the steering wheel and the hand is that the driver's hand is holding the steering wheel.
Driver behavior detection method, characterized in that.
제1항에 있어서,
상기 스티어링 휠 검출 결과에 스티어링 휠을 포함하고 상기 손 검출 결과에 손을 포함하지 않을 때, 상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하는 단계는,
상기 목표 검출 결과에 따라 상기 운전자의 운전 행위 카테고리가 위험 운전인 것으로 결정하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
According to claim 1,
When the steering wheel is included in the steering wheel detection result and the hand is not included in the hand detection result, determining the driving behavior category of the driver according to the target detection result includes:
determining that the driving behavior category of the driver is dangerous driving according to the target detection result
Driver behavior detection method, characterized in that.
제1항 내지 제9항 중 어느 한 항에 있어서,
상기 검출될 이미지에 대하여 검출을 수행하여 목표 검출 결과를 얻는 단계는,
상기 검출될 이미지를 기반으로 상기 검출될 이미지에 대응하는 중간 특징 맵을 생성하는 단계;
상기 중간 특징 맵에 대하여 목표 콘볼루션 처리를 적어도 1회 수행하여, 상기 중간 특징 맵에 대응하는 복수 채널의 검출 특징 맵을 생성하는 단계;
활성화 함수를 이용하여 복수 채널의 상기 검출 특징 맵 중 위치를 나타내는 목표 채널 특징 맵의 각 특징값에 대하여 특징값 변환 처리를 수행하여, 변환 후의 목표 채널 특징 맵을 생성하는 단계;
미리 설정된 풀링 사이즈 및 풀링 스트라이드에 따라 변환 후의 목표 채널 특징 맵에 대하여 최대 풀링 처리를 수행하여 복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 얻는 단계 - 상기 위치 인덱스는 상기 변환 후의 목표 채널 특징 맵에서의 상기 풀링값의 위치를 식별하는 데에 사용됨 -;
복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 목표 검출 박스 정보를 생성하는 단계; 및
상기 목표 검출 박스 정보에 따라 상기 목표 검출 결과를 결정하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
10. The method according to any one of claims 1 to 9,
The step of obtaining a target detection result by performing detection on the image to be detected includes:
generating an intermediate feature map corresponding to the to-be-detected image based on the to-be-detected image;
performing a target convolution process on the intermediate feature map at least once to generate a detection feature map of a plurality of channels corresponding to the intermediate feature map;
generating a target channel feature map after transformation by performing a feature value conversion process on each feature value of a target channel feature map indicating a location among the detection feature maps of a plurality of channels using an activation function;
Obtaining a plurality of pooling values and a position index corresponding to each pooling value among the plurality of pooling values by performing maximum pooling processing on the target channel feature map after transformation according to a preset pooling size and pooling stride - The position index is the used to identify the location of the pooling value in the target channel feature map after transformation;
generating target detection box information based on a plurality of pooling values and a location index corresponding to each pooling value among the plurality of pooling values; and
determining the target detection result according to the target detection box information
Driver behavior detection method, characterized in that.
제10항에 있어서,
복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 상기 목표 검출 박스 정보를 생성하는 단계는,
상기 복수의 풀링값 중 적어도 하나의 풀링값이 설정된 풀링 임계값보다 큰 경우, 상기 복수의 풀링값 및 풀링 임계값을 기반으로 상기 복수의 풀링값 중에서 상기 목표 검출 박스의 중심점의 목표 풀링값을 결정하는 단계; 및
상기 목표 풀링값에 대응하는 위치 인덱스를 기반으로 상기 목표 검출 박스 정보를 생성하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
11. The method of claim 10,
Generating the target detection box information based on a plurality of pooling values and a position index corresponding to each pooling value among the plurality of pooling values,
When at least one pooling value among the plurality of pooling values is greater than a set pooling threshold, a target pooling value of the center point of the target detection box is determined from among the plurality of pooling values based on the plurality of pooling values and a pooling threshold to do; and
generating the target detection box information based on a location index corresponding to the target pooling value
Driver behavior detection method, characterized in that.
제10항에 있어서,
복수의 풀링값 및 복수의 풀링값 중 각 풀링값에 대응하는 위치 인덱스를 기반으로 상기 목표 검출 박스 정보를 생성하는 단계는,
상기 복수의 풀링값이 설정된 풀링 임계값보다 작거나 같을 경우, 상기 목표 검출 박스 정보가 비어 있는 것으로 결정하는 단계를 포함하는
것을 특징으로 하는 운전자 행위 검출 방법.
11. The method of claim 10,
Generating the target detection box information based on a plurality of pooling values and a position index corresponding to each pooling value among the plurality of pooling values,
When the plurality of pooling values are less than or equal to a set pooling threshold, determining that the target detection box information is empty
Driver behavior detection method, characterized in that.
운전자 행위 검출 장치에 있어서,
캐빈 내 운전 위치 영역의 검출될 이미지를 획득하도록 구성되는 획득 모듈;
상기 검출될 이미지에 대하여 검출을 수행하여, 스티어링 휠 검출 결과 및 손 검출 결과를 포함하는 목표 검출 결과를 얻도록 구성되는 검출 모듈;
상기 목표 검출 결과에 따라 운전자의 운전 행위 카테고리를 결정하도록 구성되는 결정 모듈; 및
상기 운전자의 운전 행위 카테고리가 위험 운전일 때 경고 메시지를 발송하도록 구성되는 경고 모듈을 포함하는
것을 특징으로 하는 운전자 행위 검출 장치.
In the driver behavior detection device,
an acquiring module, configured to acquire an image to be detected of a driving position area within the cabin;
a detection module, configured to perform detection on the to-be-detected image to obtain a target detection result including a steering wheel detection result and a hand detection result;
a determining module, configured to determine a driving behavior category of the driver according to the target detection result; and
a warning module, configured to send a warning message when the driving behavior category of the driver is dangerous driving;
Driver behavior detection device, characterized in that.
전자 디바이스에 있어서,
프로세서, 메모리 및 버스를 포함하고, 상기 메모리에는 상기 프로세서가 실행할 수 있는 기기 판독 가능 명령이 저장되어 있고, 전자 디바이스가 실행될 경우, 상기 프로세서는 버스를 통해 상기 메모리와 통신하며, 상기 기기 판독 가능 명령이 상기 프로세서에 의해 실행될 때 제1항 내지 제12항 중 어느 한 항에 따른 운전자 행위 검출 방법을 실행하는
것을 특징으로 하는 전자 디바이스.
In an electronic device,
a processor, a memory and a bus, wherein the memory stores machine readable instructions executable by the processor, and when an electronic device is executed, the processor communicates with the memory via a bus, the machine readable instructions which executes the method of detecting driver behavior according to any one of claims 1 to 12 when it is executed by the processor
Electronic device, characterized in that.
컴퓨터 판독 가능 저장 매체에 있어서,
상기 컴퓨터 판독 가능 저장 매체에는 컴퓨터 프로그램이 저장되어 있고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 제1항 내지 제12항 중 어느 한 항에 따른 운전자 행위 검출 방법을 실행하는
것을 특징으로 하는 컴퓨터 판독 가능 저장 매체.
A computer-readable storage medium comprising:
A computer program is stored in the computer readable storage medium, and when the computer program is executed by a processor, the method for detecting driver behavior according to any one of claims 1 to 12 is executed.
A computer-readable storage medium, characterized in that.
컴퓨터 프로그램에 있어서,
컴퓨터 판독 가능 코드를 포함하며, 상기 컴퓨터 판독 가능 코드가 전자 디바이스에서 실행 시, 상기 전자 디바이스 중의 프로세서가 제1항 내지 제12항 중 어느 한 항에 따른 운전자 행위 검출 방법을 실행하도록 구성되는
것을 특징으로 하는 컴퓨터 프로그램.
In a computer program,
A computer readable code comprising computer readable code, wherein when the computer readable code is executed in an electronic device, a processor in the electronic device is configured to execute the method for detecting driver behavior according to any one of claims 1 to 12.
A computer program characterized in that.
KR1020227003906A 2020-08-07 2020-12-10 Driver behavior detection method, apparatus, electronic device, storage medium and program KR20220032074A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010790208.3A CN111931639A (en) 2020-08-07 2020-08-07 Driver behavior detection method and device, electronic equipment and storage medium
CN202010790208.3 2020-08-07
PCT/CN2020/135501 WO2022027894A1 (en) 2020-08-07 2020-12-10 Driver behavior detection method and apparatus, electronic device, storage medium and program

Publications (1)

Publication Number Publication Date
KR20220032074A true KR20220032074A (en) 2022-03-15

Family

ID=73307528

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227003906A KR20220032074A (en) 2020-08-07 2020-12-10 Driver behavior detection method, apparatus, electronic device, storage medium and program

Country Status (4)

Country Link
JP (1) JP2023500218A (en)
KR (1) KR20220032074A (en)
CN (1) CN111931639A (en)
WO (1) WO2022027894A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931639A (en) * 2020-08-07 2020-11-13 上海商汤临港智能科技有限公司 Driver behavior detection method and device, electronic equipment and storage medium
CN112528910B (en) * 2020-12-18 2023-04-07 上海高德威智能交通系统有限公司 Hand-off steering wheel detection method and device, electronic equipment and storage medium
CN113486759B (en) * 2021-06-30 2023-04-28 上海商汤临港智能科技有限公司 Dangerous action recognition method and device, electronic equipment and storage medium
CN115171082B (en) * 2022-06-29 2024-01-19 北京百度网讯科技有限公司 Driving behavior detection method and device, electronic equipment and readable storage medium
CN115471826B (en) * 2022-08-23 2024-03-26 中国航空油料集团有限公司 Method and device for judging safe driving behavior of aviation fueller and safe operation and maintenance system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5018926B2 (en) * 2010-04-19 2012-09-05 株式会社デンソー Driving assistance device and program
CN102263937B (en) * 2011-07-26 2013-07-24 华南理工大学 Driver's driving behavior monitoring device and monitoring method based on video detection
CN102289660B (en) * 2011-07-26 2013-07-03 华南理工大学 Method for detecting illegal driving behavior based on hand gesture tracking
CN104276080B (en) * 2014-10-16 2016-04-06 北京航空航天大学 Bus man hand detects forewarn system and method for early warning from bearing circle
CN107766865A (en) * 2017-11-06 2018-03-06 北京旷视科技有限公司 Pond method, object detecting method, device, system and computer-readable medium
CN108229307B (en) * 2017-11-22 2022-01-04 北京市商汤科技开发有限公司 Method, device and equipment for object detection
CN109086662B (en) * 2018-06-19 2021-06-15 浙江大华技术股份有限公司 Abnormal behavior detection method and device
CN109034111A (en) * 2018-08-17 2018-12-18 北京航空航天大学 A kind of driver's hand based on deep learning is from steering wheel detection method and system
CN111439170B (en) * 2020-03-30 2021-09-17 上海商汤临港智能科技有限公司 Child state detection method and device, electronic equipment and storage medium
CN111931639A (en) * 2020-08-07 2020-11-13 上海商汤临港智能科技有限公司 Driver behavior detection method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
WO2022027894A1 (en) 2022-02-10
CN111931639A (en) 2020-11-13
JP2023500218A (en) 2023-01-05

Similar Documents

Publication Publication Date Title
KR20220032074A (en) Driver behavior detection method, apparatus, electronic device, storage medium and program
CN110825093B (en) Automatic driving strategy generation method, device, equipment and storage medium
CN109426801B (en) Lane line instance detection method and device
Mantouka et al. Identifying driving safety profiles from smartphone data using unsupervised learning
US20200334638A1 (en) Method and apparatus for processing loss assessment data for car insurance and processing device
CN111968401B (en) Parking space recommendation method and device, and parking space prediction method and device of parking lot
US11302122B2 (en) Apparatus and method for predicting injury level
CN104750767A (en) Method and system for providing user with information in vehicle
CN111259737B (en) Method and device for predicting failure of steering wheel of vehicle, electronic equipment and storage medium
CN111401282A (en) Target detection method, target detection device, computer equipment and storage medium
CN112967272B (en) Welding defect detection method and device based on improved U-net and terminal equipment
CN107867295B (en) Accident early warning method based on vehicle risk probability, storage device and vehicle-mounted terminal
CN110570867A (en) Voice processing method and system for locally added corpus
US20150039108A1 (en) Apparatus and method for processing receiver-customized message
CN112590749A (en) Vehicle brake control method, device, equipment and storage medium
KR102050426B1 (en) Autonomous driving control apparatus and method based on driver model
US20180229672A1 (en) Method for Operating Driver Assistance Systems in a Motor Vehicle, and Motor Vehicle
JP2019003343A (en) Driving support device and driving support method
CN112231823A (en) Collision performance prediction device and method
CN115631626A (en) Vehicle data monitoring and analyzing method, device, equipment and medium
CN115691470A (en) Dialect-based vehicle-mounted interaction method, device and system
CN109121116B (en) Vehicle IDS detection auxiliary method, device, terminal and storage medium
KR102658832B1 (en) Method for analyzing vehicle forensic and computing device for executint the same
CN115547313A (en) Method for controlling sudden stop of running vehicle based on voice of driver
CN117198065B (en) Intelligent speed limiter for automobile

Legal Events

Date Code Title Description
A201 Request for examination
WITB Written withdrawal of application