JP7154959B2 - Apparatus and method for recognizing driver's state based on driving situation judgment information - Google Patents

Apparatus and method for recognizing driver's state based on driving situation judgment information Download PDF

Info

Publication number
JP7154959B2
JP7154959B2 JP2018209047A JP2018209047A JP7154959B2 JP 7154959 B2 JP7154959 B2 JP 7154959B2 JP 2018209047 A JP2018209047 A JP 2018209047A JP 2018209047 A JP2018209047 A JP 2018209047A JP 7154959 B2 JP7154959 B2 JP 7154959B2
Authority
JP
Japan
Prior art keywords
driver
information
driving
state
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018209047A
Other languages
Japanese (ja)
Other versions
JP2019197522A (en
Inventor
キム、ジン、ウ
キム、キ、テ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2019197522A publication Critical patent/JP2019197522A/en
Application granted granted Critical
Publication of JP7154959B2 publication Critical patent/JP7154959B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0809Driver authorisation; Driver identical check
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Description

本発明は、走行状況判断情報基盤の運転者状態認識装置及び方法に関し、より詳しくは、走行補助システムまたは自律走行システムで活用可能な融合情報に基づいて運転者の状態を認識する装置及び方法に関する。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for recognizing a driver's state based on driving situation determination information, and more particularly, to an apparatus and method for recognizing a driver's state based on fusion information that can be used in a driving assistance system or an autonomous driving system. .

最近、自律走行システムの完全な成長前には安全運転のために運転者の状態認識技術を適用した安全運転誘導技術が適用されている。 Recently, before the full development of autonomous driving systems, safe driving guidance technology that applies driver's state recognition technology is being applied for safe driving.

特に、運転者の居眠り、注意分散、無反応に対する技術と表情、パターンなどで運転者の心理を予測して、走行上の警告やフィードバックを提供することにより、安全運転を誘導する技術が発展している。 In particular, technology has been developed to guide safe driving by predicting the driver's psychology based on techniques, facial expressions, patterns, etc., and providing warnings and feedback while driving. ing.

また、自律走行システムと連携されて車両が走行し難い時や、運転者が運転の不可能な状態を把握して車両に対する行動を判断する技術もまた研究されている。 In addition, research is also being conducted on a technology that is linked to an autonomous driving system to determine the behavior of the vehicle when the vehicle is difficult to drive or when the driver is unable to drive the vehicle.

ただ、システムが判断して自律で駆動する技術の商用化のためには高度化された認識率と安全装置が必要であるが、現在の時点では、量産においては、コスト及び様々な状況による問題のため、技術を適用することが難しい。 However, in order to commercialize the technology that the system judges and drives autonomously, advanced recognition rate and safety device are required, but at the moment, there are problems due to cost and various situations in mass production Therefore, it is difficult to apply the technology.

また、従来の商用化された運転者補助システムは、運転者が長時間停車せず走行する場合、運転負荷と判断し、BSD(Blind Spot Detection)のように側後方の車両が死角地帯にいる状況で運転者が方向指示器を点灯せず進入しようとする場合、警告音を発生させるレベルである。 In addition, the conventional commercial driver assistance system judges that when the driver does not stop for a long time, it is a driving load, and the vehicle behind the side is in the blind spot like BSD (Blind Spot Detection). This is the level at which a warning sound is generated when the driver attempts to enter without turning on the direction indicator.

このように、従来の商用化された運転者補助システムは、居眠り認識、表情認識、注意分散認識のような運転者の状態認識に対する機能が開発されたが、あくまでも補助手段として利用されていたので、幅広い信頼度を提供することは困難な状況である。 In this way, the driver assistance systems that have been commercialized in the past have developed functions for recognizing the driver's state, such as drowsiness recognition, facial expression recognition, and attention dispersion recognition, but they were only used as an auxiliary means. , is a difficult situation to provide broad confidence.

このように、完全自律走行が商用化される前に、運転者の状態をモニタする方法は、安全走行に必要な補助システムレベルで高度化されることが求められ、完全自律走行と近づく時点では相互作用を中心に、完全自律走行においては車両と運転者、コンテンツが能動的コミュニケーションが行われる時期となる見通しだ。 In this way, before fully autonomous driving is commercialized, the method of monitoring the driver's condition must be advanced at the auxiliary system level necessary for safe driving. Focusing on interaction, fully autonomous driving is expected to enter a period of active communication between the vehicle, driver, and content.

既存の運転者状態を認識する方式は、目を閉じる程度、視線の分散、走行中のブレーキ、加速、方向指示器、ステアリング有無の情報を、既存に定義したカテゴリ内で判断できるようにする。 The existing method of recognizing the driver's state makes it possible to judge the extent to which the driver's eyes are closed, the divergence of the line of sight, the braking, the acceleration, the direction indicator, and the presence or absence of steering information within the existing defined categories.

これは状況に対して、事前に定義されたいくつかの場合以外の判断に対する認識率或いは判断するための範囲の限界性とエラーの発生に対する問題点を含んでいる。 This includes the problem of the recognition rate for judgments other than some predefined cases for situations, or the limitation of the range for judgments and the occurrence of errors.

本発明は、従来の問題を解決するために案出されたものであって、本発明の目的は、運転者が前方を注視しなかったり、または目の閉じられた状態のみに基づいて判断された運転者状態認識技術を高度化したもので、前方を注視している状態、目が閉じられるパターン、車両の情報、走行環境に対する判断情報に基づいて運転者の状態を認識し判断する走行状況判断情報基盤の運転者状態認識装置及び方法を提供する。 The present invention has been devised to solve the conventional problems, and the purpose of the present invention is to determine whether the driver does not gaze forward or only based on the closed eyes of the driver. This is an advanced driver state recognition technology that recognizes and judges the driver's state based on the state of the driver looking ahead, the pattern of closed eyes, vehicle information, and judgment information on the driving environment. An apparatus and method for recognizing a driver's state based on judgment information are provided.

本発明の他の目的は、運転者の居眠り、注意分散情報を車両情報及び周囲車両情報と融合してリアルタイムで分析し、これを判断できる走行状況判断情報基盤の運転者状態認識装置及び方法を提供する。 Another object of the present invention is to provide an apparatus and method for recognizing a driver's state based on driving situation determination information, which can analyze in real time by integrating information on the driver's doze and attention divergence with vehicle information and surrounding vehicle information. offer.

そして、本発明のまた他の目的は、走行中の運転者の行動及び顔に対する情報をリアルタイムで分析し、周辺環境及び外部光に対する影響、周辺車両を含む移動或いは静的障害物の位置及び動きのパターン、危険要因を分析した情報に基づいて、現在、車両の走行時に運転者に求められる集中度を分析して、安全運行或いは自律走行に対する運転者‐車両間の判断情報を提供する。 It is another object of the present invention to analyze information about the driver's behavior and face while driving in real time, to determine the effects on the surrounding environment and external light, and the position and movement of moving or static obstacles including surrounding vehicles. Based on the information obtained by analyzing the patterns and risk factors, it analyzes the degree of concentration required of the driver when the vehicle is currently running, and provides driver-vehicle judgment information for safe driving or autonomous driving.

本発明の目的は、以上で言及した目的に制限されず、言及されていないまた他の目的は、下の記載から当業者に明確に理解できるであろう。 The objects of the present invention are not limited to those mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

上記の目的を達成するための本発明の一実施形態に係る走行状況判断情報基盤の運転者状態認識装置は、映像獲得装置から運転者の顔状態情報と運転者の走行情報獲得装置から運転者の走行行為情報を獲得する映像獲得部と、車両外部干渉認識装置から周辺車両の走行状況認識情報を獲得する走行状況認識部と、前記運転者の顔状態情報、周辺車両の走行状況認識情報及び運転者の走行行為情報などの獲得情報と学習された顔のベクトル情報を比較して運転者の走行集中度を決定する走行集中度決定部と、及び前記決定された運転者の走行集中度に対応するように運転者走行指導を決定する走行指導決定部と、を含む。 According to an embodiment of the present invention, there is provided an apparatus for recognizing a driver's state based on driving situation determination information to achieve the above object. a video acquisition unit that acquires the driving action information of the above; a driving situation recognition unit that acquires the driving situation recognition information of surrounding vehicles from the vehicle external interference recognition device; the face state information of the driver, the driving situation recognition information of the surrounding vehicles, a driving concentration determination unit that determines a driver's driving concentration by comparing acquired information such as driver's driving behavior information with learned facial vector information; and a driving guidance determination unit that correspondingly determines a driving guidance for the driver.

ここで、前記走行集中度決定部は、前記運転者の顔状態情報を通して運転者が居眠り及び正面を凝視しているかどうかを判断して、前記運転者が正面を凝視していると判断されれば、危険度と操作レベルに応じた状況を判断することが望ましい。 Here, the driving concentration determining unit determines whether the driver is dozing off or staring straight ahead based on the facial state information of the driver, and determines that the driver is staring straight ahead. For example, it is desirable to judge the situation according to the degree of danger and the operation level.

そして、カメラを介して取得した顔画像を正規化するために、顔画像から基準領域を設定するための二つの基準ポイントを選択するポイント選択部と、及び前記選択された基準ポイントの座標と二つの基準ポイント間の距離と比率を利用して四角形の基準領域を設定する正規化部を含む。 a point selection unit for selecting two reference points for setting a reference area from the face image in order to normalize the face image acquired through the camera; It includes a normalizer that uses the distance and ratio between two reference points to set a rectangular reference region.

また、前記ポイント選択部は、顔画像から瞳孔基準領域を選択するために、瞳孔の中心に瞳孔基準ポイントが選択されたかどうかを判断して、基準ポイントが瞳孔の中心に位置したことを確認すると、前記瞳孔基準ポイントからサイズが調節される基準ガイド円をユーザに提供し、設定の選択が完了すると該当する前記基準ガイド円を瞳孔基準領域に設定する。 In addition, the point selection unit determines whether a pupil reference point is selected at the center of the pupil in order to select the pupil reference area from the face image, and confirms that the reference point is positioned at the center of the pupil. and providing a user with a reference guide circle whose size is adjusted from the pupil reference point, and setting the corresponding reference guide circle as the pupil reference area when setting selection is completed.

そして、前記ポイント選択部は、選択された瞳孔基準領域を除いた残りの領域のピクセルを「0」値に処理することが望ましい。 Also, the point selection unit may process the pixels of the remaining regions other than the selected pupil reference region to have a value of '0'.

一方、本発明の一実施形態によると、設定された四角形の基準領域間のベクトル情報を利用して、顔の方向基準視線情報、目を閉じたかどうか及び視線状態を含む運転者の顔ベクトル情報を獲得するベクトル情報獲得部と、及び運転者の付加機能操作状態を含む運転者接続状態情報を獲得し、前記獲得した運転者の顔ベクトル情報を基準に運転者接続状態情報を利用して運転者の顔状態情報を決定する顔状態情報決定部を含む。 Meanwhile, according to an embodiment of the present invention, the driver's face vector information including face direction reference gaze information, whether the eyes are closed, and gaze state is obtained using vector information between the set rectangular reference areas. and driver connection state information including a driver's additional function operation state, and driving using the driver connection state information based on the acquired driver's face vector information. and a face state information determination unit for determining face state information of the person.

本発明の一実施形態に係る走行状況判断情報基盤の運転者状態認識方法は、映像獲得装置から運転者の顔状態情報と運転者の走行情報獲得装置から運転者の走行行為情報を獲得するステップと、車両外部干渉認識装置から周辺車両の走行状況認識情報を獲得するステップと、前記運転者の顔状態情報、周辺車両の走行状況認識情報及び運転者の走行行為情報などの獲得情報と学習された顔ベクトル情報を比較して運転者の走行集中度を決定するステップと、及び前記決定された運転者の走行集中度に対応するように運転者の走行指導を決定するステップと、を含む。 A method for recognizing a driver's state based on driving situation determination information according to an embodiment of the present invention includes a step of acquiring facial state information of a driver from an image acquisition device and driving behavior information of a driver from a device for acquiring driving information of a driver. a step of acquiring the driving situation recognition information of surrounding vehicles from the vehicle external interference recognition device; comparing the obtained face vector information to determine the driving concentration level of the driver; and determining driving guidance for the driver corresponding to the determined driving concentration level of the driver.

本発明の一実施形態に採用された前記運転者の走行集中度を決定するステップは、前記運転者の顔状態情報を通して運転者が居眠り及び正面を凝視しているかどうかを判断するステップと、及び前記運転者が正面を凝視していると判断すれば、危険度と操作レベルに応じた状況を判断するステップと、を含む。 The step of determining the driving concentration level of the driver employed in an embodiment of the present invention includes determining whether the driver is dozing off and staring straight ahead through the facial state information of the driver; and determining a situation according to the degree of danger and the operation level if it is determined that the driver is staring straight ahead.

一方、本発明の一実施形態では、カメラを介して取得した顔画像を正規化するために、顔画像から基準領域を設定するための二つの基準ポイントを選択する基準ポイント選択ステップと、及び前記選択された基準ポイントの座標と二つの基準ポイント間の距離と比率を利用して四角形の基準領域を設定するワープ及び正規化ステップと、を含む。 On the other hand, in one embodiment of the present invention, in order to normalize the face image acquired through the camera, a reference point selection step of selecting two reference points for setting a reference region from the face image; a warping and normalizing step of setting a rectangular reference region using the coordinates of the selected reference points and the distance and ratio between the two reference points.

そして、前記基準ポイントの選択ステップは、顔画像から瞳孔基準領域を選択するために、瞳孔の中心に瞳孔基準ポイントが選択されるステップと、前記瞳孔基準ポイントからサイズが調節される基準ガイド円が提供されるステップと、及び前記基準ガイド円を通して瞳孔基準領域を選択して正規化するステップと、を含む。 The step of selecting a reference point includes selecting a pupil reference point at the center of the pupil to select a pupil reference region from the face image, and determining a reference guide circle whose size is adjusted from the pupil reference point. and selecting and normalizing a pupil reference region through the reference guide circle.

ここで、前記瞳孔基準領域を選択して正規化するステップは、選択された瞳孔基準領域を除いた残りの領域のピクセルを「0」値に処理する。 Here, in the step of selecting and normalizing the pupil reference region, the pixels of the remaining regions other than the selected pupil reference region are treated as '0' values.

さらに、本発明の一実施形態では、設定された四角形の基準領域間のベクトル情報を利用して、顔の方向基準視線情報、目を閉じたかどうか及び視線状態を含む運転者の顔ベクトル情報を獲得するステップと、運転者の付加機能操作状態を含む運転者接続状態情報を獲得するステップと、及び前記獲得した運転者の顔ベクトル情報を基準に運転者の接続状態情報を利用して、運転者の顔状態情報を決定するステップを含む。 Furthermore, in one embodiment of the present invention, the vector information between the set rectangular reference areas is used to obtain the driver's face vector information including direction reference line-of-sight information, whether or not the eyes are closed, and line-of-sight state. acquiring driver connection state information including the driver's additional function operating state; and using the driver connection state information based on the acquired driver face vector information, determining facial state information of the person.

本発明の一実施形態によると、ユーザが単に顔画像から必要とする部分にポイントを打つだけで基準領域の自動設定が可能になることによって、今後、運転者の正常/異常の判断を分析するためのデータとして利用するとき、基準領域が正規化されて収集できるという利点がある。 According to an embodiment of the present invention, the user can automatically set the reference area by simply pointing the desired part of the face image, thereby analyzing the driver's judgment of normality/abnormality in the future. There is an advantage that the reference area can be normalized and collected when used as data for

本発明の一実施形態に係る走行状況判断情報基盤の運転者状態認識装置を説明するための機能ブロック図である。1 is a functional block diagram for explaining a driver state recognition device based on driving situation determination information according to an embodiment of the present invention; FIG. 本発明の一実施形態において、顔部分の領域を検出するために基準ポイントを選択する様子を示した参考図である。FIG. 4 is a reference diagram showing how reference points are selected to detect a facial region in one embodiment of the present invention; 本発明の一実施形態において、顔部分の領域を検出するために基準ポイントを選択する様子を示した参考図である。FIG. 4 is a reference diagram showing how reference points are selected to detect a facial region in one embodiment of the present invention; 本発明の一実施形態において、瞳孔領域を選択するためのプロセスを説明するための参考図である。FIG. 4 is a reference diagram for explaining a process for selecting a pupillary region in one embodiment of the present invention; 本発明の一実施形態において、顔部分の領域を選択するためのプロセスを説明するための参考図である。FIG. 4 is a reference diagram for explaining a process for selecting a facial region in one embodiment of the present invention; (a)~(d)は、本発明の一実施形態において、運転者の正面認識基準を説明するための参考図である。(a) to (d) are reference diagrams for explaining the driver's front recognition criteria in one embodiment of the present invention. (a)~(d)は、運転者の目の状態に応じた認識基準を説明するための参考図である。(a) to (d) are reference diagrams for explaining recognition criteria according to the condition of the driver's eyes. 本発明の一実施形態に係る走行状況判断情報基盤の運転者状態を認識するための認識データ提供方法を説明するためのフローチャートである。4 is a flow chart for explaining a recognition data providing method for recognizing a driver's state on the driving situation determination information base according to an embodiment of the present invention; 本発明の一実施形態において、走行状況判断情報基盤の運転者状態認識方法を説明するためのフローチャートである。4 is a flowchart for explaining a method for recognizing a driver's state based on driving situation determination information in an embodiment of the present invention;

発明を実施するため形態Modes for Carrying Out the Invention

本発明の利点及び特徴、そしてそれらを達成する方法は、添付される図面と共に詳細に後述されている実施形態を参照すれば明確になるであろう。しかし、本発明は、以下に開示される実施形態に限定されるものではなく、異なる様々な形態で具現されるものであり、単に本実施形態は、本発明の開示が完全にし、本発明の属する技術分野において通常の知識を持つ者に発明の範疇を完全に知らせるために提供されるものであり、本発明は、請求項の範疇によって定義されるだけである。一方、本明細書で使用される用語は、実施形態を説明するためのものであって、本発明を制限するものではない。本明細書では、単数形は、文句で特に言及しない限り複数形も含む。明細書で使用される「含む(comprises、comprising)」は、言及された構成素子、ステップ、動作、及び/または素子は、複数の他の構成素子、 ステップ、動作、及び/または素子の存在または追加を排除しない。 Advantages and features of the present invention, as well as the manner in which they are achieved, will become apparent with reference to the embodiments described in detail below in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments disclosed below, merely for the purpose of providing a complete and complete disclosure of the invention. It is provided to fully convey the scope of the invention to those skilled in the art, and the invention is defined only by the scope of the claims. On the other hand, the terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless the phrase specifically states otherwise. As used herein, "comprises, comprises" means that a stated component, step, operation, and/or element does not include the presence or presence of a plurality of other components, steps, operations, and/or elements. Do not exclude additions.

以下、本発明の望ましい実施形態について添付した図面を参照して詳細に説明する。図1は、本発明の一実施形態に係る走行状況判断情報基盤の運転者状態認識装置は、顔のベクトルデータ情報を登録できるように、ポイント選択部110、正規化部120、ベクトル情報獲得部130、顔状態情報決定部140及び学習情報保存部150を含む。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 shows a driving situation determination information-based driver state recognition apparatus according to an embodiment of the present invention, which includes a point selection unit 110, a normalization unit 120, and a vector information acquisition unit so as to register facial vector data information. 130 , a face state information determination unit 140 and a learning information storage unit 150 .

ポイント選択部110は、カメラを介して取得した顔画像を正規化するために、顔画像から基準領域(を選択するための二つの基準ポイントがユーザから入力されると、該当位置を基準ポイントとして選択する。例えば、基準ポイントは、図2に示されたように、目は目尻の両側、口元の両側及び小鼻の両側に位置することが望ましいが、これに限定するものではない。 When the user inputs two reference points for selecting a reference area from the face image, the point selection unit 110 sets the corresponding position as the reference point in order to normalize the face image acquired through the camera. For example, as shown in Fig. 2, the reference points are preferably located on both sides of the corners of the eyes, both sides of the mouth, and both sides of the nostrils, but are not limited to this.

次いで、正規化部120は、図3に示すように、下記の[数学式1]により、前記選択された基準ポイント(SP)の座標と二つの基準ポイント間の距離(D)と比率を利用して四角形状から成る顔の各部分に対する基準領域(SA)を設定する。 Next, as shown in FIG. 3, the normalization unit 120 uses the coordinates of the selected reference point (SP), the distance (D) between the two reference points, and the ratio according to [Formula 1] below. Then, a reference area (SA) is set for each part of the square face.

以降、正規化部120は、正規化された目、目尻、瞳孔、閉じた目、口、口元、鼻の正規化されたデータに対して学習し、学習情報保存部150にアップデートする過程を経る。 Thereafter, the normalization unit 120 learns the normalized data of the eyes, corners of the eyes, pupils, closed eyes, mouth, mouth, and nose, and updates the learning information storage unit 150. .

例えば、正規化部120は、顔のデータ、目のデータ、閉じた目のデータ、瞳孔のデータ、鼻のデータ、口のデータを前方9方向から正規化した後、顔、目(左、右を区分)、鼻、瞳孔(左、右を区分)、閉じた目(左、右を区分)、両眼の目尻、口元を学習して学習情報保存部150に保存する。

Figure 0007154959000001
ここで、Imagenormailizeは基準領域であり、Dはポイントとの距離であり、x、yは、基準ポイントの座標値であり、Wは基準領域の広さの値であり、Hは基準領域の高さの値である。 For example, the normalization unit 120 normalizes the face data, the eye data, the closed eye data, the pupil data, the nose data, and the mouth data from the front nine directions, and then normalizes the face, eyes (left, right). ), nose, pupils (left and right), closed eyes (left and right), corners of both eyes, and mouth are learned and stored in the learning information storage unit 150 .
Figure 0007154959000001
Here, Imagenormalize is the reference area, D is the distance from the point, x, y are the coordinate values of the reference point, W is the width value of the reference area, and H is the height of the reference area. is the value of

本発明の一実施形態によると、ユーザが単に顔画像から必要な部分に基準ポイント(SP)を打つだけで基準領域(SA)の自動設定が可能になることによって、今後、運転者の正常/異常の判断を分析するのためのデータとして利用するとき、基準領域が正規化されて収集できるという利点がある。 According to one embodiment of the present invention, the user can automatically set a reference area (SA) by simply marking a reference point (SP) on a required portion of the face image, thereby enabling the driver's normal/ When used as data for analyzing judgment of abnormality, there is an advantage that the reference area can be normalized and collected.

一方、本発明の一実施形態に採用されたポイント選択部110は、図4に示されたように、瞳孔の中心に瞳孔基準ポイント(CP)が選択されたかどうかを判断し、瞳孔の中心に瞳孔の基準ポイントが選択されると、顔画像から瞳孔基準領域を選択するためのものと判断して、前記瞳孔基準ポイントからサイズが調節される基準ガイド円(GC)をユーザに提供する。ここで、基準ガイド円はユーザがマウスのホイールや方向ボタンなどで円のサイズを調節することが望ましい。 Meanwhile, the point selection unit 110 employed in an embodiment of the present invention determines whether a pupil reference point (CP) is selected at the center of the pupil, as shown in FIG. Once the pupil reference point is selected, it is determined to select the pupil reference area from the face image and provides the user with a reference guide circle (GC) whose size is adjusted from the pupil reference point. Here, it is preferable that the user adjusts the size of the reference guide circle using a mouse wheel or direction buttons.

以降、ユーザが選択を完了すると、ポイント選択部110は、前記基準ガイド円(GC)を通して瞳孔基準領域(SA)を選択して正規化する。ここで、ポイント選択部110は、選択された瞳孔基準領域を除いた残りの領域のピクセルを「0」値に処理することが望ましい。 Thereafter, when the user completes the selection, the point selection unit 110 selects and normalizes the pupil reference area (SA) through the reference guide circle (GC). Here, it is preferable that the point selection unit 110 process the pixels of the remaining regions other than the selected pupil reference region as '0' values.

従って、本発明の一実施形態に採用されたポイント選択部は、顔画像から瞳孔を容易に正規化できるという利点がある。 Therefore, the point selector employed in one embodiment of the present invention has the advantage that the pupil can be easily normalized from the facial image.

本発明の一実施形態に採用されたポイントの選択部110は、顔領域内で、目、鼻、口関連部位をより正確かつ迅速に検出するために、図5aに示すように、顔画像から目の候補領域、鼻の候補領域及び口の候補領域を先に検出した後、目の領域を検出する。以降、図5cに示すように、目は虹彩検出候補領域を指定し、図5dに示すように閉じた目を顔の部分から検出する。 The point selection unit 110 employed in one embodiment of the present invention may extract points from the face image, as shown in FIG. After first detecting the eye candidate region, the nose candidate region, and the mouth candidate region, the eye region is detected. Thereafter, as shown in FIG. 5c, an iris detection candidate area is specified for the eyes, and closed eyes are detected from the face portion as shown in FIG. 5d.

そして、顔ベクトル情報獲得部130は、顔画像から設定された四角形の基準領域(SA)間のベクトル情報を利用して、顔の方向、顔の方向基準視線情報、目を閉じたかどうか及び視線状態を含む運転者の顔ベクトル情報を獲得する。 Then, the face vector information acquisition unit 130 uses the vector information between the rectangular reference areas (SA) set from the face image to determine the direction of the face, the direction reference line of sight information of the face, whether the eyes are closed, and the line of sight. Acquire driver face vector information, including state.

例えば、顔ベクトル情報獲得部130は、正面を凝視する運転者の顔ベクトル情報が学習情報保存部150に保存される。このとき、保存される運転者の顔ベクトル情報は、顔の部分間の関係性基盤分布及び確率によって計算される。ここで関係性とは両眼、鼻、目のサイズ及び相対位置に対する関係である。 For example, the face vector information acquisition unit 130 stores the face vector information of the driver staring at the front in the learning information storage unit 150 . At this time, the stored face vector information of the driver is calculated according to the relation-based distribution and probability between the face parts. The relationship here is the relationship to the size and relative position of the eyes, nose, and eyes.

また、顔ベクトル情報獲得部130は、図6aないし6dに示すように、両方の目尻に選択された基準ポイントを基準に瞳孔の位置、目、鼻、口が成す相対位置とサイズに対する正規化情報に基づいた確率分布を計算して学習情報保存部150に保存する。 6a to 6d, the face vector information acquisition unit 130 obtains normalization information for the relative positions and sizes of the pupil position, eyes, nose and mouth based on the reference points selected for both corners of the eyes. is calculated and stored in the learning information storage unit 150 .

例えば、顔ベクトル情報獲得部130は、図6aに示すように、目の基準領域と鼻及び口の基準領域(SA)を通して顔が正面を凝視していないことにより、正面を凝視していると見られないが、瞳孔(CP)とが正面を凝視していることにより運転者が正面を凝視していると判断して保存し、図6bと図6cは、目、鼻及び口の基準ポイント(SP)と瞳孔(CP)がいずれも正面を凝視していないことにより、正面を凝視していない状態と判断して保存し、図6dは目、鼻及び口の基準ポイント(SP)と瞳孔と(CP)がいずれも正面を凝視していることにより、正面を凝視していることを基準に保存し学習する。 For example, as shown in FIG. 6a, the face vector information acquisition unit 130 determines that the face is not gazing forward through the reference area of the eyes and the reference area (SA) of the nose and mouth. Although it is not seen, it is determined that the driver is staring at the front because the pupil (CP) is staring at the front, and stored. (SP) and pupils (CP) are not staring at the front, it is determined that they are not staring at the front and stored. Since both (CP) and (CP) are gazing at the front, they are stored and learned based on the fact that they are gazing at the front.

そして、運転者が目を閉じた状態であるかどうかを判断する方法は、顔ベクトル情報獲得部130が図7aないし図7cに示すように、顔画像から基準ポイント(SP)は示されてはいるが、瞳孔(CP)を検出できないことにより、いずれも目を閉じた状態と判断し、図7dは、基準ポイント(SP)と瞳孔(CP)とがいずれも検出されることにより、運転者が目を開けている状態と判断して保存する。 7a to 7c, the facial vector information acquisition unit 130 determines whether the driver's eyes are closed or not. However, since the pupil (CP) cannot be detected, it is determined that both eyes are closed. is determined to be in a state of opening its eyes and saved.

さらに、顔ベクトル情報獲得部130は、図7aに示すように、目の基準領域(SA)と鼻及び口の基準領域(SA)を通して顔が正面を凝視しているが瞳孔(CP)を検出できない状態(Lv.1)、目の基準領域(SA)と鼻及び口の基準領域(SA)を通して頭が少し落とされた状態であることを確認した状態で瞳孔(CP)を検出できない状態(Lv.2)、目の基準領域(SA)と鼻及び口の基準領域(SA)を通して頭が落とされた状態であることを確認した状態で瞳孔(CP)を検出できない状態(Lv.3)を基準に顔状態ベクトルを学習情報保存部150に保存して学習する。 Further, as shown in FIG. 7A, the face vector information acquisition unit 130 detects pupils (CP) when the face is staring forward through the reference area (SA) of the eyes and the reference area (SA) of the nose and mouth. Unable to detect (Lv. 1), pupil (CP) cannot be detected ( Lv.2), the state where the pupil (CP) cannot be detected while confirming that the head has been dropped through the reference area (SA) of the eyes and the reference area (SA) of the nose and mouth (Lv.3) is stored in the learning information storage unit 150 and learned.

一方、顔ベクトル情報獲得部130は、顔のベクトル情報を構成する居眠り状態レベルと注意分散状態レベルとを分析して、顔の情報に基づいて顔の状態を[数学式2]を参照して認識することができる。

Figure 0007154959000002
ここで、Statusdefinition(S)は、目を閉じた状態を判断する関数であり、Statuseyeclosed(W)は、目を閉じた状態の正規化パラメータ加重値(W)であり、fps(t)は、実行速度による目を閉じた状態の時間加重値パラメータである。 On the other hand, the face vector information acquisition unit 130 analyzes the dozing state level and the attention distribution state level that constitute the face vector information, and determines the face state based on the face information with reference to [Equation 2]. can recognize.
Figure 0007154959000002
where StatusDefinition (S) is a function that determines the eye-closed state, Statuseyeclosed (W) is the normalized parameter weight value (W) for the eye-closed state, and fps (t) is It is a time weighted value parameter with eyes closed according to execution speed.

一方、目を閉じた状態のレベル決定関数(Fn(Lv))は、下記の[数学式3]により得られる。

Figure 0007154959000003
ここで、Fn(Lv)は目を閉じた状態のレベルを決定する関数であり、
Figure 0007154959000004
は顔部分情報の絶対位置、サイズ、相対位置及び距離情報を正規化したベクトル値である。 On the other hand, the level determination function (Fn(Lv)) with eyes closed is obtained by the following [Mathematical Formula 3].
Figure 0007154959000003
Here, Fn (Lv) is a function that determines the level with the eyes closed,
Figure 0007154959000004
is a vector value obtained by normalizing the absolute position, size, relative position and distance information of face part information.

一方、顔ベクトル情報獲得部130は、運転者の顔ベクトル情報を獲得する前に、初期の顔情報を補正したり、正規化する作業を先に行なうことができる。その例として、瞳孔(両面)の高さ/幅の差を正規化したり、鼻を中心に正規化したり、正常状態の目を瞬く周期を正規化したり、眼鏡の着用有無を判断して正規化することができる。 Meanwhile, the face vector information acquisition unit 130 may first correct or normalize initial face information before acquiring the driver's face vector information. For example, normalize the height/width difference of pupils (both sides), normalize around the nose, normalize eye blink cycle in normal state, normalize by determining whether glasses are worn or not. can do.

また、顔ベクトル情報獲得部130は、目尻の幅の正規化比率(A)、口元の幅の正規化比率(B)及び鼻、AとBとの間の位置比率を正規化することもできる。 The face vector information acquisition unit 130 can also normalize the normalization ratio (A) of the width of the corner of the eye, the normalization ratio (B) of the width of the mouth, and the position ratio between A and B of the nose. .

一方、顔の状態情報決定部140は、車両外部干渉認識装置160から運転者の付加機能操作状態を含む走行中の運転者操作情報と周辺車両から提供される警告情報である走行中の外部干渉状況情報を獲得する。 On the other hand, the facial state information determining unit 140 determines whether the driver's operation information during driving including the additional function operation state of the driver from the vehicle external interference recognition device 160 and the external interference during driving, which is warning information provided from the surrounding vehicles, is detected. Get status information.

ここで、走行中の運転者操作情報は、スマートフォンの作動有無、ナビゲーションの作動有無、車両内部デバイスの使用有無を判断できる情報であり、走行中の外部干渉状況情報は、周辺車両から提供される情報、例えば、周囲車両の方向指示器情報、ハイビーム情報、側面車両の走行パターン情報、前の車両との距離情報、周辺車両の車線維持情報、BSD(Blind Spot Detection)情報、信号まち及び進入情報及び車両速度情報である。 Here, the driver operation information while driving is information that can determine whether the smartphone is operating or not, whether the navigation is operating or not, and whether the vehicle's internal devices are being used, and the external interference situation information while driving is provided by surrounding vehicles. Information, for example, direction indicator information of surrounding vehicles, high beam information, driving pattern information of side vehicles, distance information with the preceding vehicle, lane keeping information of surrounding vehicles, BSD (Blind Spot Detection) information, signal waiting and approaching information and vehicle speed information.

次いで、顔の状態情報決定部140は、前記獲得した運転者の顔ベクトル情報を基準に運転者の接続状態情報を利用して、運転者の顔状態情報を決定する役割をする。 Next, the face state information determination unit 140 determines face state information of the driver by using connection state information of the driver based on the acquired face vector information of the driver.

つまり、顔状態情報決定部140は、運転者の顔状態情報が正常であっても、運転者が使用している走行中の運転者操作情報と車両外部干渉状況を認識する走行中の外部干渉状況情報が受信される場合に対して、「運転者の運行が正常か異常か」であることをラベリングして分類することにより、運転者のパターンを学習できるという利点がある。 In other words, even if the face state information of the driver is normal, the face state information determining unit 140 can recognize the driver operation information used by the driver while driving and the vehicle external interference situation. By labeling and classifying 'whether the driver's driving is normal or abnormal' for the case where the situation information is received, there is an advantage that the driver's pattern can be learned.

一方、車両外部干渉認識装置は、カメラが利用されることが望ましいが、これに限らず、周辺車両の警笛音を認識できるマイクなどがさらに利用されることができる。 Meanwhile, the vehicle external interference recognition device preferably uses a camera, but is not limited to this, and may further use a microphone capable of recognizing the horn sound of surrounding vehicles.

また、本発明の一実施形態によると、運転者の走行操作と他の車両で伝える警告メッセージを認識して走行の正常/異常を学習できる効果があり、走行指導が可能でリアルタイムでアップデートして運転者の正常/異常に区分して自律走行状況判断アルゴリズムで対処できるという利点がある。 In addition, according to an embodiment of the present invention, it is possible to learn normal/abnormal driving by recognizing the driver's driving operation and warning messages transmitted by other vehicles. There is an advantage that the driver's normal/abnormality can be classified and dealt with by the autonomous driving situation determination algorithm.

本発明の一実施形態による走行状況判断情報基盤の運転者状態認識装置は、映像獲得部210、走行状況認識部220、走行集中度決定部230及び走行指導決定部240を含んで成る。 An apparatus for recognizing a driver's state based on driving situation determination information according to an embodiment of the present invention includes an image acquiring unit 210, a driving situation recognizing unit 220, a driving concentration determining unit 230, and a driving instruction determining unit 240. FIG.

映像獲得部210は、カメラのような映像獲得装置から運転者の顔状態情報と運転者の走行情報獲得装置から運転者の走行行為情報を獲得する役割をする。 The image acquisition unit 210 acquires face state information of the driver from an image acquisition device such as a camera and driving behavior information of the driver from the driving information acquisition device of the driver.

そして、走行状況認識部220は、車両外部干渉認識装置から周辺車両の走行状況認識情報を獲得する役割をする。 The driving situation recognition unit 220 acquires driving situation recognition information of surrounding vehicles from the vehicle external interference recognition device.

また、走行集中決度定部230は、前記運転者の顔状態情報、周辺車両の走行状況認識情報及び運転者の走行行為情報などの獲得情報と学習された顔ベクトル情報とを比較して運転者の走行集中度を決定する役割をする。 In addition, the driving concentration determination unit 230 compares acquired information such as the driver's facial state information, the driving situation recognition information of surrounding vehicles, and the driver's driving behavior information with the learned facial vector information to drive the vehicle. It plays a role in determining the driving concentration of the driver.

そして、走行指導決定部240は、前記決定された運転者の走行集中度に対応するように運転者の走行指導を決定する役割をする。 Further, the driving instruction determination unit 240 serves to determine the driving instruction for the driver corresponding to the determined degree of driving concentration of the driver.

本発明の一実施形態によると、単に運転者が目を閉じているかどうか、それとも視線が分散されている状態であるかだけを判断して安全運転方法を提供するのではなく、周囲車両の情報操作状態を含む運転者接続状態情報を利用して、運転者が正面を見ていない状態で運転者が正常に運転している状態を検出することができ、運転者が正面を見ている状態で運転者が異常に運転している状態を検出することができるという効果を奏する。 According to an embodiment of the present invention, it is possible to provide a safe driving method by simply judging whether the driver has his/her eyes closed or whether the line of sight is dispersed. Using the driver connection state information including the operation state, it is possible to detect the state in which the driver is driving normally without looking at the front, and the state in which the driver is looking at the front. , it is possible to detect a state in which the driver is driving abnormally.

一方、本発明の一実施形態に採用された走行集中度決定部230は、前記運転者の顔状態情報を通して運転者が居眠り及び正面を凝視しているかどうかを判断した後、前記運転者が正面を凝視しているものと判断されると、危険度と操作レベルに応じた状況を判断する。 On the other hand, the driving concentration determining unit 230 employed in an embodiment of the present invention determines whether the driver is dozing off or staring straight ahead based on the facial state information of the driver. When it is determined that the user is staring at the target, the situation is determined according to the degree of danger and the operation level.

以下、下記では、本発明の走行状況判断情報基盤の運転者状態認識方法において比較対象データを獲得して学習し保存する方法について、図8を参照して説明する。 Hereinafter, a method of acquiring, learning, and storing data to be compared in the driver state recognition method based on driving situation determination information according to the present invention will be described with reference to FIG.

まず、運転者の状態認識装置は、カメラを介して取得した顔画像を正規化するために、顔画像から基準領域を設定するための二つの基準ポイントを選択する(S110)。ここで、目は目の領域左/右の目尻の端を基準に目尻領域検出に対する候補を指定し、鼻は顔の中心部分に候補領域を置き、口は顔の下段部から検出候補領域を指定して検出し、口元領域は目尻候補領域と同様に検出された口の両方の中央端を基準に口元を検出することが望ましい。 First, the driver's condition recognition device selects two reference points for setting a reference area from the face image in order to normalize the face image acquired through the camera (S110). Here, for the eyes, candidates for the outer corner of the eye area are specified based on the corners of the left and right corners of the eye area, for the nose, the candidate area is placed at the center of the face, and for the mouth, the detection candidate area is selected from the lower part of the face. It is desirable to specify and detect the mouth area, and to detect the mouth area based on both central ends of the detected mouth in the same manner as the eye corner candidate area.

次いで、運転者状態認識装置は、前記選択された基準ポイントの座標と二つの基準ポイント間の距離と比率を利用して、四角形の基準領域を設定するワープ及び正規化を行なう(S120)。 Next, the device for recognizing driver's state performs warping and normalization to set a rectangular reference area using the coordinates of the selected reference points and the distance and ratio between the two reference points (S120).

下記では、本発明の一実施形態に採用されたデータ加工方法のうち瞳孔データを加工する方法について説明する。 A method for processing pupil data among the data processing methods employed in an embodiment of the present invention will be described below.

まず、運転者状態認識装置は、顔画像から瞳孔基準領域を選択するために、瞳孔の中心に瞳孔基準ポイントが選択されると、前記瞳孔基準ポイントからサイズが調節される基準ガイド円が提供される。 First, when a pupil reference point is selected at the center of the pupil in order to select the pupil reference area from the face image, the driver state recognition apparatus provides a reference guide circle whose size is adjusted from the pupil reference point. be.

以降、ユーザが選択を完了すると、運転者状態認識装置は、前記基準ガイド円を通して瞳孔基準領域を選択して正規化する。ここで、ポイント選択部110は、選択された瞳孔基準領域を除いた残りの領域のピクセルを「0」値に処理することが望ましい。 Thereafter, when the user completes the selection, the device for recognizing driver's condition selects and normalizes the pupil reference area through the reference guide circle. Here, it is preferable that the point selection unit 110 process the pixels of the remaining regions other than the selected pupil reference region as '0' values.

以降、運転者状態認識装置は、設定された四角形の基準領域間のベクトル情報を利用して、顔の方向基準視線情報、目を閉じたかどうか及び視線状態を含む運転者の顔ベクトル情報を獲得する(S130)。 After that, the device for recognizing driver's state obtains face vector information of the driver, including face direction reference gaze information, whether the eyes are closed, and gaze state, using the vector information between the set rectangular reference areas. (S130).

次いで、運転者状態認識装置は、運転者の付加機能操作状態を含む走行中の運転者操作情報を獲得する(S140)。 Next, the device for recognizing the driver's state acquires the driver's operation information during driving including the additional function operation state of the driver (S140).

すると、運転者状態認識装置は、操作状態を含む運転者接続状態情報を獲得し、運転者接続状態情報を利用して、運転者の顔状態情報を決定する(S150)。 Then, the device for recognizing driver's state acquires driver's connection state information including the operation state, and determines face state information of the driver using the driver's connection state information (S150).

一方、顔状態情報を決定するステップ(S150)は、車両外部干渉認識装置160から運転者の付加機能操作状態を含む走行中の運転者操作情報と周辺車両から提供される警告情報である走行中の外部干渉状況情報を獲得する。ここで、走行中の運転者操作情報は、スマートフォンの作動有無、ナビゲーションの作動有無、車両内部デバイスの使用有無などを判断できる情報であり、走行中の外部干渉状況情報は、周辺車両から提供される情報、例えば、周囲車両の方向指示器情報、ハイビーム情報、側面車両の走行パターン情報、前の車両との距離情報、周辺車両の車線維持情報、BSD(Blind Spot Detection)情報、信号待ち及び進入情報及び車両速度情報である。 On the other hand, the step of determining face state information (S150) includes driver operation information during driving including the driver's additional function operation state from vehicle external interference recognition device 160 and warning information provided from surrounding vehicles. obtain the external interference situation information of Here, the driver's operation information while driving is information that can determine whether the smartphone is operating, whether the navigation is operating or not, and whether the vehicle's internal devices are being used, etc. External interference status information while driving is provided by surrounding vehicles. information such as turn indicator information of surrounding vehicles, high beam information, driving pattern information of side vehicles, distance information with the preceding vehicle, lane keeping information of surrounding vehicles, BSD (Blind Spot Detection) information, signal waiting and entry information and vehicle speed information.

以下、下記では、本発明の一実施形態に係る走行状況判断情報基盤の運転者状態認識方法について図9を参照して説明する。 Hereinafter, a driver state recognition method based on driving situation determination information according to an embodiment of the present invention will be described with reference to FIG.

まず、本発明の一実施形態に係る走行状況判断情報基盤の運転者状態認識方法は、運転者状態認識装置によって行なうことが望ましい。 First, it is preferable that the driver state recognition method based on driving situation determination information according to an embodiment of the present invention is performed by a driver state recognition device.

まず、運転者状態認識装置は、映像獲得装置から運転者の顔状態情報と運転者の走行情報獲得装置から運転者の走行行為情報を獲得する(S210)。 First, the device for recognizing driver's state acquires face state information of the driver from the image acquisition device and driving action information of the driver from the driving information acquisition device (S210).

次いで、運転者状態認識装置は、車両外部の干渉認識装置から周辺車両の走行状況認識情報を獲得する(S220)。 Next, the driver state recognition device acquires driving situation recognition information of surrounding vehicles from an interference recognition device outside the vehicle (S220).

以降、運転者状態認識装置は、前記運転者の顔状態情報、周辺車両の走行状況認識情報及び運転者の走行行為情報などの獲得情報と学習された顔のベクトル情報を比較して運転者の走行集中度を決定する(S230)。 After that, the driver state recognition device compares the acquired information such as the face state information of the driver, the driving situation recognition information of the surrounding vehicles, and the driving behavior information of the driver with the learned vector information of the driver's face. A driving concentration degree is determined (S230).

次いで、運転者状態認識装置は、前記決定された運転者の走行集中度に対応するように運転者の走行指導を決定する(S240)。 Next, the device for recognizing driver's condition determines a driving guidance for the driver corresponding to the determined degree of driving concentration of the driver (S240).

一方、前記運転者の走行集中度を決定するステップ(S230)は、前記運転者の顔状態情報を通して運転者が居眠り及び正面を凝視しているかどうかを判断する(S231)。 On the other hand, the step of determining the driving concentration level of the driver (S230) determines whether the driver is asleep or staring straight ahead based on the driver's facial state information (S231).

前記判断ステップ(S231)において、前記運転者が正面を凝視したものと判断すれば(YES)、運転者状態認識装置は危険度と操作レベルに応じた状況を判断する(S232)。 In the determination step (S231), if it is determined that the driver is staring at the front (YES), the driver state recognition device determines the situation according to the degree of danger and the operation level (S232).

以上、本発明の構成について添付図面を参照して詳細に説明したが、これは例示に過ぎないものであって、本発明の属する技術分野における通常の知識を有する者であれば、本発明の技術的思想の範囲内で様々な変形や変更が可能であることは言うまでもない。よって、本発明の保護範囲は、前述した実施形態に限定されてはならず、以下の特許請求の範囲の記載によって決めなければならない。 Although the configuration of the present invention has been described in detail with reference to the accompanying drawings, this is merely an example, and any person having ordinary knowledge in the technical field to which the present invention pertains will be able to understand the present invention. It goes without saying that various modifications and changes are possible within the scope of technical ideas. Therefore, the scope of protection of the present invention should not be limited to the above-described embodiments, but should be determined by the following claims.

110:ポイント選択部 120:正規化部
130:顔ベクトル情報獲得部 140:顔状態情報決定部
150:学習情報保存部 210:映像獲得部
220:走行状況認識部 230:走行集中度決定部
240:走行指導決定部
110: Point selection unit 120: Normalization unit 130: Face vector information acquisition unit 140: Face state information determination unit 150: Learning information storage unit 210: Image acquisition unit 220: Driving situation recognition unit 230: Driving concentration level determination unit 240: Driving guidance determination part

Claims (16)

映像獲得装置から運転者の顔状態情報と運転者の走行情報獲得装置から運転者の走行行為情報を獲得する映像獲得部と、
車両外部干渉認識装置から周辺車両の走行状況認識情報を獲得する走行状況認識部と、
前記運転者の顔状態情報、周辺車両の走行状況認識情報及び運転者の走行行為情報などの獲得情報と学習された顔のベクトル情報を比較して運転者の走行集中度を決定する走行集中度決定部と、及び
前記決定された運転者の走行集中度に対応するように運転者の走行指導を決定する走行指導決定部と、を含む走行状況判断情報基盤の運転者状態認識装置。
an image acquisition unit for acquiring facial state information of the driver from the image acquisition device and driving action information of the driver from the driving information acquisition device;
a driving situation recognition unit that acquires driving situation recognition information of surrounding vehicles from the vehicle external interference recognition device;
A driving concentration level for determining a driver's driving concentration level by comparing acquired information such as the driver's facial state information, driving situation recognition information of surrounding vehicles, and driver's driving behavior information with learned face vector information. A driver state recognition apparatus based on driving situation determination information, comprising: a determining unit; and a driving instruction determining unit that determines driving instruction for the driver corresponding to the determined degree of driving concentration of the driver.
前記走行集中度決定部は、
前記運転者の顔状態情報を通して運転者が居眠り及び正面を凝視しているかどうかを判断して、前記運転者が正面を凝視していると判断されると、危険度と操作レベルに応じた状況を判断する請求項1に記載の走行状況判断情報基盤の運転者状態認識装置。
The driving concentration degree determination unit
It is determined whether the driver is asleep or stares at the front through the face state information of the driver, and if it is determined that the driver is staring at the front, the situation is determined according to the degree of risk and the operation level. 2. The device for recognizing driver's state based on driving situation judgment information according to claim 1.
カメラを介して取得した顔画像を正規化するために、顔画像から基準領域を設定するための二つの基準ポイントを選択するポイント選択部と、及び
前記選択された基準ポイントの座標と二つの基準ポイント間の距離と比率を利用して、四角形の基準領域を設定する正規化部と、を含む請求項1に記載の走行状況判断情報基盤の運転者状態認識装置。
a point selection unit that selects two reference points for setting a reference area from the face image in order to normalize the face image acquired through the camera; and the coordinates of the selected reference point and the two references. 2. The device for recognizing driver's state based on driving situation determination information as set forth in claim 1, further comprising a normalizer for setting a rectangular reference area using distances and ratios between points.
前記ポイント選択部は、
顔画像から瞳孔基準領域を選択するために、瞳孔の中心に瞳孔基準ポイントが選択されたかどうかを判断して、基準ポイントが瞳孔の中心に位置することを確認すれば、前記瞳孔基準ポイントからサイズが調節される基準ガイド円をユーザに提供し、設定の選択が完了すれば、前記基準ガイド円を瞳孔基準領域として設定する請求項3に記載の走行状況判断情報基盤の運転者状態認識装置。
The point selection unit
determining whether a pupil reference point is selected at the center of the pupil to select the pupil reference region from the face image; 4. The apparatus for recognizing driver's state based on driving situation judgment information as claimed in claim 3, wherein a reference guide circle for adjusting is provided to the user, and when the setting selection is completed, the reference guide circle is set as a pupil reference area.
前記ポイント選択部は、
選択された瞳孔基準領域を除いた残りの領域のピクセルを「0」値に処理することを特徴とする請求項4に記載の走行状況判断情報基盤の運転者状態認識装置。
The point selection unit
[5] The device for recognizing a driver's state based on driving situation determination information as set forth in claim 4, wherein the pixels in the remaining area except for the selected pupil reference area are processed to have a value of '0'.
設定された四角形の基準領域間のベクトル情報を利用して、顔の方向基準視線情報、目を閉じたかどうか及び視線状態を含む運転者の顔ベクトル情報を獲得するベクトル情報獲得部と、及び
運転者の付加機能操作状態を含む走行中の運転者操作情報を獲得し、前記獲得した運転者の顔ベクトル情報を基準に運転者接続状態情報を利用して、運転者の顔状態情報を決定する顔状態情報決定部を含む請求項3に記載の走行状況判断情報基盤の運転者状態認識装置。
a vector information acquisition unit that acquires face vector information of a driver including face direction reference line of sight information, whether or not the eyes are closed, and line of sight state, using vector information between the set rectangular reference areas; Obtaining driver operation information during driving including the additional function operation state of the driver, and determining the face state information of the driver by using the driver connection state information based on the obtained face vector information of the driver. 4. The device for recognizing driver's state based on driving situation judgment information as claimed in claim 3, comprising a face state information determining unit.
前記顔ベクトル情報は、
顔部分間の関係性基盤分布及び確率によって計算された請求項6に記載の走行状況判断情報基盤の運転者状態認識装置。
The face vector information is
7. The apparatus for recognizing driver's state based on driving situation judgment information as claimed in claim 6, which is calculated based on relationship-based distribution and probability between facial parts.
前記関係性は、
両眼、鼻、目のサイズ及び相対位置に対する関係である請求項7に記載の走行状況判断情報基盤の運転者状態認識装置。
The relationship is
8. The device for recognizing driver's state based on driving situation judgment information as claimed in claim 7, wherein it is a relationship with respect to sizes and relative positions of both eyes, nose and eyes.
映像獲得装置から運転者の顔状態情報と運転者の走行情報獲得装置から運転者の走行行為情報を獲得するステップと、
車両外部干渉認識装置から周辺車両の走行状況認識情報を獲得するステップと、
前記運転者の顔状態情報、周辺車両の走行状況認識情報及び運転者の走行行為情報などの獲得情報と学習された顔のベクトル情報を比較して運転者の走行集中度を決定するステップと、及び
前記決定された運転者の走行集中度に対応するように運転者の走行指導を決定するステップと、を含む走行状況判断情報基盤の運転者状態認識方法。
a step of acquiring face state information of the driver from the image acquisition device and driving behavior information of the driver from the driving information acquisition device of the driver;
a step of acquiring driving situation recognition information of surrounding vehicles from the vehicle external interference recognition device;
determining the driving concentration level of the driver by comparing acquired information such as the facial state information of the driver, driving situation recognition information of surrounding vehicles, and driving action information of the driver with the learned facial vector information; and determining a driving guidance for the driver corresponding to the determined driving concentration level of the driver.
前記運転者の走行集中度を決定するステップは、
前記運転者の顔状態情報を通して運転者が居眠り及び正面を凝視しているかどうかを判断するステップと、及び
前記運転者が正面を凝視したものと判断すれば、危険度と操作レベルに応じた状況を判断するステップと、を含む請求項9に記載の走行状況判断情報基盤の運転者状態認識方法。
The step of determining the driving concentration level of the driver includes:
a step of determining whether the driver is asleep or staring at the front based on the face state information of the driver; The driver state recognition method based on driving situation determination information according to claim 9, comprising the step of determining
カメラを介して取得した顔画像を正規化するために、顔画像から基準領域を設定するための二つの基準ポイントを選択する基準ポイント選択ステップと、及び
前記選択された基準ポイントの座標と二つの基準ポイント間の距離と比率を利用して、四角形の基準領域を設定するワープ及び正規化ステップと、を含むデータ加工手段と、を含む請求項9に記載の走行状況判断情報基盤の運転者状態認識方法。
a reference point selection step of selecting two reference points for setting a reference region from the face image to normalize the face image acquired through the camera; The driver state of the driving situation judgment information base according to claim 9, comprising a data processing means including a warp and normalization step of setting a rectangular reference area using the distance and ratio between reference points. recognition method.
顔画像から瞳孔基準領域を選択するために、瞳孔の中心に瞳孔基準ポイントが選択されるステップと、
前記瞳孔基準ポイントからサイズが調節される基準ガイド円が提供されるステップと、及び
前記基準ガイド円を通して瞳孔基準領域を選択して正規化するステップと、を含む請求項11に記載の走行状況判断情報基盤の運転者状態認識方法。
a pupil reference point is selected at the center of the pupil to select a pupil reference region from the face image;
12. The driving situation determination according to claim 11, comprising providing a reference guide circle whose size is adjusted from the pupil reference point; and selecting and normalizing a pupil reference area through the reference guide circle. Information-based driver state recognition method.
前記瞳孔基準領域を選択して正規化するステップは、
選択された瞳孔基準領域を除いた残りの領域のピクセルを「0」値に処理することを特徴とする請求項12に記載の走行状況判断情報基盤の運転者状態認識方法。
Selecting and normalizing the pupil reference region comprises:
[Claim 13] The method of claim 12, wherein the pixels of the remaining area except the selected pupil reference area are treated as '0' value.
設定された四角形の基準領域間のベクトル情報を利用して、顔の方向基準視線情報、目を閉じたかどうか及び視線状態を含む運転者の顔ベクトル情報を獲得するステップと、
運転者の付加機能操作状態を含む走行中の運転者操作情報を獲得するステップと、及び
前記獲得した運転者の顔ベクトル情報を基準に運転者接続状態情報を利用して、運転者の顔状態情報を決定するステップを含む、請求項11に記載の走行状況判断情報基盤の運転者状態認識方法。
obtaining face vector information of the driver including direction reference gaze information of the face, whether the eyes are closed and gaze state using vector information between the set rectangular reference areas;
a step of obtaining driver operation information during driving including a driver's additional function operation state; and a driver's face state using driver connection state information based on the obtained driver's face vector information. The method for recognizing a driver's state based on driving situation judgment information as claimed in claim 11, comprising the step of determining information.
前記顔ベクトル情報は、
顔部分間の関係性基盤分布及び確率によって計算された請求項14に記載の走行状況判断情報基盤の運転者状態認識方法。
The face vector information is
15. The method of claim 14, wherein the driving situation determination information-based driver state recognition method is calculated based on the relationship-based distribution and probability between facial parts.
前記関係性は、
両眼、鼻、目のサイズ及び相対位置に対する関係である請求項15に記載の走行状況判断情報基盤の運転者状態認識方法。
The relationship is
16. The method for recognizing a driver's state based on driving situation determination information as claimed in claim 15, wherein the relationship is the size and relative position of both eyes, nose, and eyes.
JP2018209047A 2018-05-10 2018-11-06 Apparatus and method for recognizing driver's state based on driving situation judgment information Active JP7154959B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180053895A KR102479049B1 (en) 2018-05-10 2018-05-10 The apparatus and method for Driver Status Recognition based on Driving Status Decision Information
KR10-2018-0053895 2018-05-10

Publications (2)

Publication Number Publication Date
JP2019197522A JP2019197522A (en) 2019-11-14
JP7154959B2 true JP7154959B2 (en) 2022-10-18

Family

ID=68538442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018209047A Active JP7154959B2 (en) 2018-05-10 2018-11-06 Apparatus and method for recognizing driver's state based on driving situation judgment information

Country Status (2)

Country Link
JP (1) JP7154959B2 (en)
KR (1) KR102479049B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112188288B (en) * 2020-09-04 2023-03-14 青岛海尔科技有限公司 Method, system, device and equipment for controlling television
CN112622892B (en) * 2020-12-14 2023-03-24 深圳技术大学 Emergency braking method and system based on face and limb posture recognition
CN113569674A (en) * 2021-07-16 2021-10-29 深圳昌恩智能股份有限公司 Driving behavior identification method based on intelligent vehicle-mounted terminal
KR102411864B1 (en) * 2021-08-31 2022-06-22 (주)에이아이매틱스 System and method for managing driving information of shared vehicle to guarantee driver's anonymity

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265377A (en) 2006-03-01 2007-10-11 Toyota Central Res & Dev Lab Inc Driver state determining device and driving support device
US20130093888A1 (en) 2011-10-17 2013-04-18 Hyundai Motor Company System and method for determining vehicle driving status information-based driving concentration

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257043A (en) * 2006-03-20 2007-10-04 Nissan Motor Co Ltd Occupant state estimating device and occupant state estimating method
JP5109922B2 (en) * 2008-10-16 2012-12-26 株式会社デンソー Driver monitoring device and program for driver monitoring device
JP5273030B2 (en) * 2009-12-18 2013-08-28 株式会社デンソー Facial feature point detection device and drowsiness detection device
US8698639B2 (en) * 2011-02-18 2014-04-15 Honda Motor Co., Ltd. System and method for responding to driver behavior
US20190340780A1 (en) * 2016-06-23 2019-11-07 Gaia System Solutions Inc. Engagement value processing system and engagement value processing apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265377A (en) 2006-03-01 2007-10-11 Toyota Central Res & Dev Lab Inc Driver state determining device and driving support device
US20130093888A1 (en) 2011-10-17 2013-04-18 Hyundai Motor Company System and method for determining vehicle driving status information-based driving concentration

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宮治 正廣 ほか,生体情報を利用したAdaBoostによるドライバ認知負荷状態の検知,情報処理学会論文誌 [CD-ROM],日本,社団法人情報処理学会,2009年01月15日,Vol.50 No.1 ,p.171-180

Also Published As

Publication number Publication date
KR20190134909A (en) 2019-12-05
KR102479049B1 (en) 2022-12-20
JP2019197522A (en) 2019-11-14

Similar Documents

Publication Publication Date Title
JP7154959B2 (en) Apparatus and method for recognizing driver's state based on driving situation judgment information
EP3735365B1 (en) Primary preview region and gaze based driver distraction detection
US11787408B2 (en) System and method for controlling vehicle based on condition of driver
US11182629B2 (en) Machine learning based driver assistance
US10372972B2 (en) Face detection apparatus, face detection method, and program
KR20200124278A (en) A method and apparatus for recognizing dangerous motions of personnel in a vehicle, electronic devices, and storage media
EP3588372B1 (en) Controlling an autonomous vehicle based on passenger behavior
KR101276770B1 (en) Advanced driver assistance system for safety driving using driver adaptive irregular behavior detection
CN111434553B (en) Brake system, method and device, and fatigue driving model training method and device
US11427208B2 (en) Driver condition determination apparatus, method and computer program product
KR20200092739A (en) Driver status monitor method and apparatus
CN114049677A (en) Vehicle ADAS control method and system based on emotion index of driver
KR20190056520A (en) Analysis Method for Forward Concentration using a Facial Expression Recognition Technology
CN111267865B (en) Vision-based safe driving early warning method and system and storage medium
WO2021024905A1 (en) Image processing device, monitoring device, control system, image processing method, computer program, and recording medium
KR102338067B1 (en) Driver monitoring system for using interest area
WO2021262166A1 (en) Operator evaluation and vehicle control based on eyewear data
WO2020255238A1 (en) Information processing device, program, and information processing method
Chowdhury et al. Designing an empirical framework to estimate the driver's attention
Nair et al. Smart System for Drowsiness and Accident Detection
Hijaz et al. Driver Visual Focus of Attention Estimation in Autonomous Vehicles
Saranya et al. An Improved Driver Drowsiness Detection using Haar Cascade Classifier
CN117227740A (en) Multi-mode sensing system and method for intelligent driving vehicle
WO2023285149A1 (en) Guiding a vehicle based on gaze tracking data
JP2023126184A (en) Safety control method and device for automatic driving support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221005

R150 Certificate of patent or registration of utility model

Ref document number: 7154959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150