JP7361929B2 - Vehicle control device, program and vehicle control method - Google Patents

Vehicle control device, program and vehicle control method Download PDF

Info

Publication number
JP7361929B2
JP7361929B2 JP2022538492A JP2022538492A JP7361929B2 JP 7361929 B2 JP7361929 B2 JP 7361929B2 JP 2022538492 A JP2022538492 A JP 2022538492A JP 2022538492 A JP2022538492 A JP 2022538492A JP 7361929 B2 JP7361929 B2 JP 7361929B2
Authority
JP
Japan
Prior art keywords
driver
unit
passenger
vehicle
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022538492A
Other languages
Japanese (ja)
Other versions
JPWO2022018781A1 (en
Inventor
天龍 三沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022018781A1 publication Critical patent/JPWO2022018781A1/ja
Application granted granted Critical
Publication of JP7361929B2 publication Critical patent/JP7361929B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system

Description

本開示は、車両制御装置、プログラム及び車両制御方法に関する。 The present disclosure relates to a vehicle control device, a program, and a vehicle control method.

特許文献1には、車両の同乗者の視線の向きが車両外部又は車両前方である場合に、同乗者が緊張しているか否かの判定を行う運転支援装置が記載されている。この運転支援装置は、同乗者の緊張度の程度に基づいて、運転者の運転操作に対する支援を行う。 Patent Document 1 describes a driving support device that determines whether or not a passenger in a vehicle is nervous when the passenger's line of sight is outside the vehicle or in front of the vehicle. This driving support device supports the driver's driving operations based on the degree of tension of the passenger.

特開2014-75008号公報Japanese Patent Application Publication No. 2014-75008

特許文献1に記載された運転支援装置では、同乗者の視線の向きは、車両外部又は車両前方であり運転者を観察しておらず、運転者の状態判定において同乗者から見た運転者の状態情報を反映させることが出来ない。 In the driving support device described in Patent Document 1, the direction of the passenger's line of sight is outside the vehicle or in front of the vehicle, and does not observe the driver. Unable to reflect status information.

そこで、本開示の位置又は複数の態様は、同乗者の行動も運転者の状態判定を行う際に使うことで、より正確に運転者の状態を判定できるようにすることを目的とする。 Therefore, an object of the position or a plurality of aspects of the present disclosure is to use the behavior of a fellow passenger when determining the driver's condition, thereby making it possible to more accurately determine the driver's condition.

本開示の一態様に係る車両制御装置は、車両の運転者の意識のレベルである運転者意識レベルを特定する運転者意識レベル特定部と、前記車両における前記運転者以外の同乗者の行動である同乗者行動を特定する同乗者行動特定部と、前記運転者意識レベル及び前記同乗者行動の組み合わせから、前記運転者の状態である運転者状態を特定する運転者状態特定部と、前記運転者状態に応じて、前記車両を制御する車両制御部と、を備えることを特徴とする。 A vehicle control device according to an aspect of the present disclosure includes a driver consciousness level identification unit that identifies a driver consciousness level that is a consciousness level of a driver of a vehicle, and a driver consciousness level identification unit that identifies a driver consciousness level that is a consciousness level of a driver of a vehicle; a passenger behavior identifying unit that identifies a certain passenger behavior; a driver state identifying unit that identifies a driver state that is a state of the driver from a combination of the driver consciousness level and the passenger behavior; The present invention is characterized by comprising: a vehicle control section that controls the vehicle according to a driver's state.

本開示の一態様に係る車両制御装置は、車両の運転者の意識のレベルである運転者意識レベル及び前記車両における前記運転者以外の同乗者の行動である同乗者行動の組み合わせと、前記運転者の状態である運転者状態とを関連付ける運転者状態関連情報を記憶する運転者状態記憶部と、前記運転者から前記運転者意識レベルを特定する運転者意識レベル特定部と、前記同乗者から前記同乗者行動を特定する同乗者行動特定部と、前記運転者状態記憶部に記憶されているデータ量が予め定められた閾値よりも少ない場合に、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の組み合わせから、前記運転者状態を特定するとともに、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の前記組み合わせと、前記特定された同乗者行動と、を関連付けて、前記運転者状態関連情報として、前記運転者状態記憶部に記憶させ、前記運転者状態記憶部に記憶されているデータ量が予め定められた閾値以上である場合に、前記運転者状態関連情報から、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の組み合わせに関連付けられている前記運転者状態を特定する運転者状態特定部と、前記運転者状態特定部により特定された前記運転者状態に応じて、前記車両を制御する車両制御部と、を備えることを特徴とする。 A vehicle control device according to an aspect of the present disclosure provides a combination of a driver consciousness level, which is a level of consciousness of a driver of a vehicle, and fellow passenger behavior, which is a behavior of a fellow passenger other than the driver in the vehicle, and a driver state storage unit that stores driver state related information that associates the driver state with the driver state, a driver state storage unit that stores the driver state related information that associates the driver state with the driver state; When the amount of data stored in the passenger behavior identifying unit that identifies the passenger behavior and the driver state storage unit is less than a predetermined threshold, the driver consciousness level identifying unit identifies the passenger behavior. The driver condition is specified from the combination of the driver consciousness level and the passenger behavior specified by the passenger behavior identification section, and the driver consciousness level and the passenger behavior specified by the driver consciousness level identification section are determined. The combination of the passenger behavior specified by the passenger behavior identification unit and the identified passenger behavior are associated and stored in the driver status storage unit as the driver status related information, When the amount of data stored in the driver state storage unit is equal to or greater than a predetermined threshold, the driver consciousness level and a driver state identifying unit that identifies the driver state associated with the combination of passenger behaviors identified by the fellow passenger behavior identifying unit; and a driver state identified by the driver state identifying unit. Accordingly, the present invention is characterized by comprising a vehicle control section that controls the vehicle.

本開示の一態様に係るプログラムは、コンピュータを、車両の運転者の意識のレベルである運転者意識レベルを特定する運転者意識レベル特定部、前記車両における前記運転者以外の同乗者の行動である同乗者行動を特定する同乗者行動特定部、前記運転者意識レベル及び前記同乗者行動の組み合わせから、前記運転者の状態である運転者状態を特定する運転者状態特定部、及び、前記運転者状態に応じて、前記車両を制御する車両制御部、として機能させることを特徴とする。 A program according to an aspect of the present disclosure includes a driver consciousness level identification unit that identifies a driver consciousness level, which is a consciousness level of a driver of a vehicle, and a driver consciousness level identification unit that identifies a driver consciousness level that is a consciousness level of a driver of a vehicle; a passenger behavior identification unit that identifies a certain passenger behavior; a driver state identification unit that identifies a driver state that is a state of the driver from a combination of the driver consciousness level and the passenger behavior; The present invention is characterized in that the vehicle control section functions as a vehicle control section that controls the vehicle according to the driver's state.

本開示の一態様に係るプログラムは、コンピュータを、車両の運転者の意識のレベルである運転者意識レベル及び前記車両における前記運転者以外の同乗者の行動である同乗者行動の組み合わせと、前記運転者の状態である運転者状態とを関連付ける運転者状態関連情報を記憶する運転者状態記憶部、前記運転者から前記運転者意識レベルを特定する運転者意識レベル特定部、前記同乗者から前記同乗者行動を特定する同乗者行動特定部、前記運転者状態記憶部に記憶されているデータ量が予め定められた閾値よりも少ない場合に、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の組み合わせから、前記運転者状態を特定するとともに、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の前記組み合わせと、前記特定された同乗者行動と、を関連付けて、前記運転者状態関連情報として、前記運転者状態記憶部に記憶させ、前記運転者状態記憶部に記憶されているデータ量が予め定められた閾値以上である場合に、前記運転者状態関連情報から、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の組み合わせに関連付けられている前記運転者状態を特定する運転者状態特定部、及び、前記運転者状態特定部により特定された前記運転者状態に応じて、前記車両を制御する車両制御部、として機能させることを特徴とする。 A program according to an aspect of the present disclosure causes a computer to determine a combination of a driver consciousness level, which is a level of consciousness of a driver of a vehicle, and a fellow passenger behavior, which is a behavior of a fellow passenger other than the driver in the vehicle, and the a driver state storage unit that stores driver state related information that associates the driver state with a driver state; a driver consciousness level identification unit that identifies the driver consciousness level from the driver; A passenger behavior identifying unit that identifies passenger behavior, and when the amount of data stored in the driver state storage unit is less than a predetermined threshold, the driving that is identified by the driver consciousness level identifying unit; The driver condition is specified from a combination of the passenger's consciousness level and the fellow passenger's behavior specified by the passenger's behavior specifying section, and the driver's consciousness level specified by the driver's consciousness level specifying section and the fellow passenger's condition are determined. The combination of the passenger behavior identified by the passenger behavior identification unit and the identified passenger behavior are associated and stored in the driver status storage unit as the driver status related information, When the amount of data stored in the driver state storage unit is equal to or greater than a predetermined threshold, the driver consciousness level and the fellow passenger identified by the driver consciousness level identification unit from the driver state related information are determined. a driver state identification unit that identifies the driver state associated with the combination of passenger behavior identified by the driver behavior identification unit; and and functions as a vehicle control section that controls the vehicle.

本開示の一態様に係る車両制御方法は、コンピュータが、車両の運転者の意識のレベルである運転者意識レベルを特定し、前記車両における前記運転者以外の同乗者の行動である同乗者行動を特定し、前記運転者意識レベル及び前記同乗者行動の組み合わせから、前記運転者の状態である運転者状態を特定し、前記運転者状態に応じて、前記車両を制御することを特徴とする。 In a vehicle control method according to an aspect of the present disclosure, a computer identifies a driver consciousness level that is a consciousness level of a driver of a vehicle, and a passenger behavior that is a behavior of a fellow passenger other than the driver in the vehicle. The present invention is characterized in that a driver condition, which is a condition of the driver, is specified from a combination of the driver consciousness level and the passenger behavior, and the vehicle is controlled according to the driver condition. .

本開示の一態様に係る車両制御方法は、コンピュータが、車両の運転者の意識のレベルである運転者意識レベルを特定し、前記車両における前記運転者以外の同乗者の行動である同乗者行動を特定し、前記特定された運転者意識レベル及び前記特定された同乗者行動の組み合わせから、前記運転者の状態である運転者状態を特定し、前記特定された運転者意識レベル及び前記特定された同乗者行動の組み合わせと、前記特定された運転者状態とを関連付ける運転者状態関連情報を記憶する車両制御方法であって、前記コンピュータは、前記記憶された運転者状態関連情報のデータ量が予め定められた閾値以上となった場合に、前記運転者状態を特定する方法を、前記特定された運転者意識レベル及び前記特定された同乗者行動の組み合わせに関連付けられている前記運転者状態を特定する方法に切り替えることを特徴とする。 In a vehicle control method according to an aspect of the present disclosure, a computer identifies a driver consciousness level that is a consciousness level of a driver of a vehicle, and a passenger behavior that is a behavior of a fellow passenger other than the driver in the vehicle. from the combination of the identified driver consciousness level and the identified passenger behavior, the driver state that is the state of the driver is determined, and the driver state that is the state of the driver is determined. A vehicle control method for storing driver condition related information that associates a combination of passenger behaviors and the identified driver condition, wherein the computer stores a data amount of the stored driver condition related information. A method for identifying the driver state when the driver state exceeds a predetermined threshold is determined by determining the driver state associated with the combination of the identified driver consciousness level and the identified passenger behavior. The method is characterized by switching to a method for specifying.

本開示の一又は複数の態様によれば、同乗者の行動も運転者の状態判定を行う際に使うことで、より正確に運転者の状態を判定することができる。 According to one or more aspects of the present disclosure, by using the behavior of a fellow passenger when determining the driver's condition, the driver's condition can be determined more accurately.

実施の形態1に係る車両制御装置の構成を概略的に示すブロック図である。1 is a block diagram schematically showing the configuration of a vehicle control device according to Embodiment 1. FIG. 実施の形態1における同乗者行動特定部の構成を概略的に示すブロック図である。FIG. 2 is a block diagram schematically showing the configuration of a fellow passenger behavior identifying section in the first embodiment. 同乗者行動を特定するための同乗者行動結果表の一例を示す概略図である。FIG. 3 is a schematic diagram showing an example of a fellow passenger behavior result table for specifying fellow passenger behavior. 運転者意識レベルを特定するための運転者意識レベル結果表の一例を示す概略図である。FIG. 2 is a schematic diagram showing an example of a driver consciousness level result table for specifying a driver consciousness level. 運転者状態を特定するための運転者状態結果表の一例を示す概略図である。FIG. 3 is a schematic diagram showing an example of a driver condition result table for specifying a driver condition. 実施の形態1における車両制御部の構成を概略的に示すブロック図である。FIG. 2 is a block diagram schematically showing the configuration of a vehicle control section in Embodiment 1. FIG. (A)及び(B)は、ハードウェア構成例を示すブロック図である。(A) and (B) are block diagrams showing examples of hardware configurations. 実施の形態1における運転者意識レベル特定部及び同乗者行動特定部での特定結果から車両を制御する処理の一例を示すステートチャート図である。5 is a state chart diagram illustrating an example of a process for controlling a vehicle based on the identification results of a driver consciousness level identification unit and a fellow passenger behavior identification unit in the first embodiment; FIG. 同乗者行動特定部での処理の一例を示すステートチャート図である。FIG. 7 is a state chart diagram illustrating an example of processing in a fellow passenger behavior identifying section. 実施の形態1における車両制御部の処理の一例を示すステートチャート図である。FIG. 3 is a state chart diagram showing an example of processing of a vehicle control unit in the first embodiment. 車両制御装置が搭載された車両のコックピットの内部の一例を示す概略図である。FIG. 1 is a schematic diagram showing an example of the inside of a cockpit of a vehicle in which a vehicle control device is mounted. 実施の形態2に係る車両制御装置の構成を概略的に示すブロック図である。FIG. 2 is a block diagram schematically showing the configuration of a vehicle control device according to a second embodiment. 実施の形態2における車両制御部の構成を概略的に示すブロック図である。FIG. 2 is a block diagram schematically showing the configuration of a vehicle control section in Embodiment 2. FIG. 実施の形態2における運転者意識レベル特定部及び同乗者行動特定部での特定結果から車両を制御する処理の一例を示すステートチャート図である。FIG. 7 is a state chart diagram showing an example of a process for controlling a vehicle based on the identification results of a driver consciousness level identification unit and a fellow passenger behavior identification unit in Embodiment 2; 実施の形態2における車両制御部の処理の一例を示すステートチャート図である。FIG. 7 is a state chart diagram illustrating an example of processing by a vehicle control unit in Embodiment 2. FIG.

実施の形態1.
図1は、実施の形態1に係る車両制御装置100の構成を概略的に示すブロック図である。
車両制御装置100は、同乗者行動特定部110と、運転者意識レベル特定部160と、運転者状態特定部170と、車両制御部180とを備える。
Embodiment 1.
FIG. 1 is a block diagram schematically showing the configuration of a vehicle control device 100 according to the first embodiment.
The vehicle control device 100 includes a passenger behavior identification section 110, a driver consciousness level identification section 160, a driver state identification section 170, and a vehicle control section 180.

同乗者行動特定部110は、車両における運転者以外の同乗者の行動である同乗者行動を特定する。
例えば、同乗者行動特定部110は、同乗者の視線情報、音声情報又は生体情報等の同乗者に関する情報から同乗者行動を特定し、特定された同乗者行動を運転者状態特定部170に与える。
ここで、同乗者行動は、同乗者が運転者を観察することで同乗者が行う行動であることが望ましい。
The fellow passenger behavior identification unit 110 identifies fellow passenger behavior that is the behavior of a fellow passenger other than the driver in the vehicle.
For example, the fellow passenger behavior identification unit 110 identifies fellow passenger behavior from information regarding the passenger such as line of sight information, voice information, or biological information of the fellow passenger, and provides the identified fellow passenger behavior to the driver state identification unit 170. .
Here, it is preferable that the fellow passenger's behavior is an action that the fellow passenger performs by observing the driver.

図2は、実施の形態1における同乗者行動特定部110の構成を概略的に示すブロック図である。
同乗者行動特定部110は、同乗者監視部120と、荷重解析部140と、視線解析部141と、音声解析部142と、特定部146とを備える。
FIG. 2 is a block diagram schematically showing the configuration of fellow passenger behavior identifying section 110 in the first embodiment.
The fellow passenger behavior identification unit 110 includes a fellow passenger monitoring unit 120 , a load analysis unit 140 , a line of sight analysis unit 141 , a voice analysis unit 142 , and a identification unit 146 .

同乗者監視部120は、同乗者の状態を検出する。
同乗者監視部120は、荷重検出部121と、荷重判定部122と、顔画像取得部123と、視線検出部124と、視線判定部125と、心拍数検出部126と、心拍数判定部127と、発汗量検出部128と、発汗量判定部129と、音声検出部130と、音声判定部131とを備える。
The fellow passenger monitoring unit 120 detects the condition of the fellow passenger.
The passenger monitoring unit 120 includes a load detection unit 121 , a load determination unit 122 , a face image acquisition unit 123 , a line of sight detection unit 124 , a line of sight determination unit 125 , a heart rate detection unit 126 , and a heart rate determination unit 127 , a sweat amount detection section 128 , a sweat amount determination section 129 , a voice detection section 130 , and a voice determination section 131 .

荷重検出部121は、車両の同乗者席に設置されている荷重センサ(図示せず)で検出された信号から、同乗者席への荷重の値を検出する。そして、荷重検出部121は、その荷重の値を示す荷重検出データを生成し、その荷重検出データを荷重判定部122に与える。 The load detection unit 121 detects the value of the load on the passenger seat from a signal detected by a load sensor (not shown) installed in the passenger seat of the vehicle. Then, the load detection section 121 generates load detection data indicating the value of the load, and provides the load detection data to the load determination section 122.

荷重判定部122は、荷重検出部121から与えられる荷重検出データを荷重解析部140に与える。
また、荷重判定部122は、後述するように、荷重解析部140で生成される荷重情報を特定部146に与える。
The load determination unit 122 provides the load detection data provided from the load detection unit 121 to the load analysis unit 140.
Moreover, the load determination unit 122 provides load information generated by the load analysis unit 140 to the identification unit 146, as described later.

荷重解析部140は、荷重検出部121から与えられる荷重検出データを解析することで、同乗者の有無を検出する。さらに、荷重解析部140は、同乗者がいる場合に、荷重検出部121から与えられる荷重検出データを解析することで、車両における同乗者の位置、同乗者により荷重がかかっている方向、及び、荷重の大きさを特定し、特定された位置、方向及び大きさを示す荷重情報を生成する。荷重情報は、荷重判定部122に与えられ、荷重判定部122から特定部146に与えられる。 The load analysis section 140 analyzes the load detection data provided from the load detection section 121 to detect the presence or absence of a fellow passenger. Further, when there is a fellow passenger, the load analysis unit 140 analyzes the load detection data provided from the load detection unit 121 to determine the position of the fellow passenger in the vehicle, the direction in which the load is applied by the fellow passenger, and The size of the load is specified, and load information indicating the specified position, direction, and size is generated. The load information is given to the load determining section 122, and from the load determining section 122 to the specifying section 146.

例えば、同乗者が乗車すると、同乗者席に設置されている荷重センサが反応するため、荷重解析部140は、同乗者が乗車したことを検出することができる。また、同乗者が運転席側又は窓側に重心をずらした場合も、荷重解析部140は、荷重センサで検出される荷重の状況から、同乗者が何れの方向に重心をずらしたかを検出することができる。 For example, when a fellow passenger gets on the vehicle, a load sensor installed in the fellow passenger's seat reacts, so the load analysis unit 140 can detect that the fellow passenger gets on the vehicle. Furthermore, even if the passenger shifts his or her center of gravity toward the driver's seat or the window, the load analysis unit 140 detects in which direction the passenger's center of gravity has shifted from the state of the load detected by the load sensor. Can be done.

顔画像取得部123は、同乗者が乗車した場合に、車両の内部を撮像した画像を示す画像データから同乗者の顔を特定し、特定された顔を示す顔画像のデータである顔画像データを取得する。顔画像データは、視線検出部124に与えられる。 When a fellow passenger gets on the vehicle, the face image acquisition unit 123 identifies the face of the fellow passenger from image data showing an image captured inside the vehicle, and generates face image data that is facial image data showing the identified face. get. The face image data is provided to the line of sight detection section 124.

視線検出部124は、顔画像取得部123から与えられる顔画像データで示される顔画像から、同乗者の視線を検出する。視線検出部124は、検出された視線を示す視線データを生成し、その視線データを視線判定部125に与える。 The line of sight detection unit 124 detects the line of sight of the fellow passenger from the face image indicated by the face image data provided from the face image acquisition unit 123. The line-of-sight detection unit 124 generates line-of-sight data indicating the detected line-of-sight, and provides the line-of-sight data to the line-of-sight determination unit 125.

視線判定部125は、視線検出部124から与えられる視線データを視線解析部141に与える。
そして、視線判定部125は、後述するように、視線解析部141で生成される視線情報を特定部146に与える。
The line of sight determination unit 125 provides the line of sight data provided from the line of sight detection unit 124 to the line of sight analysis unit 141.
Then, the line-of-sight determination unit 125 provides line-of-sight information generated by the line-of-sight analysis unit 141 to the identification unit 146, as described later.

視線解析部141は、視線検出部124から与えられる視線データを解析することで、同乗者が見ている方向を特定する。そして、視線解析部141は、同乗者が見ている方向を示す視線情報を生成し、その視線情報を視線判定部125に与える。 The line of sight analysis unit 141 specifies the direction in which the fellow passenger is looking by analyzing the line of sight data provided from the line of sight detection unit 124. Then, the line-of-sight analysis unit 141 generates line-of-sight information indicating the direction in which the fellow passenger is looking, and provides the line-of-sight information to the line-of-sight determination unit 125.

心拍数検出部126は、同乗者の心拍数を検出し、検出された心拍数を示す心拍数情報を生成する。心拍数情報は、心拍数判定部127に与えられる。
心拍数判定部127は、心拍数情報を特定部146に与える。
The heart rate detection unit 126 detects the heart rate of the passenger and generates heart rate information indicating the detected heart rate. The heart rate information is given to the heart rate determination section 127.
Heart rate determining section 127 provides heart rate information to identifying section 146 .

発汗量検出部128は、同乗者の発汗量を検出し、検出された発汗量を示す発汗量情報を生成する。発汗量情報は、発汗量判定部129に与えられる。
発汗量判定部129は、発汗量情報を特定部146に与える。
The sweat amount detection unit 128 detects the sweat amount of the passenger and generates sweat amount information indicating the detected sweat amount. The sweat amount information is provided to the sweat amount determining section 129.
The sweat amount determining section 129 provides sweat amount information to the specifying section 146.

音声検出部130は、同乗者が発する音声を検出することで、検出された音声を示す音声データを生成する。音声データは、音声判定部131に与えられる。
音声判定部131は、音声データを音声解析部142に与える。
また、音声判定部131は、後述するように、音声解析部142で生成された音声情報を特定部146に与える。
The voice detection unit 130 generates voice data indicating the detected voice by detecting the voice emitted by the fellow passenger. The audio data is provided to the audio determination section 131.
The voice determination section 131 provides voice data to the voice analysis section 142.
Furthermore, the voice determination unit 131 provides the voice information generated by the voice analysis unit 142 to the identification unit 146, as will be described later.

音声解析部142は、音声データを解析することで、同乗者が発した音声の内容を特定する。
音声解析部142は、言語解析部143と、辞書記憶部144と、辞書参照部145とを備える。
The voice analysis unit 142 specifies the content of the voice uttered by the passenger by analyzing the voice data.
The speech analysis section 142 includes a language analysis section 143, a dictionary storage section 144, and a dictionary reference section 145.

言語解析部143は、音声データで示される音声に対して形態素解析を行うことで、形態素に分割する。そして、言語解析部143は、分割された形態素を辞書参照部145に与える。 The language analysis unit 143 performs morphological analysis on the speech represented by the speech data, thereby dividing the speech into morphemes. The language analysis unit 143 then provides the divided morphemes to the dictionary reference unit 145.

辞書記憶部144は、形態素毎の意味を示す辞書データを記憶する。
辞書参照部145は、辞書記憶部144に記憶されている辞書データを参照することで、言語解析部143から与えられる形態素毎の意味を特定し、その意味を言語解析部143に与える。
The dictionary storage unit 144 stores dictionary data indicating the meaning of each morpheme.
The dictionary reference unit 145 specifies the meaning of each morpheme provided from the language analysis unit 143 by referring to the dictionary data stored in the dictionary storage unit 144, and provides the meaning to the language analysis unit 143.

言語解析部143は、形態素毎の意味から、同乗者の発した音声の内容を特定し、特定した内容を示す音声情報を生成する。音声情報は、音声判定部131に与えられ、音声判定部131は、その音声情報を特定部146に与える。ここで、同乗者が発する音声には、悲鳴又は嗚咽等言葉にならない音声も含まれる。 The language analysis unit 143 identifies the content of the voice uttered by the fellow passenger based on the meaning of each morpheme, and generates audio information indicating the identified content. The voice information is given to the voice determining section 131, and the voice determining section 131 gives the voice information to the specifying section 146. Here, the sounds emitted by the passenger include sounds that cannot be put into words, such as screams or sobs.

以上のように、荷重検出部121、荷重判定部122及び荷重解析部140により、同乗者の座席における荷重の方向及び大きさを特定する荷重特定部111が構成される。
また、顔画像取得部123、視線検出部124、視線判定部125及び視線解析部141により、同乗者の視線の方向を特定する視線特定部112が構成される。
As described above, the load detection section 121, the load determination section 122, and the load analysis section 140 constitute the load identification section 111 that identifies the direction and magnitude of the load on the passenger's seat.
Furthermore, the face image acquisition section 123, the line of sight detection section 124, the line of sight determination section 125, and the line of sight analysis section 141 constitute a line of sight specifying section 112 that specifies the direction of the fellow passenger's line of sight.

心拍数検出部126及び心拍数判定部127により、同乗者の心拍数を特定する心拍数特定部113が構成される。
発汗量検出部128及び発汗量判定部129により、同乗者の発汗量を特定する発汗量特定部114が構成される。
なお、心拍数特定部113及び発汗量特定部114により、同乗者の生体に関する物理量を特定する物理量特定部が構成されるものとする。実施の形態1では、同乗者の生体に関する物理量として、心拍数と発汗量が特定されているが、実施の形態1は、このような例に限定されない。例えば、血圧又は呼吸数等が特定されてもよい。物理量特定部は、同乗者の生体に関する物理量を示す生体情報を特定部146に与える。
The heart rate detection section 126 and the heart rate determination section 127 constitute a heart rate identification section 113 that identifies the heart rate of the passenger.
The sweat amount detection section 128 and the sweat amount determination section 129 constitute a sweat amount identification section 114 that identifies the sweat amount of the fellow passenger.
It is assumed that the heart rate identifying section 113 and the sweat amount identifying section 114 constitute a physical quantity identifying section that identifies a physical quantity related to the living body of the fellow passenger. In the first embodiment, the heart rate and the amount of perspiration are specified as the physical quantities related to the living body of the fellow passenger, but the first embodiment is not limited to such an example. For example, blood pressure or respiratory rate may be specified. The physical quantity specifying unit provides the specifying unit 146 with biological information indicating a physical quantity related to the living body of the fellow passenger.

さらに、音声検出部130、音声判定部131及び音声解析部142により、同乗者が発した音声の内容を特定する音声特定部115が構成される。
なお、同乗者行動特定部110は、荷重特定部111、視線特定部112、心拍数特定部113、発汗量特定部114及び音声特定部115の全てを備えている必要はなく、これらの少なくとも何れか一つを備えていればよい。
Furthermore, the voice detection section 130, the voice determination section 131, and the voice analysis section 142 constitute a voice identification section 115 that identifies the content of the voice uttered by the fellow passenger.
Note that the passenger behavior identification unit 110 does not need to include all of the load identification unit 111, the line of sight identification unit 112, the heart rate identification unit 113, the sweat amount identification unit 114, and the audio identification unit 115; It is sufficient to have one of these.

特定部146は、同乗者監視部120から与えられる情報に基づいて、同乗者の行動である同乗者行動を特定する。例えば、特定部146は、同乗者監視部120から与えられる情報に基づいて、図3に示されているような同乗者行動を特定する。 The specifying unit 146 specifies fellow passenger behavior, which is the behavior of the fellow passenger, based on information provided from the fellow passenger monitoring unit 120. For example, the identification unit 146 identifies fellow passenger behavior as shown in FIG. 3 based on information provided from the fellow passenger monitoring unit 120.

図3は、同乗者行動を特定するための同乗者行動結果表の一例を示す概略図である。
図3に示された同乗者行動結果表150は、該当列150aと、PID(Passenger IDentigication)列150bと、同乗者行動列150cとを備える。
同乗者行動列150cは、同乗者行動を格納する。
PID列150bは、同乗者行動を識別するための識別情報である同乗者行動識別情報としてのPIDを格納する。
該当列150aは、同乗者監視部120から与えられる情報に従って、同乗者行動に該当するか否かを格納する。
FIG. 3 is a schematic diagram showing an example of a fellow passenger behavior result table for specifying fellow passenger behavior.
The passenger behavior result table 150 shown in FIG. 3 includes a corresponding column 150a, a PID (Passenger IDentification) column 150b, and a fellow passenger behavior column 150c.
The fellow passenger behavior column 150c stores fellow passenger behaviors.
The PID column 150b stores PIDs as fellow passenger behavior identification information, which is identification information for identifying fellow passenger behaviors.
The applicable column 150a stores whether or not the behavior corresponds to a fellow passenger's behavior, according to information provided from the fellow passenger monitoring unit 120.

例えば、特定部146は、荷重情報に基づいて、「同乗者の重心が運転手側に傾いている」、「同乗者の重心が窓側に傾いている」、「同乗者がシートから立ち上がっている」又は「同乗者が運転者を揺さぶっている」ことを特定する。具体的には、特定部146は、「同乗者の重心が運転手側に傾いている」、「同乗者がシートから立ち上がっている」又は「同乗者が運転者を揺さぶっている」に該当しない場合には、「同乗者の重心が窓側に傾いている」と判断すればよい。 For example, based on the load information, the identification unit 146 determines that "the passenger's center of gravity is leaning toward the driver," "the passenger's center of gravity is leaning toward the window," or "the passenger is standing up from the seat." ” or “a passenger is shaking the driver.” Specifically, the identification unit 146 determines that "the passenger's center of gravity is tilted toward the driver", "the passenger is standing up from the seat", or "the passenger is shaking the driver" does not apply. In this case, it may be determined that the passenger's center of gravity is leaning toward the window.

特定部146は、視線情報に基づいて、「同乗者の視線が前方を向いている」又は「同乗者の視線が運転者を向いている」ことを特定する。具体的には、特定部146は、「同乗者の視線が運転者を向いている」に該当しない場合には、「同乗者の視線が前方を向いている」と判断すればよい。 The specifying unit 146 specifies, based on the line-of-sight information, that "the fellow passenger's line of sight is facing forward" or that "the fellow passenger's line of sight is facing the driver." Specifically, the identification unit 146 may determine that "the fellow passenger's line of sight is facing forward" when "the fellow passenger's line of sight is facing the driver" does not apply.

特定部146は、心拍数情報に基づいて、「同乗者の心拍数が多い」、「同乗者の心拍数が普通である」又は「同乗者の心拍数が少ない」ことを特定する。例えば、特定部146は、予め定められた閾値を用いて、この判断を行えばよい。 The specifying unit 146 specifies, based on the heart rate information, that "the fellow passenger's heart rate is high", "the fellow passenger's heart rate is normal", or "the fellow passenger's heart rate is low". For example, the identifying unit 146 may make this determination using a predetermined threshold.

特定部146は、発汗量情報に基づいて、「同乗者の発汗量が多い」、「同乗者の発汗量が普通である」又は「同乗者の発汗量が少ない」ことを特定する。例えば、特定部146は、予め定められた閾値を用いて、この判断を行えばよい。 The specifying unit 146 specifies, based on the sweating amount information, that "the fellow passenger's sweating amount is large", "the fellow passenger's sweating amount is normal", or "the fellow passenger's sweating amount is low". For example, the identifying unit 146 may make this determination using a predetermined threshold.

特定部146は、音声情報に基づいて、「同乗者が任意の言葉を発している」、「同乗者が特定の言葉を発している」、「同乗者が悲鳴を上げている」又は「同乗者が言葉を発していない」ことを特定する。具体的には、特定部146は、「同乗者が特定の言葉を発している」、「同乗者が悲鳴を上げている」又は「同乗者が言葉を発していない」に該当しない場合には、「同乗者が任意の言葉を発している」と判断すればよい。 Based on the audio information, the identification unit 146 determines whether "the fellow passenger is uttering an arbitrary word," "the fellow passenger is uttering a specific word," "the fellow passenger is screaming," or "the fellow passenger is screaming." Identify that the person is not speaking. Specifically, the identification unit 146 determines that if the following conditions do not apply: "The passenger is uttering specific words," "The passenger is screaming," or "The passenger is not speaking." , it can be determined that ``the passenger is uttering arbitrary words.''

特定部146は、以上のようにして特定された同乗者行動を示す同乗者行動情報を運転者状態特定部170に与える。なお、ここでは同乗者の行動を判断する際、荷重、視線、心拍数、発汗量及び音声の各種データを採用したが、同乗者に関わる他のデータ、例えば、瞳径又は瞬目回数等が用いられてもよい。 The identification unit 146 provides the driver state identification unit 170 with passenger behavior information indicating the passenger behavior identified as described above. In this case, various data such as load, line of sight, heart rate, amount of sweat, and voice were used to judge the behavior of the passenger, but other data related to the passenger, such as pupil diameter or number of blinks, may also be used. may be used.

ここでは、特定部146は、荷重特定部111、視線特定部112、心拍数特定部113、発汗量特定部114及び音声特定部115の全てから情報を取得して、同乗者行動を特定しているが、実施の形態1は、このような例に限定されない。特定部146は、荷重特定部111、視線特定部112、心拍数特定部113、発汗量特定部114及び音声特定部115の少なくとも何れか一つで特定された結果から、同乗者行動を特定できればよい。 Here, the identifying unit 146 acquires information from all of the load identifying unit 111, the line of sight identifying unit 112, the heart rate identifying unit 113, the sweat amount identifying unit 114, and the audio identifying unit 115, and identifies the fellow passenger's behavior. However, the first embodiment is not limited to such an example. If the identification unit 146 can identify the fellow passenger's behavior from the results identified by at least one of the load identification unit 111, the line of sight identification unit 112, the heart rate identification unit 113, the sweat amount identification unit 114, and the sound identification unit 115, good.

図1に戻り、運転者意識レベル特定部160は、運転者の意識のレベルである運転者意識レベルを特定する。例えば、運転者意識レベル特定部160は、同乗者行動特定部110と同様に、運転者の画像、音声、心拍数及び発汗量の少なくとも何れか一つに基づいて、図4に示されている表に示されている運転者意識レベルを特定する。特定された運転者意識レベルは、運転者状態特定部170に与えられる。 Returning to FIG. 1, the driver consciousness level identification unit 160 identifies the driver consciousness level, which is the driver's consciousness level. For example, similar to the passenger behavior identifying unit 110, the driver consciousness level identification unit 160 determines the level of consciousness shown in FIG. Identify the driver awareness level shown in the table. The identified driver consciousness level is provided to the driver condition identifying section 170.

図4は、運転者意識レベルを特定するための運転者意識レベル結果表の一例を示す概略図である。
図4に示されている運転者意識レベル結果表151は、該当列151aと、DID(Driver IDentigication)列151bと、運転者意識レベル列151cとを備える。
FIG. 4 is a schematic diagram showing an example of a driver consciousness level result table for specifying the driver consciousness level.
The driver awareness level result table 151 shown in FIG. 4 includes a corresponding column 151a, a DID (Driver IDentification) column 151b, and a driver awareness level column 151c.

運転者意識レベル列151cは、運転者意識レベルを格納する。
DID列151bは、運転者意識レベルを識別するための運転者意識レベル識別情報としてのDIDを格納する。
該当列151aは、運転者意識レベル特定部160により判断された、運転者意識レベルに該当するか否かを格納する。
The driver consciousness level column 151c stores driver consciousness levels.
The DID column 151b stores DIDs as driver consciousness level identification information for identifying the driver consciousness level.
The applicable column 151a stores information as to whether or not the driver's consciousness level corresponds to the driver's consciousness level determined by the driver's consciousness level specifying unit 160.

運転者状態特定部170は、同乗者行動特定部110から与えられる同乗者行動と、運転者意識レベル特定部160から与えられる運転者意識レベルとの組み合わせから、運転者の状態である運転者状態を特定する。
なお、運転者状態特定部170は、車両に同乗者が乗っていない場合には、運転者意識レベルから運転者状態を特定すればよい。
例えば、運転者状態特定部170は、図5に示されている表に示されている運転者状態を特定する。特定された運転者状態は、車両制御部180に与えられる。
The driver state identification unit 170 determines the driver state, which is the state of the driver, from the combination of the passenger behavior given from the fellow passenger behavior identification unit 110 and the driver consciousness level given from the driver consciousness level identification unit 160. Identify.
Note that if there is no passenger in the vehicle, the driver condition identifying unit 170 may identify the driver condition based on the driver's consciousness level.
For example, the driver state identification unit 170 identifies the driver states shown in the table shown in FIG. 5 . The identified driver state is provided to vehicle control unit 180.

図5は、運転者状態を特定するための運転者状態結果表の一例を示す概略図である。
図5に示されている運転者状態結果表152は、該当列152aと、JCS(Japan Coma Scale)列152bと、運転者状態列152cとを備える。
JCS列152bは、運転者状態を示すJCSで指定された意識レベル番号を格納する。
運転者状態列152cは、意識レベル番号に対応する運転者状態結果を格納する。
該当列152aは、運転者状態特定部170により判断された運転者状態に該当するか否かを格納する。
FIG. 5 is a schematic diagram showing an example of a driver condition result table for specifying the driver condition.
The driver condition result table 152 shown in FIG. 5 includes a corresponding column 152a, a JCS (Japan Coma Scale) column 152b, and a driver condition column 152c.
The JCS column 152b stores the consciousness level number designated by the JCS indicating the driver's condition.
The driver status column 152c stores driver status results corresponding to consciousness level numbers.
The applicable column 152a stores whether the driver condition corresponds to the driver condition determined by the driver condition identification unit 170.

ここでは、図3に示されている同乗者行動結果表で特定される一又は複数の同乗者行動と、図4に示されている運転者意識レベル結果表で特定される一又は複数の運転者意識レベルとの組み合わせに、図5で示されている運転者状態表で特定される何れかの運転者状態が対応付けられているものとする。
例えば、図3に示されている同乗者行動結果表において、同乗者行動が、P01、P03、P04、P05、P07、P09、P11、P12及びP15の内、二つ以上の項目に該当し、かつ、図4に示されている運転者意識レベル結果表において、運転者意識レベルが、D02、D03、D05、D06、D08、D09、D10、D11、D13、D14、D15及びD16の内、二つ以上の項目に該当する場合には、図5に示されているJCSの「300」に該当する。この場合、運転者状態特定部170は、運転者は意識がないと判断する。
Here, one or more passenger behaviors specified in the passenger behavior result table shown in FIG. 3 and one or more driving behaviors specified in the driver awareness level result table shown in FIG. It is assumed that one of the driver states specified in the driver state table shown in FIG. 5 is associated with the driver awareness level.
For example, in the passenger behavior result table shown in FIG. 3, the passenger behavior corresponds to two or more items among P01, P03, P04, P05, P07, P09, P11, P12, and P15, In addition, in the driver awareness level result table shown in FIG. If the item falls under one or more of the following items, it corresponds to "300" of the JCS shown in FIG. In this case, the driver state identification unit 170 determines that the driver is unconscious.

本実施の形態では、運転者状態としてJCSを採用しているが、本実施の形態はこのような例に限定されない。例えば、GCS(Glasgow Coma Scale)、その他の意識レベル指標が採用されてもよい。
即ち、運転者状態特定部170は、同乗者行動と、運転者意識レベルとの組み合わせから、図5に示されているような何れかの運転者状態を出力する。
In this embodiment, JCS is adopted as the driver state, but this embodiment is not limited to such an example. For example, GCS (Glasgow Coma Scale) and other consciousness level indicators may be employed.
That is, the driver state specifying unit 170 outputs one of the driver states shown in FIG. 5 based on the combination of the fellow passenger's behavior and the driver's consciousness level.

車両制御部180は、運転者状態特定部170から与えられる運転者状態に応じて、車両を制御する。ここでは、車両制御部180は、安全に車両を制御するものとする。
具体的には、車両制御部180は、運転者状態特定部170により特定された運転者状態が、運転者が車両を正常に運転できないことを示している場合に、車両を制御する。ここでは、車両制御部180は、車両を安全な場所に停車させる。
Vehicle control section 180 controls the vehicle according to the driver condition given from driver condition identification section 170. Here, it is assumed that the vehicle control unit 180 safely controls the vehicle.
Specifically, the vehicle control unit 180 controls the vehicle when the driver condition identified by the driver condition identifying unit 170 indicates that the driver cannot normally drive the vehicle. Here, the vehicle control unit 180 stops the vehicle at a safe location.

図6は、実施の形態1における車両制御部180の構成を概略的に示すブロック図である。
車両制御部180は、道路状況取得部181と、停止位置決定部182と、停止部183とを備える。
FIG. 6 is a block diagram schematically showing the configuration of vehicle control section 180 in the first embodiment.
The vehicle control section 180 includes a road condition acquisition section 181 , a stop position determination section 182 , and a stop section 183 .

道路状況取得部181は、道路の状況を示す道路状況を取得する。例えば、道路状況取得部181は、図示してはいないが、車両に備え付けられている前方カメラ、側方カメラ、ソナー、ミリ波レーダ又はLIDAR(Light Detection and Ranging)等から車両の周囲の道路状況を取得し、その道路状況を停止位置決定部182に与える。 The road condition acquisition unit 181 acquires road conditions indicating road conditions. For example, although not shown, the road condition acquisition unit 181 acquires the road condition around the vehicle from a front camera, side camera, sonar, millimeter wave radar, LIDAR (Light Detection and Ranging), etc. installed on the vehicle. is acquired, and the road condition is provided to the stop position determination unit 182.

停止位置決定部182は、道路状況取得部181から与えられる道路状況に応じて、車両を安全に停止させることができる停止位置を決定する。そして、停止位置決定部182は、決定された停止位置を示す停止位置情報を停止部183に与える。 The stop position determination unit 182 determines a stop position at which the vehicle can be safely stopped, depending on the road condition given from the road condition acquisition unit 181. Then, the stop position determination unit 182 provides stop position information indicating the determined stop position to the stop unit 183.

停止部183は、停止位置決定部182から与えられる停止位置情報で示される停止位置に車両を停止させる。 The stopping unit 183 stops the vehicle at the stopping position indicated by the stopping position information provided from the stopping position determining unit 182.

以上に記載された車両制御装置100の一部又は全部は、例えば、図7(A)に示されているように、メモリ10と、メモリ10に格納されているプログラムを実行するCPU(Central Processing Unit)等のプロセッサ11とにより構成することができる。このようなプログラムは、ネットワークを通じて提供されてもよく、また、記録媒体に記録されて提供されてもよい。即ち、このようなプログラムは、例えば、プログラムプロダクトとして提供されてもよい。このような場合、車両制御装置100は、例えば、コンピュータにより実現することができる。 Part or all of the vehicle control device 100 described above includes, for example, a memory 10 and a CPU (Central Processing) that executes programs stored in the memory 10, as shown in FIG. 7(A). It can be configured by a processor 11 such as a processor unit. Such a program may be provided through a network, or may be provided recorded on a recording medium. That is, such a program may be provided as a program product, for example. In such a case, vehicle control device 100 can be implemented by, for example, a computer.

また、車両制御装置100の一部又は全部は、例えば、図7(B)に示されているように、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)等の処理回路12で構成することもできる。
以上のように、車両制御装置100は、処理回路網により実現することができる。
In addition, part or all of the vehicle control device 100 may include, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, or an ASIC (Application Specific), as shown in FIG. 7(B). It can also be configured with a processing circuit 12 such as an integrated circuit (integrated circuit) or a field programmable gate array (FPGA).
As described above, the vehicle control device 100 can be realized by a processing circuit network.

図8は、実施の形態1における運転者意識レベル特定部160及び同乗者行動特定部110での特定結果から車両を制御する処理の一例を示すステートチャート図である。
まず、運転者が乗車した場合、同乗者行動特定部110の荷重解析部140は、荷重検出部121で検出された荷重の値に基づいて、同乗者が乗車したか判定する(S10)。
FIG. 8 is a state chart diagram illustrating an example of a process for controlling the vehicle based on the identification results of the driver consciousness level identification unit 160 and passenger behavior identification unit 110 in the first embodiment.
First, when the driver gets on the vehicle, the load analysis section 140 of the fellow passenger behavior identification section 110 determines whether a fellow passenger gets on the vehicle based on the value of the load detected by the load detection section 121 (S10).

また、運転者意識レベル特定部160は、運転者の行動を把握し、運転者意識レベルを特定して、特定された運転者意識レベルを運転者状態特定部170に与える(S11)。 Further, the driver consciousness level identification unit 160 grasps the behavior of the driver, identifies the driver consciousness level, and provides the identified driver consciousness level to the driver state identification unit 170 (S11).

ステップS12において、同乗者がいる場合には、同乗者行動特定部110は、同乗者の行動を把握して、同乗者行動を特定し、特定された同乗者行動を示す同乗者行動情報を運転者状態特定部170に与える(S13)。 In step S12, if there is a fellow passenger, the fellow passenger behavior identifying unit 110 grasps the fellow passenger's behavior, identifies the fellow passenger's behavior, and transmits the passenger behavior information indicating the identified fellow passenger's behavior to the driver. The information is given to the user state specifying unit 170 (S13).

なお、運転者が乗車したが、同乗者は乗車して無い場合、ステップS12にて同乗者がいない場合となり、同乗者行動特定部110は、何の処理も行わず、処理は、S11の後段のステップへと続く。ここで、同乗者行動特定部110での処理と、運転者意識レベル特定部160での処理とは同時に行われるものとする。 Note that if the driver gets in the car but no fellow passenger gets on board, it is determined in step S12 that there is no fellow passenger, and the fellow passenger behavior identifying unit 110 does not perform any processing, and the process is performed after S11. Continue to the next step. Here, it is assumed that the processing by the fellow passenger behavior identifying section 110 and the processing by the driver consciousness level identifying section 160 are performed simultaneously.

ステップS14において同乗者がいる場合、運転者状態特定部170は、運転者意識レベル特定部160から与えられる運転者意識レベルと、同乗者行動特定部110から与えられる同乗者行動とに従って、運転者状態を特定する(S15)。そして、運転者状態特定部170は、特定された運転者状態を示す運転者状態情報を車両制御部180に与える。 If there is a fellow passenger in step S14, the driver state specifying unit 170 determines whether the driver is in a state of The state is specified (S15). Then, driver condition identifying section 170 provides driver condition information indicating the identified driver condition to vehicle control section 180.

ステップS14において同乗者がいない場合、運転者状態特定部170は、運転者意識レベル特定部160から与えられる運転者意識レベルから運転者状態を特定する(S16)。そして、運転者状態特定部170は、特定された運転者状態を示す運転者状態情報を車両制御部180に与える。 If there is no passenger present in step S14, the driver state identification unit 170 identifies the driver state based on the driver awareness level given from the driver awareness level identification unit 160 (S16). Then, driver condition identifying section 170 provides driver condition information indicating the identified driver condition to vehicle control section 180.

そして、ステップS15又はステップS16の処理の後に、車両制御部180は運転者状態に応じて、車両を制御する(S17)。 After the processing in step S15 or step S16, the vehicle control unit 180 controls the vehicle according to the driver's condition (S17).

図9は、同乗者行動特定部110での処理の一例を示すステートチャート図である。
図9は、図8のステップS13での処理の詳細を示すものである。
FIG. 9 is a state chart diagram illustrating an example of processing in the fellow passenger behavior identifying unit 110.
FIG. 9 shows details of the process in step S13 in FIG.

まず、顔画像取得部123は、図示しない撮像部であるカメラで撮像された画像から、同乗者の顔画像を取得する(S20)。
次に、視線検出部124は、取得された顔画像から、同乗者の視線を検出し、検出された視線を示す視線データを生成して、その視線データを視線判定部125に与える(S21)。視線判定部125は、視線解析部141に視線データを与える。
First, the facial image acquisition unit 123 acquires a facial image of the passenger from an image captured by a camera, which is an image capturing unit (not shown) (S20).
Next, the line of sight detection unit 124 detects the line of sight of the fellow passenger from the acquired facial image, generates line of sight data indicating the detected line of sight, and provides the line of sight data to the line of sight determination unit 125 (S21). . The line of sight determination section 125 provides line of sight data to the line of sight analysis section 141 .

視線解析部141は、視線データを解析することで、同乗者が見ている方向を特定する(S22)。そして、視線解析部141は、特定された方向を示す視線情報を生成し、その視線情報を視線判定部125に与える。視線判定部125は、その視線情報を特定部146に与える。 The line of sight analysis unit 141 identifies the direction in which the fellow passenger is looking by analyzing the line of sight data (S22). Then, the line-of-sight analysis unit 141 generates line-of-sight information indicating the specified direction, and provides the line-of-sight information to the line-of-sight determination unit 125. The line-of-sight determining unit 125 provides the line-of-sight information to the identifying unit 146.

また、心拍数データに関する処理では、心拍数検出部126は、同乗者の心拍数を検出し、検出された心拍数を示す心拍数情報を心拍数判定部127に与える(S23)。心拍数判定部127は、その心拍数情報を特定部146に与える。 In addition, in the process related to heart rate data, the heart rate detection unit 126 detects the heart rate of the passenger and provides heart rate information indicating the detected heart rate to the heart rate determination unit 127 (S23). Heart rate determining section 127 provides the heart rate information to identifying section 146 .

また、発汗量データに関する処理では、発汗量検出部128は、同乗者の発汗量を検出し、検出された発汗量を示す発汗量情報を発汗量判定部129に与える(S24)。発汗量判定部129は、その発汗量情報を特定部146に与える。 In addition, in the process related to sweat amount data, the sweat amount detection section 128 detects the sweat amount of the fellow passenger, and provides sweat amount information indicating the detected sweat amount to the sweat amount determination section 129 (S24). The sweat amount determining section 129 provides the sweat amount information to the specifying section 146.

音声データに関する処理では、音声検出部130は、同乗者の音声を検出することで、検出された音声を示す音声データを生成する(S25)。音声検出部130は、生成された音声データを音声判定部131に与える。音声判定部131は、その音声データを言語解析部143に与える。 In the process related to voice data, the voice detection unit 130 detects the voice of the fellow passenger and generates voice data indicating the detected voice (S25). The voice detection section 130 provides the generated voice data to the voice determination section 131. The speech determination section 131 provides the speech data to the language analysis section 143.

言語解析部143は、音声データを解析することで、同乗者が発した音声の内容を特定する(S26)。具体的には、言語解析部143は、音声データで示される音声に対して形態素解析を行うことで、形態素に分割する。そして、言語解析部143は、分割された形態素を辞書参照部145に与える。
辞書参照部145は、辞書記憶部144に記憶されている辞書データを参照することで、言語解析部143から与えられる形態素毎の意味を特定し、その意味を言語解析部143に与える。
言語解析部143は、形態素毎の意味から、同乗者の発した音声の内容を特定し、特定した内容を示す音声情報を生成する。
そして、言語解析部143は、音声情報を音声判定部131に与え、音声判定部131は、その音声情報を特定部146に与える。
The language analysis unit 143 specifies the content of the voice uttered by the fellow passenger by analyzing the voice data (S26). Specifically, the language analysis unit 143 performs morphological analysis on the speech represented by the speech data, thereby dividing the speech into morphemes. The language analysis unit 143 then provides the divided morphemes to the dictionary reference unit 145.
The dictionary reference unit 145 specifies the meaning of each morpheme provided from the language analysis unit 143 by referring to the dictionary data stored in the dictionary storage unit 144, and provides the meaning to the language analysis unit 143.
The language analysis unit 143 identifies the content of the voice uttered by the fellow passenger based on the meaning of each morpheme, and generates audio information indicating the identified content.
The language analysis unit 143 then provides the audio information to the audio determination unit 131, and the audio determination unit 131 provides the audio information to the identification unit 146.

特定部146は、同乗者監視部120から与えられる情報に基づいて、同乗者の行動である同乗者行動を特定する(S27)。 The specifying unit 146 specifies fellow passenger behavior, which is the behavior of the fellow passenger, based on information provided from the fellow passenger monitoring unit 120 (S27).

図10は、実施の形態1における車両制御部180の処理の一例を示すステートチャート図である。
図10は、図8のステップS17での処理である。
FIG. 10 is a state chart diagram illustrating an example of processing by vehicle control unit 180 in the first embodiment.
FIG. 10 shows the process in step S17 in FIG.

まず、道路状況取得部181は、運転者状態特定部170から与えられる運転者状態情報で示される運転者状態が意識清明か否かを判断する(S30)。
そして、ステップS31において、運転者状態が意識清明である場合には、処理を終了し、運転者状態が意識清明ではない場合には、処理はステップS32に進む。
First, the road condition acquisition unit 181 determines whether the driver status indicated by the driver status information provided from the driver status identification unit 170 is clear (S30).
Then, in step S31, if the driver's state is clear, the process ends, and if the driver's state is not clear, the process advances to step S32.

次に、道路状況取得部181は、周囲の道路の状況を示す道路状況を取得する(S31)。道路状況取得部181は、取得された道路状況を停止位置決定部182に与える。 Next, the road condition acquisition unit 181 acquires road conditions indicating the conditions of surrounding roads (S31). The road condition acquisition section 181 provides the acquired road condition to the stop position determination section 182.

そして、停止位置決定部182は、与えられた道路状況から、安全に停止出来る位置を決定する(S33)。
最後に、停止部183は、安全に停止出来る位置に車両を停止させる(S34)。
Then, the stop position determining unit 182 determines a position where the vehicle can safely stop based on the given road conditions (S33).
Finally, the stopping unit 183 stops the vehicle at a position where it can be stopped safely (S34).

図11は、車両制御装置100が搭載された車両のコックピット101の内部の一例を示す概略図である。
コックピット101には、一つの集音器102と、一つの広角撮像器103とが設けられている。
FIG. 11 is a schematic diagram showing an example of the inside of a cockpit 101 of a vehicle in which the vehicle control device 100 is mounted.
The cockpit 101 is provided with one sound collector 102 and one wide-angle imager 103.

集音器102は、右側の運転席、左側の同乗者席としての助手席及び後ろの同乗者席からの音声を全て集音する集音装置である。集音器102で集音された音声の信号である音声信号は、音声検出部130に与えられる。音声検出部130は、音声信号の受信方向から誰が発声した音声であるかを特定できるものとする。これにより、音声検出部130は、車両の内部の音声から,同乗者の音声を特定することができる。 The sound collector 102 is a sound collecting device that collects all sounds from the driver's seat on the right side, the front passenger seat as a passenger seat on the left side, and the rear passenger seat. The audio signal, which is the audio signal collected by the sound collector 102, is provided to the audio detection unit 130. It is assumed that the voice detection unit 130 can identify who uttered the voice based on the receiving direction of the voice signal. Thereby, the voice detection unit 130 can identify the voice of the fellow passenger from the voice inside the vehicle.

広角撮像器103は、右側の運転席、左側の助手席及び後ろの同乗者席の映像を全て撮像することのできる撮像部としての撮像装置である。広角撮像器103で撮像された画像の画像データは、顔画像取得部123に与えられる。顔画像取得部123は、その画像データで示される画像から同乗者の顔を特定することができるものとする。 The wide-angle imager 103 is an imaging device that functions as an imaging unit that can capture images of the right driver's seat, the left front passenger seat, and the rear passenger seat. Image data of the image captured by the wide-angle imager 103 is provided to the face image acquisition unit 123. It is assumed that the face image acquisition unit 123 can identify the face of the fellow passenger from the image indicated by the image data.

本実施の形態では一つの集音器102及び一つの広角撮像器103からのデータに基づいて、誰かを判別できる構成にしているが、これは、集音器102及び広角撮像器103の数をそれぞれ一つとすることで、コスト削減を図るためである。コストを気にしないのであれば集音器及び撮像器の数をそれぞれ複数にしてもよい。 In this embodiment, the configuration is such that it is possible to identify someone based on data from one sound collector 102 and one wide-angle imager 103. This is to reduce costs by using one for each. If cost is not a concern, a plurality of sound collectors and a plurality of imagers may be provided.

以上のように、実施の形態1によれば、同乗者行動及び運転者意識レベルにより運転者状態を特定することができ、運転者が車両を正常に運転できない場合に、停止位置に車両を安全に停止させることができる。 As described above, according to Embodiment 1, the driver's condition can be identified based on passenger behavior and the driver's awareness level, and when the driver is unable to drive the vehicle normally, the vehicle can be safely brought to a stopped position. can be stopped.

実施の形態2.
図12は、実施の形態2に係る車両制御装置200の構成を概略的に示すブロック図である。
車両制御装置200は、同乗者行動特定部110と、運転者意識レベル特定部160と、運転者状態特定部270と、車両制御部280と、運転者状態記憶部290とを備える。
Embodiment 2.
FIG. 12 is a block diagram schematically showing the configuration of vehicle control device 200 according to the second embodiment.
The vehicle control device 200 includes a passenger behavior identifying section 110, a driver consciousness level identifying section 160, a driver state identifying section 270, a vehicle control section 280, and a driver state storage section 290.

実施の形態2に係る車両制御装置200の同乗者行動特定部110及び運転者意識レベル特定部160は、実施の形態1に係る車両制御装置100の同乗者行動特定部110及び運転者意識レベル特定部160と同様である。 Passenger behavior identifying section 110 and driver consciousness level identifying section 160 of vehicle control device 200 according to the second embodiment are identical to passenger behavior identifying section 110 and driver consciousness level identifying section 160 of vehicle control device 100 according to embodiment 1. This is similar to section 160.

運転者状態特定部270は、同乗者行動特定部110から与えられる同乗者行動と、運転者意識レベル特定部160から与えられる運転者意識レベルとの組み合わせから、運転者の状態である運転者状態を特定する。 The driver state identification unit 270 determines the driver state, which is the state of the driver, from the combination of the passenger behavior given from the fellow passenger behavior identification unit 110 and the driver consciousness level given from the driver consciousness level identification unit 160. Identify.

実施の形態2では、運転者状態記憶部290に記憶されているデータ量が予め定められた閾値よりも少なく、かつ、同乗者がいる場合には、運転者状態特定部270は、図5に示されている運転者状態結果表152で示される運転者状態を特定できるように、同乗者行動と、運転者意識レベルとの組み合わせに基づいて、運転者状態を特定する。そして、運転者状態特定部270は、特定された運転者状態を車両制御部280に与えるとともに、特定された運転者状態を、同乗者行動及び運転者意識レベルの組み合わせに関連付けて、運転者状態関連情報として運転者状態記憶部290に記憶させる。 In the second embodiment, when the amount of data stored in driver state storage section 290 is less than a predetermined threshold and there is a passenger, driver state identification section 270 performs the process shown in FIG. The driver condition is specified based on the combination of passenger behavior and driver consciousness level so that the driver condition shown in the displayed driver condition result table 152 can be specified. Then, the driver state identification unit 270 provides the identified driver state to the vehicle control unit 280, and associates the identified driver state with the combination of passenger behavior and driver consciousness level to determine the driver state. It is stored in the driver state storage unit 290 as related information.

また、運転者状態記憶部290に記憶されているデータ量が予め定められた閾値よりも少なく、かつ、同乗者がいない場合には、運転者状態特定部270は、図5に示されている運転者状態結果表152で示される運転者状態を特定できるように、運転者意識レベルに基づいて、運転者状態を特定する。そして、運転者状態特定部270は、特定された運転者状態を車両制御部280に与えるとともに、特定された運転者状態を、運転者意識レベルに関連付けて、運転者状態関連情報として運転者状態記憶部290に記憶させる。 Further, when the amount of data stored in the driver state storage unit 290 is less than a predetermined threshold and there is no passenger, the driver state identification unit 270 The driver condition is specified based on the driver's consciousness level so that the driver condition shown in the driver condition result table 152 can be specified. Then, the driver state identification unit 270 provides the identified driver state to the vehicle control unit 280, associates the identified driver state with the driver consciousness level, and sets the driver state as driver state related information. The information is stored in the storage unit 290.

一方、運転者状態記憶部290に記憶されているデータ量が予め定められた閾値以上であり、かつ、同乗者がいる場合には、運転者状態特定部270は、同乗者行動及び運転者意識レベルの組み合わせに関連付けられている運転者状態を、運転者状態記憶部290に記憶されている運転者状態関連情報から特定する。そして、運転者状態特定部270は、特定された運転者状態を車両制御部280に与える。 On the other hand, if the amount of data stored in the driver state storage unit 290 is greater than or equal to a predetermined threshold and there is a passenger, the driver state identification unit 270 determines the passenger behavior and driver consciousness. The driver condition associated with the combination of levels is specified from the driver condition related information stored in the driver condition storage section 290. Then, the driver state identification section 270 provides the identified driver state to the vehicle control section 280.

また、運転者状態記憶部290に記憶されているデータ量が予め定められた閾値以上であり、かつ、同乗者がいない場合には、運転者状態特定部270は、運転者意識レベルに関連付けられている運転者状態を、運転者状態記憶部290に記憶されている運転者状態関連情報から特定する。そして、運転者状態特定部270は、特定された運転者状態を車両制御部280に与える。 Further, if the amount of data stored in the driver state storage unit 290 is equal to or greater than a predetermined threshold and there is no passenger, the driver state identification unit 270 determines whether the data amount is associated with the driver consciousness level or not. The current driver state is specified from the driver state related information stored in the driver state storage unit 290. Then, the driver state identification section 270 provides the identified driver state to the vehicle control section 280.

運転者状態記憶部290は、運転者状態特定部270から与えられる運転者状態関連情報を記憶する。 The driver condition storage section 290 stores driver condition related information given from the driver condition identification section 270.

車両制御部280は、運転者状態特定部270から与えられる運転者状態に応じて、車両を制御する。
実施の形態2における車両制御部280は、運転者状態に応じて、救急病院等の近隣の目的地を自動的に設定し、設定された目的地まで、車両を自動走行させる。
なお、実施の形態2における車両制御部280は、実施の形態1における車両制御部180と同様に、運転者が車両を正常に運転できない場合に、車両を安全な場所に停車させてもよい。
Vehicle control section 280 controls the vehicle according to the driver condition given from driver condition identification section 270.
The vehicle control unit 280 in the second embodiment automatically sets a nearby destination, such as an emergency hospital, according to the driver's condition, and automatically drives the vehicle to the set destination.
Note that similarly to vehicle control unit 180 in Embodiment 1, vehicle control unit 280 in Embodiment 2 may stop the vehicle in a safe place when the driver is unable to drive the vehicle normally.

図13は、実施の形態2における車両制御部280の構成を概略的に示すブロック図である。
車両制御部280は、目的地自動設定部284と、ルート探索決定部285と、走行制御部286とを備える。
FIG. 13 is a block diagram schematically showing the configuration of vehicle control section 280 in the second embodiment.
The vehicle control unit 280 includes an automatic destination setting unit 284, a route search determining unit 285, and a travel control unit 286.

目的地自動設定部284は、車両に備え付けられているINS(Inertial Navigation System:慣性航法装置)、又は、GPS(Global Positioning System:全地球測位システム)受信機等から車両の位置を特定し、地図情報を参照することで、運転者状態に応じた目的地を設定する。例えば、目的地自動設定部284は、運転者状態が、図5に示されている「刺激しても覚醒しない状態」である場合に、車両の近隣の救急病院を探して、その救急病院を目的地として設定する。そして、目的地自動設定部284は、設定された目的地を示す目的地情報をルート探索決定部285に与える。なお、目的地自動設定部284には、目的地を設定すべき運転者状態毎に、設定すべき目的地の種別が予め定められているものとする。そして、目的地自動設定部284は、運転者状態に従って、目的地の種別を特定し、地図情報において、特定された種別の目的地の内、車両に最も近い目的地を選択すればよい。 The automatic destination setting unit 284 identifies the vehicle's position from an INS (Inertial Navigation System) or a GPS (Global Positioning System) receiver installed in the vehicle, and displays the location on a map. By referring to the information, a destination can be set according to the driver's condition. For example, when the driver's state is "not awakened even by stimulation" as shown in FIG. 5, the automatic destination setting unit 284 searches for an emergency hospital near the vehicle, Set as destination. Then, the automatic destination setting unit 284 provides destination information indicating the set destination to the route search determining unit 285. It is assumed that the automatic destination setting section 284 has predetermined the type of destination to be set for each driver state for which a destination is to be set. Then, the automatic destination setting unit 284 specifies the type of destination according to the driver state, and selects the destination closest to the vehicle from among the destinations of the specified type in the map information.

ルート探索決定部285は、目的地自動設定部284から与えられた目的地情報で示される目的地へ車両が走行すべきルートを検索し、そのルートを示すルート情報を生成する。そして、ルート探索決定部285は、そのルート情報を走行制御部286に与える。 The route search determining unit 285 searches for a route on which the vehicle should travel to the destination indicated by the destination information given from the automatic destination setting unit 284, and generates route information indicating the route. The route search determining unit 285 then provides the route information to the travel control unit 286.

走行制御部286は、ルート探索決定部285から与えられたルート情報に従って、車両を目的地まで走行させる。 The travel control section 286 causes the vehicle to travel to the destination according to the route information given from the route search determining section 285.

以上に記載された車両制御装置200の一部又は全部も、例えば、図7(A)に示されているように、メモリ10と、メモリ10に格納されているプログラムを実行するCPU等のプロセッサ11とにより構成することができる。
また、車両制御装置200の一部又は全部は、例えば、図7(B)に示されているように、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC又はFPGA等の処理回路12で構成することもできる。
以上のように、車両制御装置200は、処理回路網により実現することができる。
Part or all of the vehicle control device 200 described above also includes a memory 10 and a processor such as a CPU that executes a program stored in the memory 10, as shown in FIG. 7(A), for example. 11.
Further, a part or all of the vehicle control device 200 may be implemented using a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, etc., as shown in FIG. 7(B), for example. The processing circuit 12 can also be configured as follows.
As described above, the vehicle control device 200 can be realized by a processing circuit network.

図14は、実施の形態2における運転者意識レベル特定部160及び同乗者行動特定部110での特定結果から車両を制御する処理の一例を示すステートチャート図である。
図14に示されているステップの内、図8に示されているステップと同様の処理を行うステップについては、図8と同一の符号を付し、その詳細な説明を省略する。
FIG. 14 is a state chart diagram illustrating an example of a process for controlling the vehicle based on the identification results of the driver consciousness level identification unit 160 and passenger behavior identification unit 110 in the second embodiment.
Among the steps shown in FIG. 14, the steps that perform the same processing as the steps shown in FIG. 8 are given the same reference numerals as in FIG. 8, and detailed explanation thereof will be omitted.

図14のステップS10~S13までの処理は、図8のステップS10~S13までの処理と同様である。但し、図14のステップS11及びS13の後は、処理はステップS44に進む。 The processing from steps S10 to S13 in FIG. 14 is similar to the processing from steps S10 to S13 in FIG. 8. However, after steps S11 and S13 in FIG. 14, the process proceeds to step S44.

ステップS44では、運転者状態特定部270は、運転者状態記憶部290に記憶されているデータ量が十分であるか否かを判断する。そのデータ量が十分である場合には、処理はステップS45に進み、そのデータ量が十分ではない場合には、処理はステップS48に進む。 In step S44, driver condition identification section 270 determines whether the amount of data stored in driver condition storage section 290 is sufficient. If the amount of data is sufficient, the process proceeds to step S45, and if the amount of data is not sufficient, the process proceeds to step S48.

ステップS45では、運転者状態特定部270は、同乗者がいるか否かの判定を行う。ステップS45において同乗者がいる場合、運転者状態特定部270は、運転者意識レベル特定部160から与えられる運転者意識レベルと、同乗者行動特定部110から与えられる同乗者行動との組み合わせに関連付けられている運転者状態を、運転者状態記憶部290に記憶されている運転者状態関連情報から特定する(S46)。そして、運転者状態特定部270は、特定された運転者状態を示す運転者状態情報を車両制御部280に与える。 In step S45, the driver state identification unit 270 determines whether or not there is a fellow passenger. If there is a fellow passenger in step S45, the driver state identification unit 270 associates the driver state identification unit 270 with the combination of the driver awareness level given from the driver awareness level identification unit 160 and the fellow passenger behavior given from the fellow passenger behavior identification unit 110. The current driver state is specified from the driver state related information stored in the driver state storage unit 290 (S46). Then, driver condition identifying section 270 provides driver condition information indicating the identified driver condition to vehicle control section 280.

ステップS45において同乗者がいない場合、運転者状態特定部270は、運転者意識レベル特定部160から与えられる運転者意識レベルに関連付けられている運転者状態を、運転者状態記憶部290に記憶されている運転者状態関連情報から特定する(S47)。そして、運転者状態特定部270は、特定された運転者状態を示す運転者状態情報を車両制御部280に与える。 If there is no passenger present in step S45, the driver state identification unit 270 stores the driver state associated with the driver consciousness level given from the driver consciousness level identification unit 160 in the driver state storage unit 290. It is specified from the driver condition related information (S47). Then, driver condition identifying section 270 provides driver condition information indicating the identified driver condition to vehicle control section 280.

ステップS48では、運転者状態特定部270は、同乗者がいるか否かの判定を行う。ステップS48において同乗者がいる場合、運転者状態特定部270は、運転者意識レベル特定部160から与えられる運転者意識レベルと、同乗者行動特定部110から与えられる同乗者行動とに従って、運転者状態を特定する(S49)。ここでは、運転者状態特定部270は、図5に示されている運転者状態結果表152で示される運転者状態を特定する。そして、運転者状態特定部270は、特定された運転者状態を示す運転者状態情報を車両制御部280に与える。 In step S48, the driver state identification unit 270 determines whether or not there is a fellow passenger. If there is a fellow passenger in step S48, the driver state specifying unit 270 determines whether the driver The state is specified (S49). Here, the driver state identification unit 270 identifies the driver state shown in the driver state result table 152 shown in FIG. Then, driver condition identifying section 270 provides driver condition information indicating the identified driver condition to vehicle control section 280.

次に、運転者状態特定部270は、運転者意識レベル特定部160から与えられる運転者意識レベルと、同乗者行動特定部110から与えられる同乗者行動とを、ステップS48で特定された運転者状態と対応付けた運転者状態関連情報を生成し、その運転者状態関連情報を運転者状態記憶部290に記憶させる(S50)。 Next, the driver state identification unit 270 converts the driver awareness level given from the driver awareness level identification unit 160 and the fellow passenger behavior given from the fellow passenger behavior identification unit 110 to the driver state identified in step S48. The driver state related information associated with the state is generated, and the driver state related information is stored in the driver state storage unit 290 (S50).

ステップS48において同乗者がいない場合、運転者状態特定部170は、運転者意識レベル特定部160から与えられる運転者意識レベルから運転者状態を特定する(S51)。ここでは、運転者状態特定部270は、図5に示されている運転者状態結果表152で示される運転者状態を特定する。そして、運転者状態特定部270は、特定された運転者状態を示す運転者状態情報を車両制御部280に与える。 If there is no fellow passenger in step S48, the driver state identification unit 170 identifies the driver state based on the driver awareness level given from the driver awareness level identification unit 160 (S51). Here, the driver state identification unit 270 identifies the driver state shown in the driver state result table 152 shown in FIG. Then, driver condition identifying section 270 provides driver condition information indicating the identified driver condition to vehicle control section 280.

次に、運転者状態特定部270は、運転者意識レベル特定部160から与えられる運転者意識レベルを、ステップS51で特定された運転者状態と対応付けた運転者状態関連情報を生成し、その運転者状態関連情報を運転者状態記憶部290に記憶させる(S52)。 Next, the driver condition specifying unit 270 generates driver condition related information that associates the driver consciousness level given from the driver consciousness level specifying unit 160 with the driver condition specified in step S51. The driver condition related information is stored in the driver condition storage section 290 (S52).

そして、ステップS46、ステップS47、ステップS50又はステップS52の処理の後に、車両制御部280は、運転者状態に応じて、車両を制御する(S53)。 After the processing in step S46, step S47, step S50, or step S52, the vehicle control unit 280 controls the vehicle according to the driver state (S53).

図15は、実施の形態2における車両制御部280の処理の一例を示すステートチャート図である。
図15は、図14のステップS53での処理である。
FIG. 15 is a state chart diagram illustrating an example of processing by vehicle control unit 280 in the second embodiment.
FIG. 15 shows the process at step S53 in FIG.

まず、目的地自動設定部284は、運転者状態に応じて、近くの救急病院等を目的地に設定する(S60)。 First, the automatic destination setting unit 284 sets a nearby emergency hospital or the like as the destination according to the driver's condition (S60).

そして、ルート探索決定部285は、設定された目的地へのルートを探索して、そのルートを決定する(S61)。
最後に走行制御部286は、決定されたルートに従い、車両を目的地まで安全に自動走行させる(S62)。
Then, the route search determining unit 285 searches for a route to the set destination and determines the route (S61).
Finally, the travel control unit 286 causes the vehicle to safely and automatically travel to the destination according to the determined route (S62).

以上のように、実施の形態2によれば、同乗者行動及び運転者意識レベルにより運転者状態を特定することができ、運転者状態に応じて自動的に目的地を設定し、その目的地にまで車両を自動走行させることができる。
なお、実施の形態2は、記憶された運転者状態関連情報のデータ量が予め定められた閾値以上となった場合に、運転者状態を特定する方法を、運転者状態関連情報から、特定された運転者意識レベル及び特定された同乗者行動の組み合わせに関連付けられている運転者状態を特定する方法に切り替えることで、処理の負荷を軽減することができる。
As described above, according to the second embodiment, it is possible to identify the driver's condition based on passenger behavior and the driver's awareness level, automatically set the destination according to the driver's condition, and Vehicles can be driven automatically up to the point in time.
Embodiment 2 describes a method for identifying the driver's condition from the driver's condition-related information when the data amount of the stored driver's condition-related information exceeds a predetermined threshold. By switching to a method of identifying the driver state associated with the combination of the driver consciousness level and the identified passenger behavior, the processing load can be reduced.

なお、実施の形態は、上記の実施の形態1又は2に限定されるものではなく、上記の要旨を逸脱しない範囲内において種々の態様で実施することができる。 Note that the embodiment is not limited to the first or second embodiment described above, and can be implemented in various ways within the scope of the above gist.

100,200 車両制御装置、 110 同乗者行動特定部、 111 荷重特定部、 112 視線特定部、 113 心拍数特定部、 114 発汗量特定部、 115 音声特定部、 120 同乗者監視部、 121 荷重検出部、 122 荷重判定部、 123 顔画像取得部、 124 視線検出部、 125 視線判定部、 126 心拍数検出部、 127 心拍数判定部、 128 発汗量検出部、 129 発汗量判定部、 130 音声検出部、 131 音声判定部、 140 荷重解析部、 141 視線解析部、 142 音声解析部、 143 言語解析部、 144 辞書記憶部、 145 辞書参照部、 146 特定部、 160 運転者意識レベル特定部、 170,270 運転者状態特定部、 180,280 車両制御部、 181 道路状況取得部、 182 停止位置決定部、 183 停止部、 284 目的地自動設定部、 285 ルート探索決定部、 286 走行制御部、 290 運転者状態記憶部。 100,200 vehicle control device, 110 passenger behavior identification unit, 111 load identification unit, 112 line of sight identification unit, 113 heart rate identification unit, 114 perspiration amount identification unit, 115 voice identification unit, 120 fellow passenger monitoring unit, 121 load detection 122 load determination unit, 123 face image acquisition unit, 124 line of sight detection unit, 125 line of sight determination unit, 126 heart rate detection unit, 127 heart rate determination unit, 128 sweat amount detection unit, 129 sweat amount determination unit, 130 voice detection 131 Voice determination unit, 140 Load analysis unit, 141 Line of sight analysis unit, 142 Voice analysis unit, 143 Language analysis unit, 144 Dictionary storage unit, 145 Dictionary reference unit, 146 Identification unit, 160 Driver consciousness level identification unit, 170 , 270 driver condition identification unit, 180, 280 vehicle control unit, 181 road condition acquisition unit, 182 stop position determination unit, 183 stop unit, 284 automatic destination setting unit, 285 route search determination unit, 286 travel control unit, 290 Driver status memory unit.

Claims (13)

車両の運転者の意識のレベルである運転者意識レベルを特定する運転者意識レベル特定部と、
前記車両における前記運転者以外の同乗者の行動である同乗者行動を特定する同乗者行動特定部と、
前記運転者意識レベル及び前記同乗者行動の組み合わせから、前記運転者の状態である運転者状態を特定する運転者状態特定部と、
前記運転者状態に応じて、前記車両を制御する車両制御部と、を備えること
を特徴とする車両制御装置。
a driver consciousness level identification unit that identifies a driver consciousness level that is a level of consciousness of the driver of the vehicle;
a passenger behavior identification unit that identifies a passenger behavior that is the behavior of a fellow passenger other than the driver in the vehicle;
a driver state identification unit that identifies a driver state that is a state of the driver from a combination of the driver consciousness level and the passenger behavior;
A vehicle control device comprising: a vehicle control unit that controls the vehicle according to the driver state.
車両の運転者の意識のレベルである運転者意識レベル及び前記車両における前記運転者以外の同乗者の行動である同乗者行動の組み合わせと、前記運転者の状態である運転者状態とを関連付ける運転者状態関連情報を記憶する運転者状態記憶部と、
前記運転者から前記運転者意識レベルを特定する運転者意識レベル特定部と、
前記同乗者から前記同乗者行動を特定する同乗者行動特定部と、
前記運転者状態記憶部に記憶されているデータ量が予め定められた閾値よりも少ない場合に、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の組み合わせから、前記運転者状態を特定するとともに、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の前記組み合わせと、前記特定された同乗者行動と、を関連付けて、前記運転者状態関連情報として、前記運転者状態記憶部に記憶させ、前記運転者状態記憶部に記憶されているデータ量が予め定められた閾値以上である場合に、前記運転者状態関連情報から、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の組み合わせに関連付けられている前記運転者状態を特定する運転者状態特定部と、
前記運転者状態特定部により特定された前記運転者状態に応じて、前記車両を制御する車両制御部と、を備えること
を特徴とする車両制御装置。
Driving in which a combination of a driver consciousness level, which is the level of consciousness of the driver of a vehicle, and passenger behavior, which is the behavior of a passenger other than the driver in the vehicle, and a driver state, which is the state of the driver. a driver status storage unit that stores driver status related information;
a driver consciousness level identification unit that identifies the driver consciousness level from the driver;
a fellow passenger behavior identification unit that identifies the fellow passenger behavior from the fellow passenger;
When the amount of data stored in the driver state storage unit is less than a predetermined threshold, the driver consciousness level specified by the driver consciousness level identification unit and the passenger behavior identification unit The driver condition is specified from the combination of the passenger behavior determined, and the driver consciousness level specified by the driver consciousness level identification unit and the fellow passenger behavior specified by the passenger behavior identification unit are identified. and the identified passenger behavior are stored in the driver state storage unit as the driver state related information, and the amount of data stored in the driver state storage unit is If the level is equal to or higher than a predetermined threshold, the driver consciousness level specified by the driver consciousness level specifying unit and the fellow passenger behavior specified by the fellow passenger behavior specifying unit from the driver condition related information. a driver state identifying unit that identifies the driver state associated with the combination;
A vehicle control device comprising: a vehicle control unit that controls the vehicle according to the driver condition specified by the driver condition identification unit.
前記同乗者行動は、前記同乗者が前記運転者を観察することで前記同乗者が行う行動であること
を特徴とする請求項1又は2記載の車両制御装置。
The vehicle control device according to claim 1 or 2, wherein the fellow passenger behavior is an action performed by the fellow passenger when the fellow passenger observes the driver.
前記同乗者行動特定部は、
前記同乗者の座席における荷重の方向及び大きさを特定する荷重特定部、前記同乗者の視線の方向を特定する視線特定部、前記同乗者の生体に関する物理量を特定する物理量特定部、及び、前記同乗者が発した音声の内容を特定する音声特定部、の少なくとも何れか一つと、
前記荷重特定部、前記視線特定部、前記物理量特定部及び前記音声特定部の前記少なくとも何れか一つで特定された結果から、前記同乗者行動を特定する特定部と、を備えること
を特徴とする請求項1から3の何れか一項に記載の車両制御装置。
The passenger behavior identification unit includes:
a load identifying unit that identifies the direction and magnitude of the load on the seat of the fellow passenger; a line of sight identifying unit that identifies the direction of the passenger's line of sight; a physical quantity identifying unit that identifies a physical quantity related to the living body of the fellow passenger; At least one of a voice identifying section that identifies the content of the voice uttered by a fellow passenger;
and a specifying section that specifies the fellow passenger's behavior from the result specified by at least one of the load specifying section, the line of sight specifying section, the physical quantity specifying section, and the sound specifying section. The vehicle control device according to any one of claims 1 to 3.
前記視線特定部は、一つの撮像装置により撮像された、前記車両の内部の画像から、前記同乗者の顔を特定し、前記特定された顔から前記同乗者の視線の方向を特定すること
を特徴とする請求項4に記載の車両制御装置。
The line of sight identifying unit specifies the face of the passenger from an image of the interior of the vehicle captured by one imaging device, and specifies the direction of the passenger's line of sight from the identified face. The vehicle control device according to claim 4.
前記音声特定部は、一つの集音装置により取得された、前記車両の内部の音声から、前記同乗者の音声を特定し、前記特定された音声から前記内容を特定すること
を特徴とする請求項4に記載の車両制御装置。
A claim characterized in that the voice identifying unit identifies the voice of the passenger from the voice inside the vehicle acquired by one sound collection device, and identifies the content from the identified voice. Item 4. Vehicle control device according to item 4.
前記車両制御部は、前記運転者状態特定部により特定された前記運転者状態が、前記運転者が前記車両を正常に運転できないことを示している場合に、前記車両を制御すること
を特徴とする請求項1から6の何れか一項に記載の車両制御装置。
The vehicle control unit controls the vehicle when the driver condition specified by the driver condition identification unit indicates that the driver cannot normally drive the vehicle. The vehicle control device according to any one of claims 1 to 6.
前記車両制御部は、
前記車両が走行する道路の状況である道路状況を取得する道路状況取得部と、
前記道路状況に応じて、前記車両を安全に停止させることができる停止位置を決定する停止位置決定部と、
前記車両を前記停止位置に停止させる停止部と、を備えること
を特徴とする請求項1から7の何れか一項に記載の車両制御装置。
The vehicle control unit includes:
a road condition acquisition unit that acquires a road condition that is a condition of a road on which the vehicle travels;
a stop position determination unit that determines a stop position where the vehicle can be safely stopped according to the road condition;
The vehicle control device according to any one of claims 1 to 7, further comprising: a stop unit that stops the vehicle at the stop position.
前記車両制御部は、
前記運転者状態特定部により特定された前記運転者状態に応じて、目的地を設定する目的地自動設定部と、
前記目的地へのルートを決定するルート探索決定部と、
前記ルートで、前記車両を走行させる走行制御部と、を備えること
を特徴とする請求項1から6の何れか一項に記載の車両制御装置。
The vehicle control unit includes:
an automatic destination setting unit that sets a destination according to the driver status specified by the driver status identification unit;
a route search determining unit that determines a route to the destination;
The vehicle control device according to any one of claims 1 to 6, further comprising: a travel control unit that causes the vehicle to travel on the route.
コンピュータを、
車両の運転者の意識のレベルである運転者意識レベルを特定する運転者意識レベル特定部、
前記車両における前記運転者以外の同乗者の行動である同乗者行動を特定する同乗者行動特定部、
前記運転者意識レベル及び前記同乗者行動の組み合わせから、前記運転者の状態である運転者状態を特定する運転者状態特定部、及び、
前記運転者状態に応じて、前記車両を制御する車両制御部、として機能させること
を特徴とするプログラム。
computer,
a driver consciousness level identification unit that identifies a driver consciousness level that is the level of consciousness of the driver of the vehicle;
a passenger behavior identification unit that identifies passenger behavior that is the behavior of a fellow passenger other than the driver in the vehicle;
a driver state identifying unit that identifies a driver state that is a state of the driver from a combination of the driver consciousness level and the passenger behavior;
A program that functions as a vehicle control unit that controls the vehicle according to the driver state.
コンピュータを、
車両の運転者の意識のレベルである運転者意識レベル及び前記車両における前記運転者以外の同乗者の行動である同乗者行動の組み合わせと、前記運転者の状態である運転者状態とを関連付ける運転者状態関連情報を記憶する運転者状態記憶部、
前記運転者から前記運転者意識レベルを特定する運転者意識レベル特定部、
前記同乗者から前記同乗者行動を特定する同乗者行動特定部、
前記運転者状態記憶部に記憶されているデータ量が予め定められた閾値よりも少ない場合に、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の組み合わせから、前記運転者状態を特定するとともに、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の前記組み合わせと、前記特定された同乗者行動と、を関連付けて、前記運転者状態関連情報として、前記運転者状態記憶部に記憶させ、前記運転者状態記憶部に記憶されているデータ量が予め定められた閾値以上である場合に、前記運転者状態関連情報から、前記運転者意識レベル特定部により特定された前記運転者意識レベル及び前記同乗者行動特定部により特定された前記同乗者行動の組み合わせに関連付けられている前記運転者状態を特定する運転者状態特定部、及び、
前記運転者状態特定部により特定された前記運転者状態に応じて、前記車両を制御する車両制御部、として機能させること
を特徴とするプログラム。
computer,
Driving in which a combination of a driver consciousness level, which is the level of consciousness of the driver of a vehicle, and passenger behavior, which is the behavior of a passenger other than the driver in the vehicle, and a driver state, which is the state of the driver. a driver status storage unit that stores driver status related information;
a driver consciousness level identification unit that identifies the driver consciousness level from the driver;
a fellow passenger behavior identification unit that identifies the fellow passenger behavior from the fellow passenger;
When the amount of data stored in the driver state storage unit is less than a predetermined threshold, the driver consciousness level specified by the driver consciousness level identification unit and the passenger behavior identification unit The driver condition is specified from the combination of the passenger behavior determined, and the driver consciousness level specified by the driver consciousness level identification unit and the fellow passenger behavior specified by the passenger behavior identification unit are identified. and the identified passenger behavior are stored in the driver state storage unit as the driver state related information, and the amount of data stored in the driver state storage unit is If the level is equal to or higher than a predetermined threshold, the driver consciousness level specified by the driver consciousness level specifying unit and the fellow passenger behavior specified by the fellow passenger behavior specifying unit from the driver condition related information. a driver state identifying unit that identifies the driver state associated with the combination;
A program that functions as a vehicle control section that controls the vehicle according to the driver state specified by the driver state identification section.
コンピュータが、
車両の運転者の意識のレベルである運転者意識レベルを特定し、
前記車両における前記運転者以外の同乗者の行動である同乗者行動を特定し、
前記運転者意識レベル及び前記同乗者行動の組み合わせから、前記運転者の状態である運転者状態を特定し、
前記運転者状態に応じて、前記車両を制御すること
を特徴とする車両制御方法。
The computer is
Identify the driver consciousness level, which is the level of consciousness of the driver of the vehicle,
Identifying passenger behavior that is the behavior of a passenger other than the driver in the vehicle;
Identifying a driver state that is a state of the driver from a combination of the driver consciousness level and the passenger behavior,
A vehicle control method, comprising: controlling the vehicle according to the driver state.
コンピュータが、
車両の運転者の意識のレベルである運転者意識レベルを特定し、
前記車両における前記運転者以外の同乗者の行動である同乗者行動を特定し、
前記特定された運転者意識レベル及び前記特定された同乗者行動の組み合わせから、前記運転者の状態である運転者状態を特定し、
前記特定された運転者意識レベル及び前記特定された同乗者行動の組み合わせと、前記特定された運転者状態とを関連付ける運転者状態関連情報を記憶する車両制御方法であって、
前記コンピュータは、前記記憶された運転者状態関連情報のデータ量が予め定められた閾値以上となった場合に、前記運転者状態を特定する方法を、前記特定された運転者意識レベル及び前記特定された同乗者行動の組み合わせに関連付けられている前記運転者状態を特定する方法に切り替えること
を特徴とする車両制御方法。
The computer is
Identify the driver consciousness level, which is the level of consciousness of the driver of the vehicle,
Identifying passenger behavior that is the behavior of a passenger other than the driver in the vehicle;
Identifying a driver condition that is a condition of the driver from a combination of the identified driver consciousness level and the identified passenger behavior,
A vehicle control method that stores driver condition related information that associates a combination of the specified driver consciousness level and the specified passenger behavior with the specified driver condition, the method comprising:
The computer determines a method for specifying the driver condition when the amount of data of the stored driver condition related information exceeds a predetermined threshold. A method for controlling a vehicle, comprising: switching to a method for specifying the driver state associated with a combination of passenger actions that have been performed.
JP2022538492A 2020-07-20 2020-07-20 Vehicle control device, program and vehicle control method Active JP7361929B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/027990 WO2022018781A1 (en) 2020-07-20 2020-07-20 Vehicle control device, program, and vehicle control method

Publications (2)

Publication Number Publication Date
JPWO2022018781A1 JPWO2022018781A1 (en) 2022-01-27
JP7361929B2 true JP7361929B2 (en) 2023-10-16

Family

ID=79728564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022538492A Active JP7361929B2 (en) 2020-07-20 2020-07-20 Vehicle control device, program and vehicle control method

Country Status (2)

Country Link
JP (1) JP7361929B2 (en)
WO (1) WO2022018781A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005323691A (en) 2004-05-12 2005-11-24 Toyota Motor Corp Condition display device and condition display method
JP2014019301A (en) 2012-07-18 2014-02-03 Toyota Motor Corp Emergency evacuation device
JP2017136922A (en) 2016-02-02 2017-08-10 富士通テン株式会社 Vehicle control device, on-vehicle device controller, map information generation device, vehicle control method, and on-vehicle device control method
JP2017138762A (en) 2016-02-03 2017-08-10 トヨタ自動車株式会社 Driver's emotion estimation device
JP2018151693A (en) 2017-03-09 2018-09-27 株式会社デンソーテン Drive supporting device and drive supporting method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005323691A (en) 2004-05-12 2005-11-24 Toyota Motor Corp Condition display device and condition display method
JP2014019301A (en) 2012-07-18 2014-02-03 Toyota Motor Corp Emergency evacuation device
JP2017136922A (en) 2016-02-02 2017-08-10 富士通テン株式会社 Vehicle control device, on-vehicle device controller, map information generation device, vehicle control method, and on-vehicle device control method
JP2017138762A (en) 2016-02-03 2017-08-10 トヨタ自動車株式会社 Driver's emotion estimation device
JP2018151693A (en) 2017-03-09 2018-09-27 株式会社デンソーテン Drive supporting device and drive supporting method

Also Published As

Publication number Publication date
WO2022018781A1 (en) 2022-01-27
JPWO2022018781A1 (en) 2022-01-27

Similar Documents

Publication Publication Date Title
US9776644B2 (en) On-vehicle situation detection apparatus and method
CN105136156B (en) Adaptive navigation based on user behavior pattern and location based service
JP6486640B2 (en) Driving characteristic diagnostic device, driving characteristic diagnostic system, driving characteristic diagnostic method, information output device, information output method
EP2806335A1 (en) Vehicle human machine interface with gaze direction and voice recognition
US11027746B2 (en) Drive mode switching control device, method and program
JP2008082822A (en) Watching object detector and watching object detection method
JP4807625B2 (en) Information provision device
JP6218618B2 (en) Driving support device, driving support method, and driving support program
CN106251870A (en) The method identifying the linguistic context of Voice command, the method obtaining the audio controls of Voice command and the equipment of enforcement the method
CN109843690B (en) Driving mode switching control device, system and method
JP4556586B2 (en) Driving assistance device
US20240000354A1 (en) Driving characteristic determination device, driving characteristic determination method, and recording medium
JP5513353B2 (en) Alarm device
US20210291837A1 (en) Concentration degree determination device, concentration degree determination method, and program for determining concentration degree
KR101563639B1 (en) Alarming device for vehicle and method for warning driver of vehicles
JP7361929B2 (en) Vehicle control device, program and vehicle control method
JP6468306B2 (en) Visual assistance device, method and program
JP6627810B2 (en) Operation mode switching control device, method and program
JP2009223187A (en) Display content controller, display content control method and display content control method program
JP2004064409A (en) Information recording device, information recording method, and information recording program
JP6833322B2 (en) Search device, search method, search program and recording medium, and navigation device
KR101666343B1 (en) System for processing integrated data of the ultra sonic sensors and camera on vehicle
CN114701503A (en) Method, device and equipment for adjusting driving behavior of vehicle driver and storage medium
CN113492864A (en) Driving support device and data collection system
JP2010262424A (en) Onboard camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R150 Certificate of patent or registration of utility model

Ref document number: 7361929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150