JP7483160B2 - Occupant monitoring device and occupant monitoring method - Google Patents

Occupant monitoring device and occupant monitoring method Download PDF

Info

Publication number
JP7483160B2
JP7483160B2 JP2023566026A JP2023566026A JP7483160B2 JP 7483160 B2 JP7483160 B2 JP 7483160B2 JP 2023566026 A JP2023566026 A JP 2023566026A JP 2023566026 A JP2023566026 A JP 2023566026A JP 7483160 B2 JP7483160 B2 JP 7483160B2
Authority
JP
Japan
Prior art keywords
task
unit
driver
judgment
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023566026A
Other languages
Japanese (ja)
Other versions
JPWO2023105751A1 (en
Inventor
季美果 池上
太郎 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2023105751A1 publication Critical patent/JPWO2023105751A1/ja
Application granted granted Critical
Publication of JP7483160B2 publication Critical patent/JP7483160B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、乗員監視装置及び乗員監視方法に関する。 The present disclosure relates to an occupant monitoring device and an occupant monitoring method.

車両を運転する運転者が少なくとも一方の手をハンドルから離した状態で、運転中に行う運転以外の行為をセカンドタスクという。運転者がセカンドタスクを実施している場合、運転への集中力が低下し、また両手でハンドルを把持していないためとっさの対応ができない虞がある。そのため、セカンドタスクを検出し警告することが検討されている。
例えば特許文献1では、セカンドタスクである喫煙を検出する喫煙検出装置が開示されている。特許文献1の喫煙検出装置は、車両の内部に設けられた撮像部により運転者の顔を撮像し、撮像画像を用いて運転者の顔向きを判定するとともに、顔向きに応じて煙草燃焼部の存在判別領域を設定する。そして、特許文献1の喫煙検出装置は、存在判別領域に煙草燃焼部の候補領域である高温領域を探索することにより、運転者の喫煙を検出する。
A second task is an action other than driving that a driver takes with at least one hand off the steering wheel. When a driver is performing a second task, there is a risk that the driver will not be able to concentrate on driving and will not be able to respond quickly because both hands are not holding the steering wheel. Therefore, a system is being considered to detect and warn when a second task is occurring.
For example, Patent Document 1 discloses a smoking detection device that detects smoking, which is the second task. The smoking detection device of Patent Document 1 captures the face of the driver with an imaging unit provided inside the vehicle, determines the facial orientation of the driver using the captured image, and sets a presence determination region of a cigarette burning part according to the facial orientation. The smoking detection device of Patent Document 1 detects the driver's smoking by searching for a high-temperature region that is a candidate region of the cigarette burning part in the presence determination region.

特開2009-23400号公報JP 2009-23400 A

しかしながら、特許文献1の喫煙検出装置では、運転者が煙草を口にくわえていない場合にも、誤って運転者の喫煙を検出する虞がある。具体的には、運転者が煙草を手に持ちつつ、両手でハンドルを把持している場合である。この場合、実際には運転者の顔と煙草の位置は離れているが、撮像画像上では、運転者の顔と煙草の位置が近く検出されるため、誤って運転者の喫煙が検出される。そのため、特許文献1の喫煙検出装置では、セカンドタスクの検出精度が不十分であるという課題があった。However, the smoking detection device of Patent Document 1 may mistakenly detect the driver's smoking even when the driver does not have a cigarette in his/her mouth. Specifically, this is the case when the driver holds the steering wheel with both hands while holding a cigarette in his/her hand. In this case, the driver's face and the cigarette are actually far apart, but in the captured image, the driver's face and the cigarette are detected as being close to each other, and the driver's smoking is mistakenly detected. Therefore, the smoking detection device of Patent Document 1 has an issue in that the detection accuracy of the second task is insufficient.

本開示は、上述した課題を解決するためになされたものであり、セカンドタスクの判定を高精度に行うことができる乗員監視装置及び乗員監視方法を提供することを目的とするものである。 The present disclosure has been made to solve the above-mentioned problems, and aims to provide an occupant monitoring device and an occupant monitoring method that can determine the second task with high accuracy.

本開示に係る乗員監視装置は、車両の運転者を撮像する撮像部から撮像画像を取得する画像取得部と、撮像画像を用いて、運転者が運転中に行う運転以外の行為であるセカンドタスクが実施されているか否かを判定する第1のセカンドタスク判定部と、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する把持状態判定部と、第1のセカンドタスク判定部の判定結果及び把持状態判定部の判定結果に基づき、セカンドタスクが実施されているか否かを判定する第2のセカンドタスク判定部と、を備えたものである。The occupant monitoring device of the present disclosure includes an image acquisition unit that acquires an image from an imaging unit that images the driver of the vehicle, a first second task determination unit that uses the image to determine whether a second task, which is an action other than driving that the driver performs while driving, is being performed, a gripping state determination unit that determines a gripping state indicating whether the driver is gripping the steering wheel with both hands, and a second second task determination unit that determines whether a second task is being performed based on the determination result of the first second task determination unit and the determination result of the gripping state determination unit.

本開示に係る乗員監視方法は、車両の運転者を撮像する撮像部から撮像画像を取得するステップと、撮像画像を用いて、運転者が運転中に行う運転以外の行為であるセカンドタスクが実施されているか否かを判定するステップと、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定するステップと、セカンドタスクが実施されているか否かの判定結果及び把持状態の判定結果に基づき、セカンドタスクが実施されているか否かを判定するステップと、を備えたものである。The occupant monitoring method according to the present disclosure includes the steps of acquiring an image from an imaging unit that images the driver of the vehicle, using the image to determine whether or not a second task, which is an action other than driving that the driver performs while driving, is being performed, determining a gripping state indicating whether or not the driver is holding the steering wheel with both hands, and determining whether or not the second task is being performed based on the determination result of whether or not the second task is being performed and the determination result of the gripping state.

本開示によれば、第1のセカンドタスク判定部の判定結果及び把持状態判定部の判定結果に基づき、セカンドタスクが実施されているか否かを判定するため、セカンドタスクの判定を高精度に行うことができる。 According to the present disclosure, whether or not a second task is being performed is determined based on the judgment result of the first second task judgment unit and the judgment result of the gripping state judgment unit, thereby making it possible to judge the second task with high accuracy.

図1は実施の形態1の乗員監視装置を備えた車両の一部を示すブロック図である。FIG. 1 is a block diagram showing a part of a vehicle equipped with an occupant monitoring device according to a first embodiment of the present invention. 図2は実施の形態1の乗員監視装置のハードウェア構成例を示す概略図である。FIG. 2 is a schematic diagram showing an example of a hardware configuration of the occupant monitoring device according to the first embodiment. 図3は実施の形態1の乗員監視装置の処理動作を示すフローチャートである。FIG. 3 is a flowchart showing the processing operation of the passenger monitoring device according to the first embodiment. 図4は実施の形態2の乗員監視装置の処理動作を示すフローチャートである。FIG. 4 is a flow chart showing the processing operation of the passenger monitoring device according to the second embodiment. 図5は実施の形態3の乗員監視装置の処理動作を示すフローチャートである。FIG. 5 is a flow chart showing the processing operation of the passenger monitoring device according to the third embodiment. 図6は実施の形態4の乗員監視装置を備えた車両の一部を示すブロック図である。FIG. 6 is a block diagram showing a part of a vehicle equipped with an occupant monitoring device according to a fourth embodiment of the present invention. 図7は実施の形態5の乗員監視装置を備えた車両の一部を示すブロック図である。FIG. 7 is a block diagram showing a part of a vehicle equipped with an occupant monitoring device according to a fifth embodiment of the present invention. 図8は実施の形態5の乗員監視装置の処理動作を示すフローチャートである。FIG. 8 is a flow chart showing the processing operation of the passenger monitoring device according to the fifth embodiment.

実施の形態1.
実施の形態1における乗員監視装置20について図1を用いて説明する。図1は、実施の形態1の乗員監視装置20を備えた車両30の一部を示すブロック図である。乗員監視装置20は、車両30を運転する運転者がセカンドタスクを実施しているか否かを判定する。ここで、車両30とは車である例を説明するが、バイク、電車、飛行機等の人の操作により動かされる乗物であればよい。セカンドタスクとは、運転者が少なくとも一方の手をハンドルから離した状態で、運転中に行う運転以外の行為である。例えば、セカンドタスクは喫煙、携帯端末の操作、携帯端末を用いた会話、飲食、書類の確認、及び読書である。図1に示すように、車両30は、走行判定部1、撮像部2、画像取得部3、把持状態判定部4、セカンドタスク判定部5、記憶部6、出力部7、及び表示部8を備える。乗員監視装置20は、走行判定部1、画像取得部3、把持状態判定部4、セカンドタスク判定部5、記憶部6、及び出力部7を備える。セカンドタスク判定部5は、第1のセカンドタスク判定部5aと第2のセカンドタスク判定部5bとを有する。
Embodiment 1.
The passenger monitoring device 20 in the first embodiment will be described with reference to FIG. 1. FIG. 1 is a block diagram showing a part of a vehicle 30 equipped with the passenger monitoring device 20 in the first embodiment. The passenger monitoring device 20 judges whether or not a driver who drives the vehicle 30 is performing a second task. Here, an example of a car will be described as the vehicle 30, but the vehicle 30 may be any vehicle that is operated by a person, such as a motorcycle, a train, or an airplane. The second task is an action other than driving that the driver performs while driving with at least one hand off the handle. For example, the second task is smoking, operating a mobile terminal, talking using a mobile terminal, eating and drinking, checking documents, and reading. As shown in FIG. 1, the vehicle 30 includes a driving determination unit 1, an imaging unit 2, an image acquisition unit 3, a gripping state determination unit 4, a second task determination unit 5, a memory unit 6, an output unit 7, and a display unit 8. The passenger monitoring device 20 includes a driving determination unit 1, an image acquisition unit 3, a gripping state determination unit 4, a second task determination unit 5, a memory unit 6, and an output unit 7. The second task judgment unit 5 has a first second task judgment unit 5a and a second second task judgment unit 5b.

走行判定部1は、車両30が走行中であるか否かを示す走行情報を車両30から取得する。そして、走行判定部1は走行情報を用いて車両30が走行中であるか否かを判定し、判定結果を第1のセカンドタスク判定部5aに出力する。走行情報は、例えば車速を示す情報である。走行判定部1は、例えば車速が0km/hである場合は車両30が走行中ではないと判定し、車速が0km/hではない場合は車両30が走行中と判定する。The driving determination unit 1 acquires driving information from the vehicle 30 indicating whether the vehicle 30 is driving or not. The driving determination unit 1 then uses the driving information to determine whether the vehicle 30 is driving or not, and outputs the determination result to the first second task determination unit 5a. The driving information is, for example, information indicating the vehicle speed. For example, the driving determination unit 1 determines that the vehicle 30 is not driving if the vehicle speed is 0 km/h, and determines that the vehicle 30 is driving if the vehicle speed is not 0 km/h.

撮像部2は、車両30の内部に設けられたカメラであり、車両30のインストルメントパネル、ダッシュボード、センターディスプレイ、Aピラー又は、ルームミラー等に設置される。撮像部2は車両30の運転者を撮像した撮像画像を画像取得部3に出力する。The imaging unit 2 is a camera provided inside the vehicle 30, and is installed on the instrument panel, dashboard, center display, A-pillar, or rearview mirror of the vehicle 30. The imaging unit 2 outputs an image of the driver of the vehicle 30 to the image acquisition unit 3.

画像取得部3は、車両30の運転者を撮像する撮像部2から撮像画像を取得する。 The image acquisition unit 3 acquires an image from the imaging unit 2, which images the driver of the vehicle 30.

把持状態判定部4は、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する。また、把持状態判定部4は、運転者が両手でハンドルを把持していないと判定した場合に、運転者が右手でハンドルを把持している状態、運転者が左手でハンドルを把持している状態、及び運転者がハンドルを把持していない状態のうちいずれの把持状態であるかをさらに判定してもよい。把持している状態は、運転者の手がハンドルに触れている状態である。以降、運転者が両手でハンドルを把持している状態を「両手」、運転者が右手でハンドルを把持している状態を「右手」、運転者が左手でハンドルを把持している状態を「左手」、運転者が両手ともにハンドルを把持していない状態を「把持無し」と称する。把持状態判定部4は、「右手」及び「左手」を区別なく、運転者が片手でハンドルを把持している状態である「片手」として判定してもよい。The gripping state determination unit 4 determines the gripping state indicating whether the driver is gripping the steering wheel with both hands. In addition, when the gripping state determination unit 4 determines that the driver is not gripping the steering wheel with both hands, it may further determine which of the following gripping states the driver is in: a state in which the driver is gripping the steering wheel with the right hand, a state in which the driver is gripping the steering wheel with the left hand, or a state in which the driver is not gripping the steering wheel. The gripping state is a state in which the driver's hands are touching the steering wheel. Hereinafter, the state in which the driver is gripping the steering wheel with both hands is referred to as "both hands", the state in which the driver is gripping the steering wheel with the right hand is referred to as "right hand", the state in which the driver is gripping the steering wheel with the left hand is referred to as "left hand", and the state in which the driver is not gripping the steering wheel with both hands is referred to as "no grip". The gripping state determination unit 4 may determine the state in which the driver is gripping the steering wheel with one hand as "one hand" without distinguishing between the "right hand" and the "left hand".

把持状態判定部4が把持状態を判定する方法を説明する。把持状態判定部4は撮像画像における運転者の複数の特徴点を検出する。特徴点は、いわゆる骨格モデルの生成に用いられるものである。そして、把持状態判定部4は検出した複数個の特徴点を用いて、運転者の骨格モデルを生成する。次に、把持状態判定部4は生成した骨格モデルを用いて、運転者の肩の傾き角度又は運転者の腕の傾き角度を検出する。これにより、把持状態判定部4は運転者の腕の向く方向を推定し、運転者の手がハンドルを把持しているか否かを推定することができる。 The method by which the gripping state determination unit 4 determines the gripping state will be explained. The gripping state determination unit 4 detects multiple feature points of the driver in the captured image. The feature points are used to generate a so-called skeletal model. The gripping state determination unit 4 then generates a skeletal model of the driver using the detected multiple feature points. Next, the gripping state determination unit 4 uses the generated skeletal model to detect the inclination angle of the driver's shoulders or the inclination angle of the driver's arms. This allows the gripping state determination unit 4 to estimate the direction in which the driver's arms are pointing, and to estimate whether the driver's hands are gripping the steering wheel.

把持状態判定部4が把持状態を判定する方法は上述の方法に限られない。把持状態判定部4は、撮像画像から運転者の手がハンドルに触れているか否かを判定してもよく、予め定められた位置より運転者の手がハンドル側にあるか否かを判定してもよい。The method by which the gripping state determination unit 4 determines the gripping state is not limited to the above-mentioned method. The gripping state determination unit 4 may determine whether the driver's hands are touching the steering wheel from the captured image, or may determine whether the driver's hands are closer to the steering wheel than a predetermined position.

セカンドタスク判定部5は、セカンドタスクが実施されているか否かを判定する。セカンドタスク判定部5は、第1のセカンドタスク判定部5aと第2のセカンドタスク判定部5bとを有する。第1のセカンドタスク判定部5aは、走行判定部1において車両30が走行中であると判定された場合に、セカンドタスクが実施されているか否かを判定する。第2のセカンドタスク判定部5bは、第1のセカンドタスク判定部5aの判定結果及び把持状態判定部4の判定結果に基づき、セカンドタスクが実施されているか否かを判定する。The second task judgment unit 5 judges whether or not a second task is being performed. The second task judgment unit 5 has a first second task judgment unit 5a and a second second task judgment unit 5b. The first second task judgment unit 5a judges whether or not a second task is being performed when the driving judgment unit 1 judges that the vehicle 30 is driving. The second second task judgment unit 5b judges whether or not a second task is being performed based on the judgment result of the first second task judgment unit 5a and the judgment result of the gripping state judgment unit 4.

第1のセカンドタスク判定部5aは、画像取得部3により取得した撮像画像を用いて、セカンドタスクが実施されているか否かを判定する。また、第1のセカンドタスク判定部5aはセカンドタスクが実施されていると判定した場合に、セカンドタスクの種類をさらに判定してもよい。セカンドタスクの種類は、喫煙、携帯端末の操作、携帯端末を用いた会話、飲食、書類の確認、及び読書のうち少なくともいずれか1つ以上である。The first second task determination unit 5a determines whether or not a second task is being performed using the captured image acquired by the image acquisition unit 3. When the first second task determination unit 5a determines that a second task is being performed, the first second task determination unit 5a may further determine the type of the second task. The type of the second task is at least one of smoking, operating a mobile terminal, conversation using a mobile terminal, eating and drinking, checking documents, and reading.

第1のセカンドタスク判定部5aによるセカンドタスクが実施されているか否か、及びセカンドタスクの種類を判定する方法を説明する。第1のセカンドタスク判定部5aによる判定は、例えばパターンマッチング処理により実施することができる。第1のセカンドタスク判定部5aは、パターンマッチング処理に用いるパターン画像を予め記憶している。パターン画像は、例えば喫煙している人の画像、携帯端末の操作をしている人の画像、携帯端末を用いた会話をしている人の画像、飲食をしている人の画像、書類の確認をしている人の画像、読書をしている人の画像、煙草の画像、携帯端末の画像、おにぎり等の食物の画像、飲料物が入ったペットボトル等の容器の画像、書類の画像、及び本の画像である。そして、第1のセカンドタスク判定部5aは画像取得部3により取得した撮像画像の一部とパターン画像との類似度を算出することにより、セカンドタスクが実施されているか否か、及びセカンドタスクの種類を判定する。A method for determining whether or not a second task is being performed by the first second task determination unit 5a and the type of the second task will be described. The determination by the first second task determination unit 5a can be performed, for example, by pattern matching processing. The first second task determination unit 5a stores in advance pattern images used in the pattern matching processing. The pattern images are, for example, an image of a person smoking, an image of a person operating a mobile terminal, an image of a person having a conversation using a mobile terminal, an image of a person eating and drinking, an image of a person checking a document, an image of a person reading, an image of a cigarette, an image of a mobile terminal, an image of food such as rice balls, an image of a container such as a plastic bottle containing a drink, an image of a document, and an image of a book. The first second task determination unit 5a then determines whether or not a second task is being performed and the type of the second task by calculating the similarity between a part of the captured image acquired by the image acquisition unit 3 and the pattern image.

また、第1のセカンドタスク判定部5aによる判定は、教師あり学習の公知のアルゴリズムを用いて実施してもよい。一例として、学習アルゴリズムにニューラルネットワークを適用した場合について説明する。第1のセカンドタスク判定部5aは、いわゆる教師あり学習により、セカンドタスクが実施されているか否か、及びセカンドタスクの種類を判定する。教師あり学習とは、入力と結果(教師ラベル)のデータの組を学習用データとして学習装置に与えることで、それらの学習用データにある特徴を学習し、入力から結果を推論する手法をいう。
第1のセカンドタスク判定部5aは、あらかじめ画像情報およびセカンドタスクの種類が組み合わせられた学習用データに従って生成された機会学習モデルを備え、機械学習モデルに画像取得部3により取得した撮像画像を入力することで、セカンドタスクを判定する。
機械学習モデルを生成する学習アルゴリズムとして、深層学習(Deep Learning)を用いてもよいし、例えば、遺伝的プログラミング、機能論理プログラミング、又はサポートベクターマシン等の他の公知の方法に従って機械学習モデルに学習させてもよい。
The first second task determination unit 5a may perform the determination using a known algorithm for supervised learning. As an example, a case where a neural network is applied to the learning algorithm will be described. The first second task determination unit 5a determines whether or not a second task is being performed and the type of the second task by so-called supervised learning. Supervised learning refers to a method in which a set of data of input and result (teacher label) is provided to a learning device as learning data, the data is learned from the features of the learning data, and a result is inferred from the input.
The first second task judgment unit 5a has a machine learning model generated in advance according to learning data in which image information and the type of second task are combined, and judges the second task by inputting the captured image acquired by the image acquisition unit 3 into the machine learning model.
As a learning algorithm for generating the machine learning model, deep learning may be used, or the machine learning model may be trained according to other known methods, such as genetic programming, functional logic programming, or support vector machines.

第1のセカンドタスク判定部5aによるセカンドタスクが実施されているか否か、及びセカンドタスクの種類を判定する方法は、上述の方法に限定されない。例えば、撮像部2は赤外線カメラを有し、画像取得部3は撮像部2による撮像領域の熱分布の情報を取得する。そして、第1のセカンドタスク判定部5aは熱分布の情報に基づき、煙草の有無を判断することにより、喫煙のセカンドタスクが実施されているか否かを判定してもよい。The method of determining whether or not a second task is being performed by the first second task determination unit 5a and the type of the second task is not limited to the above-mentioned method. For example, the imaging unit 2 has an infrared camera, and the image acquisition unit 3 acquires information on the heat distribution of the area imaged by the imaging unit 2. Then, the first second task determination unit 5a may determine whether or not the second task of smoking is being performed by determining the presence or absence of a cigarette based on the heat distribution information.

また、上述のとおりセカンドタスクとは、運転者が少なくとも一方の手をハンドルから離した状態で、運転中に行う運転以外の行為である。そのため、例えば運転者が片手に煙草を持ちつつ両手でハンドルを把持する行為は、セカンドタスクではない。このような行為を誤ってセカンドタスクと判定しないように、第1のセカンドタスク判定部5aは、撮像画像から推定される運転者の口と煙草との距離が予め設定された閾値以下である場合、例えば2cm以下である場合に、喫煙のセカンドタスクが実施されていると判定してもよい。例えば、撮像画像から推定される運転者の口と煙草との距離を推定する方法は、撮像画像から運転者の口と煙草との座標距離及び運転者の両目間の座標距離を求め、人の両目間の標準長さを基準に運転者の口と煙草との距離を推定するとよい。他のセカンドタスクについても同様に、第1のセカンドタスク判定部5aは、撮像画像から推定される運転者の顔と携帯端末との距離が予め設定された閾値以下、例えば5cm以下である場合に、携帯端末を用いた会話のセカンドタスクが実施されていると判定してもよい。 As described above, the second task is an action other than driving that the driver performs while driving with at least one hand removed from the steering wheel. Therefore, for example, the action of the driver holding a cigarette in one hand and gripping the steering wheel with both hands is not a second task. In order to avoid erroneously determining such an action as a second task, the first second task determination unit 5a may determine that the second task of smoking is being performed when the distance between the driver's mouth and the cigarette estimated from the captured image is equal to or less than a preset threshold, for example, 2 cm or less. For example, a method of estimating the distance between the driver's mouth and the cigarette estimated from the captured image may be to obtain the coordinate distance between the driver's mouth and the cigarette and the coordinate distance between the driver's eyes from the captured image, and estimate the distance between the driver's mouth and the cigarette based on the standard length between the human eyes. Similarly, for other second tasks, the first second task determination unit 5a may determine that the second task of conversation using a mobile device is being performed when the distance between the driver's face estimated from the captured image is equal to or less than a preset threshold, for example, 5 cm or less.

第2のセカンドタスク判定部5bは、把持状態判定部4において判定した把持状態に応じて、第1のセカンドタスク判定部5aによる判定を実施させるか否か、又は第1のセカンドタスク判定部5aによる判定結果を有効とするか否かを判定する。
本実施の形態では、第2のセカンドタスク判定部5bは、第1のセカンドタスク判定部5aにおいてセカンドタスクが実施されていると判定された場合に、把持状態判定部4が「両手」の把持状態ではないと判定した場合、第1のセカンドタスク判定部5aの判定結果を有効とする。そして、第2のセカンドタスク判定部5bは、第1のセカンドタスク判定部5aにおいてセカンドタスクが実施されていると判定された場合に、把持状態判定部4が「両手」の把持状態であると判定した場合、第1のセカンドタスク判定部5aの判定結果を無効とする。
The second second task judgment unit 5b judges, depending on the gripping state judged by the gripping state judgment unit 4, whether or not to cause the first second task judgment unit 5a to carry out a judgment, or whether or not to validate the judgment result by the first second task judgment unit 5a.
In this embodiment, when the first second task determination unit 5a determines that the second task is being performed, and the gripping state determination unit 4 determines that the gripping state is not with "both hands," the second second task determination unit 5b validates the determination result of the first second task determination unit 5a. When the first second task determination unit 5a determines that the second task is being performed, and the gripping state determination unit 4 determines that the gripping state is with "both hands," the second second task determination unit 5b invalidates the determination result of the first second task determination unit 5a.

把持状態判定部4及びセカンドタスク判定部5は、予め設定された時間間隔で判定を実施する。予め設定された時間間隔は、例えば0.5秒間隔である。
記憶部6はセカンドタスク判定部5の判定結果を記憶する。記憶部6は予め設定された分の過去の判定結果を記憶でき、少なくとも前回と最新の撮像画像に対するセカンドタスク判定部5の判定結果を記憶する。また、記憶部6は把持状態判定部4の判定結果をさらに記憶してもよい。
The gripping state determination unit 4 and the second task determination unit 5 perform the determination at preset time intervals. The preset time intervals are, for example, 0.5 seconds.
The storage unit 6 stores the judgment result of the second task judgment unit 5. The storage unit 6 can store a preset number of past judgment results, and stores at least the judgment results of the second task judgment unit 5 for the previous and latest captured images. The storage unit 6 may further store the judgment result of the gripping state judgment unit 4.

出力部7は、表示部8にセカンドタスクが実施されていることを示す信号を出力する。表示部8は、例えば車両30に設けられたスピーカ又はディスプレイである。表示部8は出力部7から信号を受信した場合に、セカンドタスクの実施を終了するように促す音声及び画像の少なくともいずれか一方を表示する。The output unit 7 outputs a signal indicating that the second task is being performed to the display unit 8. The display unit 8 is, for example, a speaker or a display provided in the vehicle 30. When the display unit 8 receives a signal from the output unit 7, it displays at least one of a sound and an image prompting the user to end the performance of the second task.

次に、乗員監視装置20のハードウェア構成例を説明する。図2は実施の形態1の乗員監視装置20のハードウェア構成例を示す概略図である。乗員監視装置20の走行判定部1、画像取得部3、把持状態判定部4、セカンドタスク判定部5、記憶部6、及び出力部7は、図2Aに示すように専用のハードウェアである処理回路12であってもよいし、図2Bに示すようにメモリ14に格納されているプログラムを実行するプロセッサ13であってもよい。Next, an example of the hardware configuration of the occupant monitoring device 20 will be described. Figure 2 is a schematic diagram showing an example of the hardware configuration of the occupant monitoring device 20 of embodiment 1. The driving determination unit 1, image acquisition unit 3, gripping state determination unit 4, second task determination unit 5, memory unit 6, and output unit 7 of the occupant monitoring device 20 may be a processing circuit 12 which is dedicated hardware as shown in Figure 2A, or a processor 13 which executes a program stored in memory 14 as shown in Figure 2B.

図2Aに示すように乗員監視装置20の各構成が専用のハードウェアである場合、処理回路12は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、又はこれらを組み合わせたものが該当する。乗員監視装置20の各構成の機能それぞれを処理回路12で実現してもよいし、各構成の機能をまとめて1つの処理回路12で実現してもよい。2A, when each component of the occupant monitoring device 20 is a dedicated hardware, the processing circuit 12 corresponds to, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-programmable Gate Array), or a combination of these. The functions of each component of the occupant monitoring device 20 may be realized by the processing circuit 12, or the functions of each component may be realized together by a single processing circuit 12.

図2Bに示すように、乗員監視装置20の各構成がプロセッサ13である場合、各構成の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ14に格納される。プロセッサ13は、メモリ14に記憶されたプログラムを読み出して実行することにより、乗員監視装置20の各構成の機能を実現する。すなわち、乗員監視装置20の各構成は、プロセッサ13により実行されるときに、後述する図3、図4、図5、又は図8に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ14を備える。また、これらのプログラムは、乗員監視装置20の各構成の手順又は方法をコンピュータに実行させるものであるともいえる。As shown in FIG. 2B, when each component of the occupant monitoring device 20 is a processor 13, the function of each component is realized by software, firmware, or a combination of software and firmware. The software or firmware is written as a program and stored in the memory 14. The processor 13 realizes the function of each component of the occupant monitoring device 20 by reading and executing the program stored in the memory 14. That is, each component of the occupant monitoring device 20 has a memory 14 for storing a program that, when executed by the processor 13, results in the execution of each step shown in FIG. 3, FIG. 4, FIG. 5, or FIG. 8 described below. It can also be said that these programs cause a computer to execute the procedure or method of each component of the occupant monitoring device 20.

ここで、プロセッサ13とは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)等のことである。メモリ14は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。Here, the processor 13 is, for example, a CPU (Central Processing Unit), a processing device, an arithmetic device, a processor, a microprocessor, a microcomputer, or a DSP (Digital Signal Processor). The memory 14 may be, for example, a non-volatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable ROM), or an EEPROM (Electrically EPROM), or a magnetic disk such as a hard disk or a flexible disk, or an optical disk such as a mini disk, a CD (Compact Disc), or a DVD (Digital Versatile Disc).

なお、乗員監視装置20の各構成の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、乗員監視装置20における処理回路12は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。In addition, some of the functions of each component of the occupant monitoring device 20 may be realized by dedicated hardware and some by software or firmware. In this way, the processing circuit 12 in the occupant monitoring device 20 can realize each of the above-mentioned functions by hardware, software, firmware, or a combination of these.

次に、乗員監視装置20による乗員監視方法について説明する。図3は実施の形態1の乗員監視装置20の処理動作を示すフローチャートである。Next, we will explain the occupant monitoring method using the occupant monitoring device 20. Figure 3 is a flowchart showing the processing operation of the occupant monitoring device 20 in embodiment 1.

ステップS101では、走行判定部1は車両30が走行中であるか否かを判定する。走行判定部1は車両30が走行中であると判定した場合(ステップS101のYES)、判定結果を第1のセカンドタスク判定部5aに出力する。走行判定部1は車両30が走行中ではないと判定した場合(ステップS101のNO)、走行判定部1は車両30が走行中であると判定するまで、ステップS101を繰り返す。つまり、車両30が停止中はセカンドタスクの実施が許容されるので、乗員監視装置20はセカンドタスクの判定を実施しない。In step S101, the driving determination unit 1 determines whether the vehicle 30 is driving. If the driving determination unit 1 determines that the vehicle 30 is driving (YES in step S101), it outputs the determination result to the first second task determination unit 5a. If the driving determination unit 1 determines that the vehicle 30 is not driving (NO in step S101), the driving determination unit 1 repeats step S101 until it determines that the vehicle 30 is driving. In other words, since the second task is permitted to be performed while the vehicle 30 is stopped, the occupant monitoring device 20 does not perform a determination of the second task.

ステップS102では、セカンドタスク判定部5は画像取得部3に運転者を撮像する撮像部2から撮像画像を取得させる。In step S102, the second task judgment unit 5 causes the image acquisition unit 3 to acquire an image from the imaging unit 2, which images the driver.

ステップS103では、把持状態判定部4は、画像取得部3により取得した撮像画像を用いて、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する。In step S103, the gripping state determination unit 4 uses the captured image acquired by the image acquisition unit 3 to determine the gripping state indicating whether the driver is gripping the steering wheel with both hands.

ステップS104では、第1のセカンドタスク判定部5aは、画像取得部3により取得した撮像画像を用いて、セカンドタスクが実施されているか否かを判定する。また、第1のセカンドタスク判定部5aはセカンドタスクが実施されていると判定した場合、さらにセカンドタスクの種類を判定してもよい。第1のセカンドタスク判定部5aはセカンドタスクが実施されていると判定した場合(ステップS104のYES)、ステップS105に進む。第1のセカンドタスク判定部5aはセカンドタスクが実施されていないと判定した場合(ステップS104のNO)、ステップS106に進む。In step S104, the first second task determination unit 5a uses the captured image acquired by the image acquisition unit 3 to determine whether or not the second task is being performed. If the first second task determination unit 5a determines that the second task is being performed, it may further determine the type of the second task. If the first second task determination unit 5a determines that the second task is being performed (YES in step S104), the process proceeds to step S105. If the first second task determination unit 5a determines that the second task is not being performed (NO in step S104), the process proceeds to step S106.

ステップS105及びステップS106では、記憶部6は第1のセカンドタスク判定部5aの判定結果を記憶する。ステップS105の処理動作後はステップS107に進み、ステップS106の処理動作後はステップS110に進む。In steps S105 and S106, the memory unit 6 stores the judgment result of the first second task judgment unit 5a. After the processing operation of step S105, the process proceeds to step S107, and after the processing operation of step S106, the process proceeds to step S110.

ステップS107~ステップS110では、第2のセカンドタスク判定部5bは、第1のセカンドタスク判定部5aの判定結果及び把持状態判定部4の判定結果に基づき、セカンドタスクが実施されているか否かを判定する。 In steps S107 to S110, the second second task judgment unit 5b judges whether or not the second task is being performed based on the judgment result of the first second task judgment unit 5a and the judgment result of the grasping state judgment unit 4.

ステップS107では、把持状態判定部4の判定結果を用いて、第2のセカンドタスク判定部5bは把持状態が予め設定された条件を満たすか否かを判定する。本実施の形態における把持状態の予め設定された条件は、運転者が両手でハンドルを把持している状態、すなわち把持状態が「両手」である。把持状態判定部4が「両手」の把持状態であると判定した場合、運転者は両手でハンドルを把持しているため、物理的に両手が塞がっている。そのため、第1のセカンドタスク判定部5aにおいてセカンドタスクが実施されていると判定した結果(ステップS104のYES)は誤りである。そこで、ステップS108では、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aの判定結果を無効と判定する。そして、ステップS109では、第2のセカンドタスク判定部5bはステップS105において記憶部6に記憶された第1のセカンドタスク判定部5aの判定結果を修正する。より具体的には、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aにより判定された最新のセカンドタスクの判定結果をセカンドタスクの実施ありから、セカンドタスクの実施なしに修正する。In step S107, the second second task determination unit 5b uses the judgment result of the grip state judgment unit 4 to judge whether the grip state satisfies a preset condition. The preset condition of the grip state in this embodiment is a state in which the driver grips the steering wheel with both hands, that is, the grip state is "both hands". If the grip state judgment unit 4 judges that the grip state is "both hands", the driver is gripping the steering wheel with both hands, so both hands are physically occupied. Therefore, the result of the first second task judgment unit 5a judging that the second task is being performed (YES in step S104) is incorrect. Therefore, in step S108, the second second task judgment unit 5b judges that the judgment result of the first second task judgment unit 5a is invalid. Then, in step S109, the second second task judgment unit 5b corrects the judgment result of the first second task judgment unit 5a stored in the memory unit 6 in step S105. More specifically, the second second task judgment unit 5b corrects the latest judgment result of the second task judged by the first second task judgment unit 5a from "the second task is being performed" to "the second task is not being performed."

把持状態判定部4が「両手」の把持状態ではないと判定した場合(ステップS107のNO)は、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aの判定結果を有効と判定する(ステップS110)。また、ステップS104において、第1のセカンドタスク判定部5aがセカンドタスクは実施されていないと判定した場合も、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aの判定結果を有効と判定する(ステップS110)。第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aの判定結果を有効と判定した場合(ステップS110)は、ステップS105及びステップS106において記憶された第1のセカンドタスク判定部5aの判定結果を修正する処理動作は不要であるため、ステップS111に進む。If the grip state determination unit 4 determines that the grip state is not "both hands" (NO in step S107), the second second task determination unit 5b determines that the judgment result of the first second task determination unit 5a is valid (step S110). Also, in step S104, even if the first second task determination unit 5a determines that the second task is not being performed, the second second task determination unit 5b determines that the judgment result of the first second task determination unit 5a is valid (step S110). If the second second task determination unit 5b determines that the judgment result of the first second task determination unit 5a is valid (step S110), there is no need to perform a processing operation to correct the judgment result of the first second task determination unit 5a stored in steps S105 and S106, so the process proceeds to step S111.

ステップS111では、第2のセカンドタスク判定部5bは、記憶部6に記憶されたセカンドタスクの判定結果において、セカンドタスクが予め設定された時間継続して実施されているか否かを判定する。第2のセカンドタスク判定部5bにおいてセカンドタスクが予め設定された時間継続して実施されていると判定される場合(ステップS111のYES)は、次の2つである。1つ目は、第1のセカンドタスク判定部5aにおいてセカンドタスクが実施されているか否かを判定する場合に、セカンドタスクが実施された状態が予め設定された時間継続している場合である。2つ目は、第1のセカンドタスク判定部5aにおいてセカンドタスクが実施されているか否かに加え、セカンドタスクの種類を判定する場合に、記憶部6に記憶された判定結果において同じ種類のセカンドタスクが予め設定された時間継続して実施されている場合である。予め設定された時間は、セカンドタスクを継続して実施した場合に、運転への集中力が低下し、また両手でハンドルを把持していないためとっさの対応ができないと予想される時間に設定するとよい。また、運転への集中力が低下し、また両手でハンドルを把持していないためとっさの対応ができないと予想される時間はセカンドタスクの種類により異なる。そのため、予め設定された時間は、セカンドタスクの種類により異なるように設定されてもよい。例えば、予め設定された時間は、喫煙のセカンドタスクの場合は2秒以上3.5秒以内とし、携帯端末を用いた会話のセカンドタスクの場合は3秒以上4.5秒以内とする。ステップS109において、セカンドタスクが予め設定された時間継続して実施されない場合、乗員監視装置20の処理動作を終了する。In step S111, the second second task determination unit 5b determines whether the second task has been continuously performed for a preset time in the determination result of the second task stored in the memory unit 6. There are two cases where the second task is determined to be continuously performed for a preset time in the second second task determination unit 5b (YES in step S111). The first case is when the state in which the second task has been performed continues for a preset time when the first second task determination unit 5a determines whether the second task is being performed. The second case is when the same type of second task has been continuously performed for a preset time in the determination result stored in the memory unit 6 when the first second task determination unit 5a determines whether the second task is being performed and the type of the second task. The preset time may be set to a time when it is expected that the driver's concentration on driving will decrease and that he or she will not be able to respond immediately because both hands are not holding the steering wheel if the second task is continuously performed. In addition, the time when it is expected that the driver's concentration on driving will decrease and that he or she will not be able to respond immediately because both hands are not holding the steering wheel differs depending on the type of the second task. Therefore, the preset time may be set differently depending on the type of the second task. For example, the preset time is set to 2 to 3.5 seconds for the second task of smoking, and 3 to 4.5 seconds for the second task of talking using a mobile terminal. In step S109, if the second task is not performed continuously for the preset time, the processing operation of the occupant monitoring device 20 is terminated.

ステップS112では、第2のセカンドタスク判定部5bは出力部7にセカンドタスクが実施されていることを示す信号を表示部8に出力させる。そして、表示部8は運転者にセカンドタスクの実施を終了するように促す音声及び画像の少なくともいずれか一方を表示する。
以上により、乗員監視装置20の処理動作を終了する。
In step S112, the second second task determination unit 5b causes the output unit 7 to output a signal indicating that the second task is being performed to the display unit 8. Then, the display unit 8 displays at least one of a sound and an image that prompts the driver to end the performance of the second task.
This completes the processing operation of the occupant monitoring device 20.

次に、本実施の形態における乗員監視装置20の効果を説明する。
上述のとおり、本実施の形態における乗員監視装置20は、撮像画像を用いて、運転者が運転中に行う運転以外の行為であるセカンドタスクが実施されているか否かを判定する第1のセカンドタスク判定部5aと、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する把持状態判定部4と、第1のセカンドタスク判定部5aの判定結果及び把持状態判定部4の判定結果に基づき、セカンドタスクが実施されているか否かを判定する第2のセカンドタスク判定部5bを備える。これにより、乗員監視装置20は、セカンドタスクの判定を高精度に行うことができる。
Next, the effects of the occupant monitoring device 20 in this embodiment will be described.
As described above, the occupant monitoring device 20 in this embodiment includes a first second task determination unit 5a that uses a captured image to determine whether or not a second task, which is an action other than driving that the driver performs while driving, is being performed, a gripping state determination unit 4 that determines a gripping state indicating whether or not the driver is gripping the steering wheel with both hands, and a second second task determination unit 5b that determines whether or not the second task is being performed based on the determination results of the first second task determination unit 5a and the determination results of the gripping state determination unit 4. This enables the occupant monitoring device 20 to perform highly accurate determination of the second task.

上述の本実施の形態の乗員監視装置20の効果をより詳細に説明する。
例えば、第1のセカンドタスク判定部5aにおいて、撮像画像を用いて、喫煙のセカンドタスクが実施されていると判定したとする。しかしながら、煙草はハンドルと比較して小さいため、実際には撮像画像中に煙草が写っていない場合にも喫煙のセカンドタスクが実施されていると誤判定される虞がある。また、二次元の撮像画像から煙草と運転者の口との距離を正確に推定することは困難である。そのため、例えば運転者が手に煙草を持ちつつ、両手でハンドルを把持している場合にも、撮像画像上では、運転者の顔と煙草の位置が近く判定されるため、誤って喫煙のセカンドタスクが実施されていると判定される虞がある。ここでは、喫煙のセカンドタスクを例に説明したが、他のセカンドタスクでも同様である。つまり、第1のセカンドタスク判定部5aにおける撮像画像を用いた判定結果は、誤判定である可能性がある。
The effects of the passenger monitoring device 20 of the present embodiment described above will now be described in more detail.
For example, suppose that the first second task determination unit 5a determines that the second task of smoking is being performed using a captured image. However, because a cigarette is small compared to a steering wheel, there is a possibility that the second task of smoking is erroneously determined to be performed even when the cigarette is not actually captured in the captured image. In addition, it is difficult to accurately estimate the distance between the cigarette and the driver's mouth from a two-dimensional captured image. Therefore, for example, even when a driver holds a cigarette in his or her hand and grips the steering wheel with both hands, the position of the driver's face and the cigarette are determined to be close on the captured image, so that there is a possibility that the second task of smoking is erroneously determined to be performed. Here, the second task of smoking is described as an example, but the same applies to other second tasks. In other words, the determination result using the captured image in the first second task determination unit 5a may be an erroneous determination.

本実施の形態では、把持状態判定部4は撮像画像を用いて把持状態を判定する例を示した。ここで、ハンドルは例えば煙草と比較して大きいため、煙草のセカンドタスクよりも把持状態の方が高精度に判定することができる。つまり、第1のセカンドタスク判定部5aの判定結果よりも把持状態判定部4の判定結果の方が高精度である。そこで、第2のセカンドタスク判定部5bは、第1のセカンドタスク判定部5aの判定結果に加えて把持状態判定部4の判定結果も考慮して、セカンドタスクが実施されているか否かを判定する。これにより、セカンドタスクの判定をより高精度に行うことができる。In this embodiment, an example has been shown in which the grip state determination unit 4 determines the grip state using a captured image. Here, since the handle is larger than, for example, a cigarette, the grip state can be determined with higher accuracy than the second task of a cigarette. In other words, the judgment result of the grip state determination unit 4 is more accurate than the judgment result of the first second task determination unit 5a. Therefore, the second second task determination unit 5b determines whether or not the second task is being performed, taking into account the judgment result of the grip state determination unit 4 in addition to the judgment result of the first second task determination unit 5a. This allows the second task to be determined with higher accuracy.

また、第2のセカンドタスク判定部5bは、把持状態に応じて、第1のセカンドタスク判定部5aによる判定結果を有効とするか否かを判定する。より具体的には、第2のセカンドタスク判定部5bは、第1のセカンドタスク判定部5aにおいてセカンドタスクが実施されていると判定された場合に、把持状態判定部4が「両手」の把持状態ではないと判定した場合は、第1のセカンドタスク判定部5aの判定結果を有効とし、把持状態判定部4が「両手」の把持状態であると判定した場合は、第1のセカンドタスク判定部5aの判定結果を無効とする。
運転者が両手でハンドルを把持している状態において、運転者は両手が塞がっているため、セカンドタスクを実施することはできない。そのため、運転者が両手でハンドルを把持している状態において、第1のセカンドタスク判定部5aはセカンドタスクが実施されていると判定した場合、第1のセカンドタスク判定部5aの判定結果は誤りである。そこで、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aの判定結果を無効とすることにより、セカンドタスクの判定をより高精度に行うことができる。
Furthermore, the second second task determination unit 5b determines whether or not to validate the determination result by the first second task determination unit 5a depending on the gripping state. More specifically, when the first second task determination unit 5a determines that the second task is being performed, if the gripping state determination unit 4 determines that the gripping state is not with "both hands," the second second task determination unit 5b validates the determination result of the first second task determination unit 5a, and invalidates the determination result of the first second task determination unit 5a if the gripping state determination unit 4 determines that the gripping state is with "both hands."
When the driver is holding the steering wheel with both hands, the driver's hands are occupied and the driver is therefore unable to perform the second task. Therefore, when the first second task determination unit 5a determines that the second task is being performed when the driver is holding the steering wheel with both hands, the determination result of the first second task determination unit 5a is erroneous. Therefore, the second second task determination unit 5b invalidates the determination result of the first second task determination unit 5a, thereby enabling the second task to be determined with higher accuracy.

また、セカンドタスクは運転者が少なくとも一方の手をハンドルから離した状態で行う行為であり、喫煙、携帯端末の操作、携帯端末を用いた会話、飲食、書類の確認、及び読書のうち少なくともいずれか1つ以上である。これらのセカンドタスクが実施されている場合、運転者は運転への集中力が低下し、また両手でハンドルを把持していないためとっさの対応ができない虞がある。本実施の形態の乗員監視装置20は、運転者が運転への集中力が低下し、また両手でハンドルを把持していないためとっさの対応ができない虞があるセカンドタスクを高精度に判定することができる。 A second task is an action that the driver performs with at least one hand off the steering wheel, and is at least one of the following: smoking, operating a mobile device, talking using a mobile device, eating, drinking, checking documents, and reading. When these second tasks are performed, the driver's concentration on driving decreases and there is a risk that the driver will not be able to respond immediately because both hands are not holding the steering wheel. The occupant monitoring device 20 of this embodiment can accurately determine second tasks that cause the driver's concentration on driving to decrease and there is a risk that the driver will not be able to respond immediately because both hands are not holding the steering wheel.

また、第2のセカンドタスク判定部5bは、セカンドタスクが予め設定された時間継続して実施されている場合に、出力部7にセカンドタスクが実施されていることを示す信号を表示部8に出力させる。車両30に設けられた表示部8は出力部7の信号により、セカンドタスクの実施を終了するように促す音声及び画像の少なくともいずれか一方を表示する。これにより、運転者はセカンドタスクの実施を終了するように促されるので、運転者は運転に集中し、両手でハンドルを把持する等の安全運転に努めることができる。 Furthermore, when the second task has been continuously performed for a preset time, the second second task determination unit 5b causes the output unit 7 to output a signal indicating that the second task is being performed to the display unit 8. In response to the signal from the output unit 7, the display unit 8 provided in the vehicle 30 displays at least one of a sound and an image urging the driver to end the performance of the second task. This urges the driver to end the performance of the second task, allowing the driver to concentrate on driving and strive for safe driving, such as by holding the steering wheel with both hands.

また、第1のセカンドタスク判定部5aによりセカンドタスクが実施されていると判定される度に、出力部7が表示部8に信号を出力すると、表示部8による表示回数が多く運転者が煩わしく感じる。そこで、第2のセカンドタスク判定部5bは、セカンドタスクが予め設定された時間継続して実施されている場合に、出力部7に信号を出力させる。これにより、運転者が運転への集中力が低下し、また両手でハンドルを把持していないためとっさの対応ができないと予想される時間継続してセカンドタスクが実施されている場合に、乗員監視装置20はセカンドタスクの実施を終了するように表示することができる。そのため、乗員監視装置20は、表示部8による表示回数が多すぎることによる煩わしさを抑制できる。In addition, if the output unit 7 outputs a signal to the display unit 8 each time the first second task determination unit 5a determines that the second task is being performed, the display unit 8 displays the signal too many times, which the driver finds annoying. Therefore, the second second task determination unit 5b causes the output unit 7 to output a signal when the second task is being performed continuously for a preset time. This allows the occupant monitoring device 20 to display the end of the second task when the second task is being performed continuously for a time when it is expected that the driver's concentration on driving will decrease and that he or she will not be able to respond immediately because he or she is not holding the steering wheel with both hands. Therefore, the occupant monitoring device 20 can suppress the annoyance caused by the display unit 8 displaying the signal too many times.

また、乗員監視装置20は、第1のセカンドタスク判定部5a及び第2のセカンドタスク判定部5bの判定結果を記憶する記憶部6を備える。そして、第1のセカンドタスク判定部5aは、セカンドタスクが実施されていると判定した場合にセカンドタスクの種類を判定する。第2のセカンドタスク判定部5bは、記憶部6に記憶された判定結果において、同じ種類のセカンドタスクが予め設定された時間継続して実施されている場合に、出力部7に信号を出力させる。また、予め設定された時間はセカンドタスクの種類により異なる。セカンドタスクの種類によって、どの程度の時間継続してセカンドタスクを実施した場合に運転への集中力が低下し、また両手でハンドルを把持していないためとっさの対応ができない虞があるかは異なる。そのため、予め設定された時間をセカンドタスクの種類により異なるように設定することにより、実施されているセカンドタスクの種類に最適なタイミングで、運転者にセカンドタスクの実施を終了するように促すことができる。The occupant monitoring device 20 also includes a storage unit 6 that stores the results of the judgments made by the first second task judgment unit 5a and the second second task judgment unit 5b. The first second task judgment unit 5a judges the type of the second task when it is judged that the second task is being performed. The second second task judgment unit 5b outputs a signal to the output unit 7 when the judgment results stored in the storage unit 6 indicate that the same type of second task has been performed continuously for a preset time. The preset time differs depending on the type of second task. Depending on the type of second task, the amount of time that the driver needs to continue performing the second task to lose concentration on driving and to be unable to respond immediately because both hands are not holding the steering wheel differs. Therefore, by setting the preset time to be different depending on the type of second task, the driver can be prompted to end the performance of the second task at the optimal timing for the type of second task being performed.

なお、実施の形態1では乗員監視装置20は記憶部6を備える例を示したが、セカンドタスク判定部5の判定結果は車両30の外部に設けられたサーバ装置に送信され記憶されてもよい。In addition, in embodiment 1, an example is shown in which the occupant monitoring device 20 is equipped with a memory unit 6, but the judgment result of the second task judgment unit 5 may be transmitted to and stored in a server device provided outside the vehicle 30.

また、乗員監視装置20によるセカンドタスクの判定結果の利用例として、出力部7は表示部8にセカンドタスクが実施されていることを示す信号を出力し、表示部8は運転者にセカンドタスクの実施を終了するように促す例を示したが、これに限られない。例えば、乗員監視装置20によるセカンドタスクの判定結果は、トラック及びタクシー等の業務用車両を運営する企業において利用可能である。業務用車両を運営する企業は業務用車両を管理するためのサーバ装置を備える。そして、出力部7はセカンドタスクが実施されていることを示す信号をサーバ装置に出力してもよい。これにより、管理会社は業務用車両の運転者である従業員がセカンドタスクを実施していないかを監視することができる。 As an example of using the second task determination result by the occupant monitoring device 20, the output unit 7 outputs a signal indicating that the second task is being performed to the display unit 8, and the display unit 8 prompts the driver to end the performance of the second task, but this is not limited to this. For example, the second task determination result by the occupant monitoring device 20 can be used by a company that operates commercial vehicles such as trucks and taxis. The company that operates the commercial vehicles is equipped with a server device for managing the commercial vehicles. The output unit 7 may then output a signal indicating that the second task is being performed to the server device. This allows the management company to monitor whether employees who are drivers of commercial vehicles are performing the second task.

実施の形態2.
実施の形態2における乗員監視装置20について説明する。実施の形態2の乗員監視装置20の構成は、実施の形態1の乗員監視装置20の構成と同様である。実施の形態1と同様の構成については、同一符号が付されている。
Embodiment 2.
An occupant monitoring device 20 in the embodiment 2 will be described. The configuration of the occupant monitoring device 20 in the embodiment 2 is similar to the configuration of the occupant monitoring device 20 in the embodiment 1. The same components as those in the embodiment 1 are denoted by the same reference numerals.

本実施の形態の第2のセカンドタスク判定部5bは、セカンドタスクの状態が変化した場合に、把持状態が予め設定された条件を満たさない場合は、第1のセカンドタスク判定部5aの判定結果を有効とし、セカンドタスクの状態が変化した場合に、把持状態が予め設定された条件を満たす場合は、第1のセカンドタスク判定部5aの判定結果を無効とする。In this embodiment, the second second task judgment unit 5b validates the judgment result of the first second task judgment unit 5a when the state of the second task changes and the grasping state does not satisfy the preset condition, and invalidates the judgment result of the first second task judgment unit 5a when the state of the second task changes and the grasping state satisfies the preset condition.

セカンドタスクの状態が変化した場合とは、セカンドタスクが実施されているか否かの状態が変化した場合、又はセカンドタスクの種類が変化した場合である。具体的には、セカンドタスクが実施されていない状態からセカンドタスクが実施されている状態に変化した場合、及び喫煙のセカンドタスクから携帯端末を用いた会話のセカンドタスクに変化した場合等である。A change in the state of the second task refers to a change in whether or not the second task is being performed, or a change in the type of the second task. Specifically, this includes a change from a state in which the second task is not being performed to a state in which the second task is being performed, and a change from the second task of smoking to the second task of talking using a mobile device.

本実施の形態の把持状態の予め設定された条件は表1に示す3つのうち少なくとも1つ以上である。 The preset conditions for the gripping state in this embodiment are at least one of the three shown in Table 1.

表1 把持状態の予め設定された条件

Figure 0007483160000001

Table 1 Predefined gripping conditions
Figure 0007483160000001

1つ目の把持状態の条件は、運転者が両手でハンドルを把持する状態が継続している場合、すなわち前回の把持状態判定部4の判定結果が「両手」であり、最新の把持状態判定部4の判定結果が「両手」である場合である。運転者が両手でハンドルを把持する状態が継続している場合、運転者は物理的に両手が塞がっており、セカンドタスクの状態が変化する可能性はない。The first gripping state condition is when the driver continues to grip the steering wheel with both hands, i.e., when the previous judgment result of the gripping state judgment unit 4 was "both hands" and the latest judgment result of the gripping state judgment unit 4 is "both hands." When the driver continues to grip the steering wheel with both hands, both of the driver's hands are physically occupied, and there is no possibility of the state of the second task changing.

2つ目の把持状態の条件は、運転者が両手でハンドルを把持している状態から両手でハンドルを把持していない状態に変化した場合、すなわち前回の把持状態判定部4の判定結果が「両手」であり、最新の把持状態判定部4の判定結果が「右手」、「左手」、「片手」又は「把持無し」のいずれかである場合である。なお、2つ目の予め設定された把持状態の条件は、把持状態判定部4が判定する予め設定された時間間隔が十分に短い場合、例えば0.5秒よりも短い場合に設定される。例えば0.5秒よりも短い時間に、ハンドルから手を離す動作と、セカンドタスクの状態を変えることとを同時には行えない。把持状態判定部4が判定する記憶部6に記憶された把持状態判定部4及び第1のセカンドタスク判定部5aが判定する予め設定された時間間隔が、ハンドルから手を離す動作と、セカンドタスクの状態を変えることとを同時に行える程度に長い場合、例えば0.5秒よりも長い場合は、2つ目の把持状態の条件は設定しなくてもよい。The second gripping state condition is when the driver changes from a state where he/she grips the steering wheel with both hands to a state where he/she does not grip the steering wheel with both hands, that is, when the previous judgment result of the gripping state judgment unit 4 was "both hands" and the latest judgment result of the gripping state judgment unit 4 is either "right hand", "left hand", "one hand" or "no grip". The second pre-set gripping state condition is set when the pre-set time interval judged by the gripping state judgment unit 4 is sufficiently short, for example, shorter than 0.5 seconds. For example, the action of releasing the hands from the steering wheel and the change of the state of the second task cannot be performed simultaneously in a time shorter than 0.5 seconds. If the pre-set time interval judged by the gripping state judgment unit 4 and the first second task judgment unit 5a stored in the memory unit 6 judged by the gripping state judgment unit 4 is long enough to allow the action of releasing the hands from the steering wheel and the change of the state of the second task to be performed simultaneously, for example, longer than 0.5 seconds, the second gripping state condition does not need to be set.

3つ目の把持状態の条件は、運転者が両手でハンドルを把持していない状態から両手でハンドルを把持する状態に変化した場合、すなわち前回の把持状態判定部4の判定結果が「右手」、「左手」、「片手」又は「把持無し」のいずれかであり、最新の把持状態判定部4の判定結果が「両手」である場合である。運転者が両手でハンドルを把持していない状態から両手でハンドルを把持する状態に変化した場合は、ハンドルを両手は把持する動作と、セカンドタスクの状態を変えることとを同時には行えない。The third gripping state condition is when the driver changes from a state where he/she is not gripping the steering wheel with both hands to a state where he/she is gripping the steering wheel with both hands, that is, when the previous judgment result of the gripping state judgment unit 4 was either "right hand", "left hand", "one hand" or "not gripping" and the latest judgment result of the gripping state judgment unit 4 is "both hands". When the driver changes from a state where he/she is not gripping the steering wheel with both hands to a state where he/she is gripping the steering wheel with both hands, the action of gripping the steering wheel with both hands and the change of the state of the second task cannot be performed simultaneously.

次に、乗員監視装置20による乗員監視方法について説明する。図4は実施の形態2の乗員監視装置20の処理動作を示すフローチャートである。Next, we will explain the occupant monitoring method using the occupant monitoring device 20. Figure 4 is a flowchart showing the processing operation of the occupant monitoring device 20 in embodiment 2.

ステップS201及びステップS202は、実施の形態のステップS101及びステップS102とそれぞれ同様である。 Steps S201 and S202 are similar to steps S101 and S102, respectively, in the embodiment.

ステップS203では、第1のセカンドタスク判定部5aは、画像取得部3により取得した撮像画像を用いて、セカンドタスクが実施されているか否かを判定する。また、第1のセカンドタスク判定部5aはセカンドタスクが実施されていると判定した場合、さらにセカンドタスクの種類を判定してもよい。In step S203, the first second task determination unit 5a determines whether or not a second task is being performed, using the captured image acquired by the image acquisition unit 3. If the first second task determination unit 5a determines that a second task is being performed, it may further determine the type of the second task.

ステップS204では、把持状態判定部4は、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する。ステップS203及びステップS204は同時に実施してもよく、ステップS204のあとにステップS203を実施してもよい。In step S204, the grip state determination unit 4 determines the grip state indicating whether the driver is gripping the steering wheel with both hands. Steps S203 and S204 may be performed simultaneously, or step S203 may be performed after step S204.

ステップS205では、記憶部6はステップS203における第1のセカンドタスク判定部5aの判定結果及びステップS204における把持状態判定部4の判定結果を記憶する。 In step S205, the memory unit 6 stores the judgment result of the first second task judgment unit 5a in step S203 and the judgment result of the grasping state judgment unit 4 in step S204.

ステップS206~ステップS210では、第2のセカンドタスク判定部5bは、記憶部6に記憶された第1のセカンドタスク判定部5aの判定結果及び把持状態判定部4の判定結果に基づき、セカンドタスクが実施されているか否かを判定する。In steps S206 to S210, the second second task judgment unit 5b judges whether or not the second task is being performed based on the judgment result of the first second task judgment unit 5a stored in the memory unit 6 and the judgment result of the grasping state judgment unit 4.

まず、ステップS206では、第2のセカンドタスク判定部5bはセカンドタスクの状態が変化したか否かを判定する。すなわち、第2のセカンドタスク判定部5bは最新の第1のセカンドタスク判定部5aの判定結果と前回の第1のセカンドタスク判定部5aの判定結果とが異なる場合にセカンドタスクの状態が変化したと判定し、最新の第1のセカンドタスク判定部5aの判定結果と前回の第1のセカンドタスク判定部5aの判定結果とが同じ場合はセカンドタスクの状態に変化はないと判定する。セカンドタスクの状態が変化するとは、セカンドタスクが実施されているか否かの状態が変化する、又はセカンドタスクの種類が変化することである。First, in step S206, the second second task judgment unit 5b judges whether the state of the second task has changed. That is, the second second task judgment unit 5b judges that the state of the second task has changed if the latest judgment result of the first second task judgment unit 5a is different from the previous judgment result of the first second task judgment unit 5a, and judges that the state of the second task has not changed if the latest judgment result of the first second task judgment unit 5a is the same as the previous judgment result of the first second task judgment unit 5a. A change in the state of the second task means a change in the state of whether the second task is being performed or a change in the type of the second task.

セカンドタスクの状態が変化した場合(ステップS206のYES)は、第2のセカンドタスク判定部5bは把持状態が予め設定された条件を満たすか否かを判定する(ステップS207)。把持状態の予め設定された条件は上述の表1に示す3つのうち少なくとも1つ以上である。If the state of the second task has changed (YES in step S206), the second second task determination unit 5b determines whether the gripping state satisfies a preset condition (step S207). The preset condition of the gripping state is at least one of the three conditions shown in Table 1 above.

把持状態が予め設定された条件を満たす場合(ステップS207のYES)は、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aの判定結果を無効と判定し(ステップS208)、ステップS209に進む。ステップS209では、第2のセカンドタスク判定部5bはステップS205において記憶部6に記憶された第1のセカンドタスク判定部5aの判定結果を修正する。より具体的には、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aにより判定された最新のセカンドタスクの判定結果を削除しデータなしとする、又は前回のセカンドタスクの判定結果と同一の判定結果に修正する。If the grip state satisfies the preset condition (YES in step S207), the second second task judgment unit 5b judges the judgment result of the first second task judgment unit 5a to be invalid (step S208), and proceeds to step S209. In step S209, the second second task judgment unit 5b corrects the judgment result of the first second task judgment unit 5a stored in the memory unit 6 in step S205. More specifically, the second second task judgment unit 5b deletes the judgment result of the latest second task judged by the first second task judgment unit 5a and sets it to no data, or corrects it to the same judgment result as the previous judgment result of the second task.

把持状態が予め設定された条件を満たさない場合(ステップS207のNO)は、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aの判定結果を有効と判定する(ステップS210)。また、ステップS206において、セカンドタスクの状態が変化しない場合も、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aの判定結果を有効と判定する(ステップS210)。If the grip state does not satisfy the preset condition (NO in step S207), the second second task judgment unit 5b judges that the judgment result of the first second task judgment unit 5a is valid (step S210). Also, if the state of the second task does not change in step S206, the second second task judgment unit 5b judges that the judgment result of the first second task judgment unit 5a is valid (step S210).

ステップS211及びステップS212は、実施の形態のステップS111及びステップS112とそれぞれ同様である。
以上により、乗員監視装置20の処理動作を終了する。
Steps S211 and S212 are similar to steps S111 and S112, respectively, in the embodiment.
This completes the processing operation of the occupant monitoring device 20.

実施の形態1と同様に、本実施の形態における乗員監視装置20は、撮像画像を用いて、運転者が運転中に行う運転以外の行為であるセカンドタスクが実施されているか否かを判定する第1のセカンドタスク判定部5aと、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する把持状態判定部4と、第1のセカンドタスク判定部5aの判定結果及び把持状態判定部4の判定結果に基づき、セカンドタスクが実施されているか否かを判定する第2のセカンドタスク判定部5bを備える。これにより、乗員監視装置20は、セカンドタスクの判定を高精度に行うことができる。As in the first embodiment, the occupant monitoring device 20 in this embodiment includes a first second task determination unit 5a that uses a captured image to determine whether or not a second task, which is an action other than driving that the driver performs while driving, is being performed, a gripping state determination unit 4 that determines a gripping state indicating whether or not the driver is gripping the steering wheel with both hands, and a second second task determination unit 5b that determines whether or not the second task is being performed based on the determination results of the first second task determination unit 5a and the determination results of the gripping state determination unit 4. This allows the occupant monitoring device 20 to perform highly accurate determination of the second task.

また、第2のセカンドタスク判定部5bは、把持状態に応じて、第1のセカンドタスク判定部5aによる判定結果を有効とするか否かを判定する。より具体的には、第2のセカンドタスク判定部5bは、セカンドタスクの状態が変化した場合に、把持状態が予め設定された条件を満たさない場合は、第1のセカンドタスク判定部5aの判定結果を有効とし、セカンドタスクの状態が変化した場合に、把持状態が予め設定された条件を満たす場合は、第1のセカンドタスク判定部5aの判定結果を無効とする。
第2のセカンドタスク判定部5bは、最新の第1のセカンドタスク判定部5aの判定結果と前回の第1のセカンドタスク判定部5aの判定結果とが異なる場合にセカンドタスクの状態が変化したと判定し、最新の第1のセカンドタスク判定部5aの判定結果と前回の第1のセカンドタスク判定部5aの判定結果とが同じ場合はセカンドタスクの状態に変化はないと判定する。
把持状態の予め設定された条件は、セカンドタスクの状態が変化する可能性がない条件である。そのため、セカンドタスクの状態が変化した場合に、把持状態が予め設定された条件である場合は、第1のセカンドタスク判定部5aの判定結果は誤りである。そこで、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aの判定結果を無効とすることにより、セカンドタスクの判定をより高精度に行うことができる。
Furthermore, the second second task determination unit 5b determines whether or not to validate the determination result by the first second task determination unit 5a depending on the gripping state. More specifically, when the state of the second task changes and the gripping state does not satisfy a preset condition, the second second task determination unit 5b validates the determination result of the first second task determination unit 5a, and invalidates the determination result of the first second task determination unit 5a when the state of the second task changes and the gripping state satisfies the preset condition.
The second second task judgment unit 5b judges that the state of the second task has changed if the latest judgment result of the first second task judgment unit 5a is different from the previous judgment result of the first second task judgment unit 5a, and judges that the state of the second task has not changed if the latest judgment result of the first second task judgment unit 5a is the same as the previous judgment result of the first second task judgment unit 5a.
The preset condition of the gripping state is a condition under which the state of the second task is unlikely to change. Therefore, if the gripping state is in the preset condition when the state of the second task changes, the judgment result of the first second task judgment unit 5a is erroneous. Therefore, the second second task judgment unit 5b invalidates the judgment result of the first second task judgment unit 5a, thereby making it possible to more accurately judge the second task.

具体的に、把持状態の予め設定された条件は、運転者が両手でハンドルを把持している状態が継続している場合、運転者が両手でハンドルを把持している状態から運転者が両手でハンドルを把持していない状態に変化した場合、及び運転者が両手でハンドルを把持していない状態から運転者が両手でハンドルを把持している状態に変化した場合のうち少なくともいずれか1つ以上である。これらの条件は、セカンドタスクの状態が変化する可能性がない条件である。Specifically, the preset conditions for the gripping state are at least one of the following: the driver continues to grip the steering wheel with both hands, the state changes from the driver gripping the steering wheel with both hands to the state where the driver is not gripping the steering wheel with both hands, and the state changes from the driver not gripping the steering wheel with both hands to the state where the driver is gripping the steering wheel with both hands. These conditions are conditions under which the state of the second task is not likely to change.

実施の形態3.
実施の形態3における乗員監視装置20について説明する。実施の形態3の乗員監視装置20の構成は、実施の形態1又は実施の形態2の乗員監視装置20の構成と同様である。実施の形態1及び実施の形態2と同様の構成については、同一符号が付されている。
Embodiment 3.
An occupant monitoring device 20 in embodiment 3 will be described. The configuration of the occupant monitoring device 20 in embodiment 3 is similar to the configuration of the occupant monitoring device 20 in embodiment 1 or embodiment 2. The same components as those in embodiment 1 and embodiment 2 are denoted by the same reference numerals.

実施の形態1及び実施の形態2の乗員監視装置20では、第1のセカンドタスク判定部5aによるセカンドタスクの判定と把持状態判定部4による把持状態の判定とが実施された後に、第2のセカンドタスク判定部5bによる判定を実施する。
実施の形態3の乗員監視装置20では、把持状態判定部4による把持状態の判定が実施された後に、第2のセカンドタスク判定部5bによる判定を実施する。そして、第2のセカンドタスク判定部5bは、把持状態に応じて、第1のセカンドタスク判定部5aによる判定を実施させるか否かを判定する。より具体的には、第2のセカンドタスク判定部5bは、把持状態が予め設定された条件を満たさない場合は、第1のセカンドタスク判定部5aによる判定を実施させ、把持状態が予め設定された条件を満たす場合は、第1のセカンドタスク判定部5aによる判定を実施させない。
In the occupant monitoring device 20 of embodiments 1 and 2, after the first second task judgment unit 5a judges the second task and the grasping state judgment unit 4 judges the grasping state, a judgment is made by the second second task judgment unit 5b.
In the occupant monitoring device 20 of the third embodiment, after the grasping state determination unit 4 determines the grasping state, the second second task determination unit 5b performs a determination. Then, the second second task determination unit 5b determines whether or not to cause the first second task determination unit 5a to perform a determination depending on the grasping state. More specifically, if the grasping state does not satisfy a preset condition, the second second task determination unit 5b causes the first second task determination unit 5a to perform a determination, and if the grasping state satisfies the preset condition, the second second task determination unit 5b does not cause the first second task determination unit 5a to perform a determination.

乗員監視装置20による乗員監視方法について説明する。図5は実施の形態3の乗員監視装置20の処理動作を示すフローチャートである。We will now explain the occupant monitoring method using the occupant monitoring device 20. Figure 5 is a flowchart showing the processing operation of the occupant monitoring device 20 in embodiment 3.

ステップS301からステップS303は、実施の形態1のステップS101からステップS103とそれぞれ同じである。 Steps S301 to S303 are the same as steps S101 to S103, respectively, in embodiment 1.

ステップS304では、記憶部6は把持状態判定部4の判定結果を記憶する。 In step S304, the memory unit 6 stores the judgment result of the gripping state judgment unit 4.

ステップS305では、第2のセカンドタスク判定部5bは把持状態が予め設定された条件を満たすか否かを判定する。ステップS305の詳細な説明は省略するが、実施の形態2のステップS207と同様である。把持状態の予め設定された条件は、運転者が両手でハンドルを把持している状態が継続している場合、運転者が両手でハンドルを把持している状態から運転者が両手でハンドルを把持していない状態に変化した場合、及び運転者が両手でハンドルを把持していない状態から運転者が両手でハンドルを把持している状態に変化した場合のうち少なくともいずれか1つ以上である。In step S305, the second second task determination unit 5b determines whether the gripping state satisfies a preset condition. A detailed description of step S305 is omitted, but it is similar to step S207 in embodiment 2. The preset condition of the gripping state is at least one of the following: the driver continues to grip the steering wheel with both hands, the driver changes from a state in which the driver grips the steering wheel with both hands to a state in which the driver is not gripping the steering wheel with both hands, and the driver changes from a state in which the driver is not gripping the steering wheel with both hands to a state in which the driver is gripping the steering wheel with both hands.

把持状態が予め設定された条件を満たす場合(ステップS305のYES)は、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aによる判定を実施させることなく、乗員監視装置20の処理動作を終了させる。If the gripping state satisfies the preset condition (YES in step S305), the second second task judgment unit 5b terminates the processing operation of the occupant monitoring device 20 without causing the first second task judgment unit 5a to perform a judgment.

把持状態が予め設定された条件を満たさない場合(ステップS305のNO)は、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aによる判定を実施させる(ステップS306)。次に、第1のセカンドタスク判定部5aはセカンドタスクが実施されているか否かを判定する(ステップS307)。また、ステップS307において、第1のセカンドタスク判定部5aはセカンドタスクが実施されている場合に、セカンドタスクの種類の判定をさらに実施してもよい。If the gripping state does not satisfy the preset condition (NO in step S305), the second second task determination unit 5b causes the first second task determination unit 5a to perform a determination (step S306). Next, the first second task determination unit 5a determines whether or not a second task is being performed (step S307). In addition, in step S307, the first second task determination unit 5a may further perform a determination of the type of the second task if the second task is being performed.

そして、ステップS308では、記憶部6は第1のセカンドタスク判定部5aの判定結果を記憶する。 Then, in step S308, the memory unit 6 stores the judgment result of the first second task judgment unit 5a.

ステップS309及びステップS310は、実施の形態1のステップS111及びステップS112とそれぞれ同様である。
以上により、乗員監視装置20の処理動作を終了する。
Steps S309 and S310 are similar to steps S111 and S112 in the first embodiment, respectively.
This completes the processing operation of the occupant monitoring device 20.

実施の形態1と同様に、本実施の形態における乗員監視装置20は、撮像画像を用いて、運転者が運転中に行う運転以外の行為であるセカンドタスクが実施されているか否かを判定する第1のセカンドタスク判定部5aと、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する把持状態判定部4と、第1のセカンドタスク判定部5aの判定結果及び把持状態判定部4の判定結果に基づき、セカンドタスクが実施されているか否かを判定する第2のセカンドタスク判定部5bを備える。これにより、乗員監視装置20は、セカンドタスクの判定を高精度に行うことができる。As in the first embodiment, the occupant monitoring device 20 in this embodiment includes a first second task determination unit 5a that uses a captured image to determine whether or not a second task, which is an action other than driving that the driver performs while driving, is being performed, a gripping state determination unit 4 that determines a gripping state indicating whether or not the driver is gripping the steering wheel with both hands, and a second second task determination unit 5b that determines whether or not the second task is being performed based on the determination results of the first second task determination unit 5a and the determination results of the gripping state determination unit 4. This allows the occupant monitoring device 20 to perform highly accurate determination of the second task.

また、第2のセカンドタスク判定部5bは、把持状態に応じて、第1のセカンドタスク判定部5aによる判定を実施させるか否かを判定する。より具体的には、第2のセカンドタスク判定部5bは、把持状態が予め設定された条件を満たさない場合は、第1のセカンドタスク判定部5aによる判定を実施させ、把持状態が予め設定された条件を満たす場合は、第1のセカンドタスク判定部5aによる判定を実施させない。これにより、把持状態が予め設定された条件を満たす場合における第1のセカンドタスク判定部5aの誤判定を防ぐことができるので、セカンドタスクの判定を高精度に行うことができる。 In addition, the second second task judgment unit 5b judges whether or not to cause the first second task judgment unit 5a to perform judgment depending on the gripping state. More specifically, the second second task judgment unit 5b causes the first second task judgment unit 5a to perform judgment when the gripping state does not satisfy a preset condition, and does not cause the first second task judgment unit 5a to perform judgment when the gripping state satisfies the preset condition. This makes it possible to prevent erroneous judgment by the first second task judgment unit 5a when the gripping state satisfies the preset condition, thereby making it possible to perform judgment of the second task with high accuracy.

また、把持状態が予め設定された条件を満たす場合は、セカンドタスクの状態が変化することはないので、第2のセカンドタスク判定部5bは第1のセカンドタスク判定部5aにおける判定の処理を省くことができる。これにより、乗員監視装置20の処理負荷を軽減できる。In addition, if the grip state satisfies a preset condition, the state of the second task does not change, so the second second task determination unit 5b can omit the determination process in the first second task determination unit 5a. This reduces the processing load on the occupant monitoring device 20.

実施の形態4.
実施の形態4における乗員監視装置20について図6を用いて説明する。図6は実施の形態4の乗員監視装置20を備えた車両30の一部を示すブロック図である。実施の形態1では、把持状態判定部4は撮像画像を用いて把持状態を判定する例を示した。実施の形態4では、把持状態判定部4はハンズオンセンサ9のハンズオン信号を用いて把持状態を判定する。その他の乗員監視装置20の構成は実施の形態1から3のいずれか1つと同様である。実施の形態1から3と同様の構成については、同一符号が付されている。
Embodiment 4.
The occupant monitoring device 20 in the fourth embodiment will be described with reference to Fig. 6. Fig. 6 is a block diagram showing a part of a vehicle 30 equipped with the occupant monitoring device 20 in the fourth embodiment. In the first embodiment, an example was shown in which the gripping state determination unit 4 determines the gripping state using a captured image. In the fourth embodiment, the gripping state determination unit 4 determines the gripping state using a hands-on signal from the hands-on sensor 9. The rest of the configuration of the occupant monitoring device 20 is the same as any one of the first to third embodiments. The same reference numerals are used for the same configurations as those in the first to third embodiments.

実施の形態1と同様に、把持状態判定部4は、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する。すなわち、把持状態判定部4は、「両手」、「右手」、「左手」、「片手」、及び「把持無し」のうちいずれの把持状態であるかを判定する。As in the first embodiment, the gripping state determination unit 4 determines the gripping state indicating whether or not the driver is gripping the steering wheel with both hands. That is, the gripping state determination unit 4 determines which of the gripping states is "both hands," "right hand," "left hand," "one hand," or "not gripping."

ハンズオンセンサ9は車両30のハンドルに設けられ、ハンドルに運転者の両手が触れる状態、右手が触れる状態、左手が触れる状態、片手が触れる状態、及び両手ともに触れていない状態のうちいずれか1つのハンズオン信号を把持状態判定部4に出力する。ここでは、ハンズオンセンサ9は圧力センサである例を示す。The hands-on sensor 9 is provided on the steering wheel of the vehicle 30, and outputs a hands-on signal to the grip state determination unit 4 indicating one of the following states: when both hands of the driver are touching the steering wheel, when the right hand is touching, when the left hand is touching, when one hand is touching, and when neither hand is touching the steering wheel. Here, an example is shown in which the hands-on sensor 9 is a pressure sensor.

ハンズオンセンサ9は、ハンドルの左右にそれぞれ設けられる。ハンズオンセンサ9はハンドルの左右半分の全体にそれぞれ設けられてもよく、把持されると推定される箇所に限定して設けられてもよい。ハンズオンセンサ9は圧力に応じた電流値を検出し、予め設定された閾値以上の電流値を検出した場合に、ハンドルに運転者の手が触れたと判定する。例えば、ハンドルの左右にそれぞれ設けられたハンズオンセンサ9の両方において予め設定された閾値以上の電流値を検出した場合、ハンズオンセンサ9はハンドルに運転者の両手が触れる状態を示すハンズオン信号を出力する。ハンドルの右側に設けられたハンズオンセンサ9のみが予め設定された閾値以上の電流値を検出した場合、ハンズオンセンサ9はハンドルに運転者の右手又は片手が触れる状態を示すハンズオン信号を出力する。ハンドルの左側に設けられたハンズオンセンサ9のみが予め設定された閾値以上の電流値を検出した場合、ハンズオンセンサ9はハンドルに運転者の左手又は片手が触れる状態を示すハンズオン信号を出力する。ハンドルの左右にそれぞれ設けられたハンズオンセンサ9の両方において、予め設定された閾値以上の電流値を検出した場合、ハンズオンセンサ9は運転者の両手ともにハンドルに触れていない状態を示すハンズオン信号を出力する。
把持状態判定部4は、ハンズオンセンサ9のハンズオン信号を用いて把持状態を判定する。
The hands-on sensor 9 is provided on the left and right sides of the steering wheel. The hands-on sensor 9 may be provided on the entire left and right halves of the steering wheel, or may be provided only at a location that is estimated to be gripped. The hands-on sensor 9 detects a current value according to pressure, and when it detects a current value equal to or greater than a preset threshold, it determines that the driver's hands are touching the steering wheel. For example, when both of the hands-on sensors 9 provided on the left and right sides of the steering wheel detect a current value equal to or greater than a preset threshold, the hands-on sensor 9 outputs a hands-on signal indicating that both of the driver's hands are touching the steering wheel. When only the hands-on sensor 9 provided on the right side of the steering wheel detects a current value equal to or greater than a preset threshold, the hands-on sensor 9 outputs a hands-on signal indicating that the driver's right hand or one hand is touching the steering wheel. When only the hands-on sensor 9 provided on the left side of the steering wheel detects a current value equal to or greater than a preset threshold, the hands-on sensor 9 outputs a hands-on signal indicating that the driver's left hand or one hand is touching the steering wheel. If both of the hands-on sensors 9, installed on the left and right sides of the steering wheel, detect a current value above a predetermined threshold value, the hands-on sensor 9 outputs a hands-on signal indicating that neither of the driver's hands are touching the steering wheel.
The gripping state determination unit 4 determines the gripping state using a hands-on signal from the hands-on sensor 9.

乗員監視装置20による乗員監視方法は、実施の形態1から3の乗員監視装置20による乗員監視方法と同様である。上述のとおり、ステップS107、S207、S305では、把持状態判定部4は、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する。その際、把持状態判定部4はハンズオンセンサ9のハンズオン信号を用いて把持状態を判定する。The occupant monitoring method by the occupant monitoring device 20 is the same as the occupant monitoring method by the occupant monitoring device 20 in the first to third embodiments. As described above, in steps S107, S207, and S305, the gripping state determination unit 4 determines the gripping state indicating whether or not the driver is gripping the steering wheel with both hands. At that time, the gripping state determination unit 4 determines the gripping state using the hands-on signal of the hands-on sensor 9.

実施の形態1と同様に、本実施の形態における乗員監視装置20は、撮像画像を用いて、運転者が運転中に行う運転以外の行為であるセカンドタスクが実施されているか否かを判定する第1のセカンドタスク判定部5aと、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する把持状態判定部4と、第1のセカンドタスク判定部5aの判定結果及び把持状態判定部4の判定結果に基づき、セカンドタスクが実施されているか否かを判定する第2のセカンドタスク判定部5bを備える。これにより、乗員監視装置20は、セカンドタスクの判定を高精度に行うことができる。As in the first embodiment, the occupant monitoring device 20 in this embodiment includes a first second task determination unit 5a that uses a captured image to determine whether or not a second task, which is an action other than driving that the driver performs while driving, is being performed, a gripping state determination unit 4 that determines a gripping state indicating whether or not the driver is gripping the steering wheel with both hands, and a second second task determination unit 5b that determines whether or not the second task is being performed based on the determination results of the first second task determination unit 5a and the determination results of the gripping state determination unit 4. This allows the occupant monitoring device 20 to perform highly accurate determination of the second task.

また、把持状態判定部4は、ハンドルの左右にそれぞれ設けられた圧力センサであるハンズオンセンサ9のハンズオン信号を用いて把持状態を判定する。ハンズオンセンサ9は、ハンドルに運転者の手が触れた場合に予め設定された閾値以上の電流値を検出する。そのため、撮像画像を用いて把持状態を判定する場合に比べ、ハンズオンセンサ9を用いて把持状態を判定する場合の方が、把持状態を正確に判定することができる。 The gripping state determination unit 4 also determines the gripping state using a hands-on signal from the hands-on sensors 9, which are pressure sensors provided on the left and right sides of the steering wheel. The hands-on sensors 9 detect a current value equal to or greater than a preset threshold when the driver's hands touch the steering wheel. Therefore, the gripping state can be determined more accurately when the hands-on sensor 9 is used to determine the gripping state, compared to when a captured image is used to determine the gripping state.

なお、ハンズオンセンサ9は圧力センサである例を示したが、これに限られない。例えば、ハンズオンセンサ9は静電容量式センサでもよく、温度センサでもよい。ハンズオンセンサ9が静電容量式センサである場合、ハンドルは電極を有し、運転者の手と電極との距離によって変化する静電容量に基づいて把持状態を判定する。ハンズオンセンサ9が温度センサである場合は、ハンドルの運転者が把持する箇所は体温により他のハンドルの部分よりも温度が高くなる。そのため、温度センサによる測定温度が予め設定された閾値以上である場合に、ハンドルが把持されていると判定すればよい。このように、把持状態判定部4は、ハンドルの左右にそれぞれ設けられた静電容量式センサ、又は温度センサであるハンズオンセンサ9のハンズオン信号を用いて把持状態を判定してもよい。この場合もハンズオンセンサ9が圧力センサである場合と同様に、撮像画像を用いて把持状態を判定する場合に比べ、ハンズオンセンサ9を用いて把持状態を判定する場合は、把持状態を正確に判定することができる。 Although the hands-on sensor 9 is a pressure sensor, the present invention is not limited to this. For example, the hands-on sensor 9 may be a capacitance sensor or a temperature sensor. When the hands-on sensor 9 is a capacitance sensor, the steering wheel has electrodes, and the gripping state is determined based on the capacitance that changes depending on the distance between the driver's hands and the electrodes. When the hands-on sensor 9 is a temperature sensor, the part of the steering wheel that the driver grips is hotter than the other parts of the steering wheel due to body heat. Therefore, when the temperature measured by the temperature sensor is equal to or higher than a preset threshold value, it is sufficient to determine that the steering wheel is being gripped. In this way, the gripping state determination unit 4 may determine the gripping state using a hands-on signal from the hands-on sensor 9, which is a capacitance sensor or a temperature sensor provided on the left and right sides of the steering wheel. In this case, as in the case where the hands-on sensor 9 is a pressure sensor, the gripping state can be determined more accurately when the gripping state is determined using the hands-on sensor 9 than when the gripping state is determined using a captured image.

実施の形態5.
実施の形態5における乗員監視装置20について図7を用いて説明する。図7は実施の形態4の乗員監視装置20を備えた車両30の一部を示すブロック図である。本実施の形態の車両30は、自動運転を実施する自動運転制御部10、及び自動運転レベルを制御する自動運転レベル制御部11を有する。実施の形態1と同様の構成については、同一符号が付されている。
Embodiment 5.
The occupant monitoring device 20 in the fifth embodiment will be described with reference to Fig. 7. Fig. 7 is a block diagram showing a part of a vehicle 30 equipped with the occupant monitoring device 20 in the fourth embodiment. The vehicle 30 in this embodiment has an autonomous driving control unit 10 that performs autonomous driving, and an autonomous driving level control unit 11 that controls the autonomous driving level. The same reference numerals are used for the same components as in the first embodiment.

自動運転制御部10は、運転支援ECU及び自動運転ECUにより構成される。運転支援ECUは、運転者の運転操作を支援する運転支援機能を実現する電子制御装置である。運転支援ECUは、自動運転レベルにおいてレベル2以下の高度運転支援又は部分的な自動走行制御を可能にする。自動運転ECUは、運転者の運転操作を代行可能な自動運転機能を実現させる電子制御装置である。自動運転ECUは、予め設定された限定的な運行設計領域に限り、車両30のシステムが制御主体となるレベル3以上の自律走行を可能にする。The autonomous driving control unit 10 is composed of a driving assistance ECU and an autonomous driving ECU. The driving assistance ECU is an electronic control device that realizes a driving assistance function that assists the driver in driving operations. The driving assistance ECU enables advanced driving assistance or partial autonomous driving control at level 2 or below in terms of autonomous driving level. The autonomous driving ECU is an electronic control device that realizes an autonomous driving function that can take over driving operations from the driver. The autonomous driving ECU enables autonomous driving of level 3 or above, where the vehicle 30 system is the controlling entity, only within a limited operation design area that has been set in advance.

ここで、自動運転レベルについて説明する。自動運転レベルがレベル0の場合、運転行為の全てについて運転者が実施主体となる。自動運転レベルがレベル1の場合、運転行為のうち、車両操舵か、車両駆動及び車両制動のいずれか一方の実施主体が車両30の運転支援ECUであり、その他の運転行為の全ての実施主体が運転者となる。自動運転レベルがレベル2の場合、車両操舵、車両駆動及び車両制動の運転操作の実施主体が車両30の運転支援ECUである。自動運転レベルがレベル2の場合、運転者は、周辺監視の実施主体となると共に、車両30による運転操作の実施状況を監視し、当該運転操作に常に介入できるよう、ハンドルを把持する等の即時運転操作可能な状態を保つ必要がある。自動運転レベルがレベル3の場合、車両操舵、車両駆動、車両制動及び周辺監視の全ての運転行為の実施主体が車両30の自動運転ECUである。自動運転レベルがレベル3の場合、運転者は、自動運転ECUによる運転行為の実施状況を常時監視することなく、安全上許容された範囲でセカンドタスクを実施することができる。安全上許容された範囲は、法規的に定められてもよく、実際の運転における安全性に基づき定められてもよい。すなわち、自動運転レベルがレベル0~2の場合、運転者はセカンドタスクを実施することは禁止されているが、自動運転レベルがレベル3の場合は、安全上許容された範囲でセカンドタスクを実施することができる。また、自動運転レベルがレベル4以上の場合もセカンドタスクを実施することができる。Here, the autonomous driving levels are explained. When the autonomous driving level is level 0, the driver is the main actor in all driving actions. When the autonomous driving level is level 1, the main actor in either vehicle steering or vehicle driving and vehicle braking among the driving actions is the driving assistance ECU of the vehicle 30, and the main actor in all other driving actions is the driver. When the autonomous driving level is level 2, the main actor in the driving operations of vehicle steering, vehicle driving and vehicle braking is the driving assistance ECU of the vehicle 30. When the autonomous driving level is level 2, the driver is the main actor in the monitoring of the surroundings, and is required to monitor the implementation status of the driving operation by the vehicle 30 and maintain a state in which he/she can perform immediate driving operations such as holding the steering wheel so that he/she can always intervene in the driving operation. When the autonomous driving level is level 3, the main actor in the driving actions of vehicle steering, vehicle driving, vehicle braking and surrounding monitoring is the autonomous driving ECU of the vehicle 30. When the autonomous driving level is level 3, the driver can perform the second task within the range permitted for safety without constantly monitoring the implementation status of the driving action by the autonomous driving ECU. The range permitted from the viewpoint of safety may be determined by law or based on the safety of actual driving. That is, when the autonomous driving level is level 0 to 2, the driver is prohibited from performing the second task, but when the autonomous driving level is level 3, the driver can perform the second task within the range permitted from the viewpoint of safety. Also, when the autonomous driving level is level 4 or higher, the driver can perform the second task.

自動運転レベル制御部11は、自動運転レベルを切り替える制御をする。また、自動運転レベル制御部11は、第2のセカンドタスク判定部5b及び自動運転制御部10に自動運転レベルを示す信号を送信する。The autonomous driving level control unit 11 controls switching of the autonomous driving level. The autonomous driving level control unit 11 also transmits a signal indicating the autonomous driving level to the second task determination unit 5b and the autonomous driving control unit 10.

表示部8は運転者にセカンドタスクの終了を促す音声及び画像の少なくともいずれか一方を表示する。この際、表示部8は自動運転が終了することも併せて運転者に表示するとよい。The display unit 8 displays at least one of a sound and an image to prompt the driver to end the second task. At this time, the display unit 8 may also notify the driver that the autonomous driving is ending.

次に、乗員監視装置20による乗員監視方法について説明する。図8は実施の形態5の乗員監視装置20の処理動作を示すフローチャートである。Next, we will explain the occupant monitoring method using the occupant monitoring device 20. Figure 8 is a flowchart showing the processing operation of the occupant monitoring device 20 in embodiment 5.

まず、ステップS501では、第2のセカンドタスク判定部5bは自動運転レベル制御部11から現在の自動運転レベルのレベルを示す情報を取得し、自動運転レベルがレベル3より小さいか否かを判定する。自動運転レベルがレベル3より小さい、すなわちレベル0からレベル2の場合(ステップS501のYES)、図8では省略しているが実施の形態1から3のいずれかに記載の乗員監視装置20の処理動作を実施する。First, in step S501, the second task determination unit 5b obtains information indicating the current autonomous driving level from the autonomous driving level control unit 11, and determines whether the autonomous driving level is lower than level 3. If the autonomous driving level is lower than level 3, i.e., between level 0 and level 2 (YES in step S501), the processing operation of the occupant monitoring device 20 described in any one of embodiments 1 to 3 is performed, although it is omitted in FIG. 8.

自動運転レベルがレベル3以上である場合(ステップS501のNO)、第2のセカンドタスク判定部5bは自動運転レベル制御部11において自動運転レベルをレベル3以上からレベル2以下に変更する制御を実施するか否かを判定する(ステップS502)。例えば、自動運転レベルをレベル3からレベル2に変更する制御を実施する場合は、自動運転レベル制御部11がナビゲーション装置から車両30が予め設定された限定的な運行設計領域の領域外を走行すること予定である情報を取得した場合である。If the autonomous driving level is level 3 or higher (NO in step S501), the second second task determination unit 5b determines whether or not to implement control in the autonomous driving level control unit 11 to change the autonomous driving level from level 3 or higher to level 2 or lower (step S502). For example, control to change the autonomous driving level from level 3 to level 2 is implemented when the autonomous driving level control unit 11 acquires information from the navigation device that the vehicle 30 is scheduled to travel outside the area of a limited operation design area that has been set in advance.

自動運転レベルをレベル3以上からレベル2以下に変更する制御を実施しない場合(ステップS502のNO)、すなわち自動運転レベルがレベル3以上を維持する場合は、ステップS502の処理動作を繰り返す。これは、自動運転レベルがレベル3以上の場合はセカンドタスクの実施が許容されているため、セカンドタスクが実施されているか否かを判定する必要がないためである。If control to change the autonomous driving level from level 3 or higher to level 2 or lower is not performed (NO in step S502), i.e., if the autonomous driving level is maintained at level 3 or higher, the processing operation of step S502 is repeated. This is because, when the autonomous driving level is level 3 or higher, the execution of the second task is permitted, and therefore, there is no need to determine whether the second task is being executed.

自動運転レベルをレベル3以上からレベル2以下に変更する制御を実施する場合(ステップS502のYES)、図8では省略しているが実施の形態1から3のいずれかに記載の乗員監視装置20の処理動作を実施する。When control is performed to change the autonomous driving level from level 3 or higher to level 2 or lower (YES in step S502), a processing operation of the occupant monitoring device 20 described in any one of embodiments 1 to 3 is performed, although it is omitted in Figure 8.

実施の形態1と同様に、本実施の形態における乗員監視装置20は、撮像画像を用いて、運転者が運転中に行う運転以外の行為であるセカンドタスクが実施されているか否かを判定する第1のセカンドタスク判定部5aと、運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する把持状態判定部4と、第1のセカンドタスク判定部5aの判定結果及び把持状態判定部4の判定結果に基づき、セカンドタスクが実施されているか否かを判定する第2のセカンドタスク判定部5bを備える。これにより、乗員監視装置20は、セカンドタスクの判定を高精度に行うことができる。As in the first embodiment, the occupant monitoring device 20 in this embodiment includes a first second task determination unit 5a that uses a captured image to determine whether or not a second task, which is an action other than driving that the driver performs while driving, is being performed, a gripping state determination unit 4 that determines a gripping state indicating whether or not the driver is gripping the steering wheel with both hands, and a second second task determination unit 5b that determines whether or not the second task is being performed based on the determination results of the first second task determination unit 5a and the determination results of the gripping state determination unit 4. This allows the occupant monitoring device 20 to perform highly accurate determination of the second task.

また、自動運転のレベルがレベル3以上からレベル2以下に変更する場合、運転の実施主体が車両30から運転者に変更となる。レベル3以上において運転者はセカンドタスクを実施している可能性があり、唐突にレベル2以下に引き下げると、運転者がセカンドタスクを実施した状態で運転の実施主体が運転者に変更される虞がある。そこで、第2のセカンドタスク判定部5bは、自動運転レベルが運転の実施主体が車両30であるレベル3以上から運転の実施主体が運転者であるレベル2以下に変更する場合に、セカンドタスクが実施されているか否かの判定を実施する。これにより、運転の実施主体が運転者に変更する際に、セカンドタスクが実施されているか否かを判定する。そして、運転の実施主体が車両30から運転者に変更となる場合に、運転者はセカンドタスクの実施を終了することができる。 In addition, when the level of autonomous driving changes from level 3 or higher to level 2 or lower, the subject of driving changes from the vehicle 30 to the driver. At level 3 or higher, the driver may be performing the second task, and if the level is suddenly lowered to level 2 or lower, there is a risk that the subject of driving will change to the driver while the driver is performing the second task. Therefore, the second second task determination unit 5b determines whether the second task is being performed when the autonomous driving level changes from level 3 or higher, where the subject of driving is the vehicle 30, to level 2 or lower, where the subject of driving is the driver. In this way, it is determined whether the second task is being performed when the subject of driving is changed to the driver. Then, when the subject of driving is changed from the vehicle 30 to the driver, the driver can end the performance of the second task.

また、第2のセカンドタスク判定部5bは、自動運転レベルが運転の実施主体が車両30であるレベル3以上である場合に、セカンドタスクが実施されているか否かの判定を実施しない。これにより、セカンドタスクの実施が許容されたレベル3以上において、乗員監視装置20はセカンドタスクが実施されているか否かの判定を実施しないため、処理負荷を軽減することができる。In addition, the second second task determination unit 5b does not determine whether or not a second task is being performed when the autonomous driving level is level 3 or higher, where the driving entity is the vehicle 30. As a result, at levels 3 and higher where the performance of the second task is permitted, the occupant monitoring device 20 does not determine whether or not a second task is being performed, thereby reducing the processing load.

また、本明細書中に開示する各実施の形態は、その範囲内において、各実施の形態を自由に組み合わせることが可能であり、各実施の形態を適宜、変形、省略することが可能である。 Furthermore, the embodiments disclosed in this specification may be freely combined within their scope, and each embodiment may be modified or omitted as appropriate.

1 走行判定部、2 撮像部、3 画像取得部、4 把持状態判定部、5a 第1のセカンドタスク判定部、5b 第2のセカンドタスク判定部、6 記憶部、7 出力部、8 表示部、9 ハンズオンセンサ、10 自動運転制御部、11 自動運転レベル制御部、12 処理回路、13 プロセッサ、14 メモリ、20 乗員監視装置、30 車両 1 Driving determination unit, 2 Imaging unit, 3 Image acquisition unit, 4 Gripping state determination unit, 5a First second task determination unit, 5b Second second task determination unit, 6 Memory unit, 7 Output unit, 8 Display unit, 9 Hands-on sensor, 10 Autonomous driving control unit, 11 Autonomous driving level control unit, 12 Processing circuit, 13 Processor, 14 Memory, 20 Occupant monitoring device, 30 Vehicle

Claims (15)

車両の運転者を撮像する撮像部から撮像画像を取得する画像取得部と、
前記撮像画像を用いて、前記運転者が運転中に行う運転以外の行為であるセカンドタスクが実施されているか否かを判定する第1のセカンドタスク判定部と、
前記運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定する把持状態判定部と、
前記第1のセカンドタスク判定部の判定結果及び前記把持状態判定部の判定結果に基づき、前記セカンドタスクが実施されているか否かを判定する第2のセカンドタスク判定部と、
を備える乗員監視装置。
an image acquisition unit that acquires an image from an imaging unit that images a driver of the vehicle;
a first second task determination unit that determines whether or not a second task, which is an action other than driving that the driver performs while driving, is being performed by using the captured image;
a gripping state determination unit that determines a gripping state indicating whether or not the driver is gripping the steering wheel with both hands;
a second second task determination unit that determines whether or not the second task is being performed based on a determination result of the first second task determination unit and a determination result of the gripping state determination unit; and
An occupant monitoring device comprising:
前記第2のセカンドタスク判定部は、前記把持状態に応じて、前記第1のセカンドタスク判定部による判定を実施させるか否か、又は前記第1のセカンドタスク判定部による判定結果を有効とするか否かを判定することを特徴とする請求項1に記載の乗員監視装置。The occupant monitoring device of claim 1, characterized in that the second second task judgment unit determines whether or not to cause a judgment to be made by the first second task judgment unit, or whether or not to validate the judgment result by the first second task judgment unit, depending on the gripping state. 前記第2のセカンドタスク判定部は、前記第1のセカンドタスク判定部において前記セカンドタスクが実施されていると判定された場合に、前記把持状態判定部が前記把持状態ではないと判定した場合は、前記第1のセカンドタスク判定部の判定結果を有効とし、前記把持状態判定部が前記把持状態であると判定した場合は、前記第1のセカンドタスク判定部の判定結果を無効とすることを特徴とする請求項1又は請求項2に記載の乗員監視装置。The second second task judgment unit is characterized in that when the first second task judgment unit judges that the second task is being performed, if the grasping state judgment unit judges that the grasping state is not being performed, the second second task judgment unit validates the judgment result of the first second task judgment unit, and if the grasping state judgment unit judges that the grasping state is being performed, the second second task judgment unit invalidates the judgment result of the first second task judgment unit. 前記第2のセカンドタスク判定部は、前記セカンドタスクの状態が変化した場合に、前記把持状態が予め設定された条件を満たさない場合は、前記第1のセカンドタスク判定部の判定結果を有効とし、前記セカンドタスクの状態が変化した場合に、前記把持状態が前記予め設定された条件を満たす場合は、前記第1のセカンドタスク判定部の判定結果を無効とすることを特徴とする請求項1又は請求項2に記載の乗員監視装置。The occupant monitoring device according to claim 1 or 2, characterized in that the second second task judgment unit validates the judgment result of the first second task judgment unit when the state of the second task changes and the gripping state does not satisfy a preset condition, and invalidates the judgment result of the first second task judgment unit when the state of the second task changes and the gripping state satisfies the preset condition. 前記第2のセカンドタスク判定部は、最新の前記第1のセカンドタスク判定部の判定結果と前回の前記第1のセカンドタスク判定部の判定結果とが異なる場合に前記セカンドタスクの状態が変化したと判定し、最新の前記第1のセカンドタスク判定部の判定結果と前回の前記第1のセカンドタスク判定部の判定結果とが同じ場合は前記セカンドタスクの状態に変化はないと判定することを特徴とする請求項4に記載の乗員監視装置。The occupant monitoring device according to claim 4, characterized in that the second second task judgment unit judges that the state of the second task has changed when the latest judgment result of the first second task judgment unit differs from the previous judgment result of the first second task judgment unit, and judges that the state of the second task has not changed when the latest judgment result of the first second task judgment unit is the same as the previous judgment result of the first second task judgment unit. 前記第2のセカンドタスク判定部は、前記把持状態が予め設定された条件を満たさない場合は、前記第1のセカンドタスク判定部による判定を実施させ、前記把持状態が前記予め設定された条件を満たす場合は、前記第1のセカンドタスク判定部による判定を実施させないことを特徴とする請求項1又は請求項2に記載の乗員監視装置。The occupant monitoring device according to claim 1 or 2, characterized in that the second second task judgment unit causes a judgment to be made by the first second task judgment unit if the gripping state does not satisfy a preset condition, and does not cause a judgment to be made by the first second task judgment unit if the gripping state satisfies the preset condition. 前記把持状態の前記予め設定された条件は、前記運転者が前記両手で前記ハンドルを把持している状態が継続している場合、前記運転者が前記両手で前記ハンドルを把持している状態から前記運転者が前記両手で前記ハンドルを把持していない状態に変化した場合、及び前記運転者が前記両手で前記ハンドルを把持していない状態から前記運転者が前記両手で前記ハンドルを把持している状態に変化した場合のうち少なくともいずれか1つ以上であることを特徴とする請求項4から6のいずれか一項に記載の乗員監視装置。The occupant monitoring device according to any one of claims 4 to 6, characterized in that the preset condition of the gripping state is at least one of the following: the driver continues to grip the steering wheel with both hands; the driver changes from a state in which the driver grips the steering wheel with both hands to a state in which the driver is not gripping the steering wheel with both hands; and the driver changes from a state in which the driver is not gripping the steering wheel with both hands to a state in which the driver is gripping the steering wheel with both hands. 前記セカンドタスクは前記運転者が少なくとも一方の手を前記ハンドルから離した状態で行う行為であり、喫煙、携帯端末の操作、携帯端末を用いた会話、飲食、書類の確認、及び読書のうち少なくともいずれか1つ以上であることを特徴とする請求項1から7のいずれか一項に記載の乗員監視装置。The occupant monitoring device according to any one of claims 1 to 7, characterized in that the second task is an action performed by the driver with at least one hand off the steering wheel, and is at least one of the following: smoking, operating a mobile terminal, having a conversation using a mobile terminal, eating and drinking, checking documents, and reading. 前記セカンドタスクの実施を終了するように促す音声及び画像の少なくともいずれか一方を表示する表示部に、前記セカンドタスクが実施されていることを示す信号を出力する出力部をさらに備え、
前記第2のセカンドタスク判定部は、前記セカンドタスクが予め設定された時間継続して実施されている場合に、前記出力部に前記信号を出力させることを特徴とする請求項1から8のいずれか一項に記載の乗員監視装置。
an output unit that outputs a signal indicating that the second task is being performed to a display unit that displays at least one of a sound and an image prompting the user to finish performing the second task,
9. The occupant monitoring device according to claim 1, wherein the second task determination unit causes the output unit to output the signal when the second task has been continuously performed for a preset time period.
前記第1のセカンドタスク判定部及び前記第2のセカンドタスク判定部の判定結果を記憶する記憶部をさらに備え、
前記第1のセカンドタスク判定部は、前記セカンドタスクが実施されていると判定した場合に前記セカンドタスクの種類を判定し、
前記第2のセカンドタスク判定部は、前記記憶部に記憶された判定結果において、同じ種類の前記セカンドタスクが前記予め設定された時間継続して実施されている場合に、前記出力部に前記信号を出力させ、
前記予め設定された時間は、前記セカンドタスクの種類により異なることを特徴とする請求項9に記載の乗員監視装置。
a storage unit that stores the determination results of the first second task determination unit and the second second task determination unit;
the first second task determination unit determines a type of the second task when it is determined that the second task is being performed;
the second second task determination unit causes the output unit to output the signal when the determination result stored in the storage unit indicates that the second task of the same type has been continuously executed for the predetermined time period;
10. The passenger monitoring device according to claim 9, wherein the preset time period differs depending on the type of the second task.
前記第1のセカンドタスク判定部は、パターンマッチング又はニューラルネットワークを用いて、前記セカンドタスクが実施されているか否かを判定することを特徴とする請求項1から10のいずれか一項に記載の乗員監視装置。An occupant monitoring device as described in any one of claims 1 to 10, characterized in that the first second task determination unit uses pattern matching or a neural network to determine whether the second task is being performed. 前記把持状態判定部は、前記撮像画像を用いて前記把持状態を判定する、又は前記ハンドルの左右にそれぞれ設けられた圧力センサ、静電容量式センサ、若しくは温度センサのいずれかであるハンズオンセンサの信号を用いて前記把持状態を判定することを特徴とする請求項1から11のいずれか一項に記載の乗員監視装置。The occupant monitoring device according to any one of claims 1 to 11, characterized in that the gripping state determination unit determines the gripping state using the captured image, or determines the gripping state using a signal from a hands-on sensor, which is either a pressure sensor, a capacitance sensor, or a temperature sensor provided on the left and right sides of the handlebars. 前記第2のセカンドタスク判定部は、自動運転レベルが運転の実施主体が前記車両であるレベル3以上から前記運転の実施主体が前記運転者であるレベル2以下に変更する場合に、前記セカンドタスクが実施されているか否かの判定を実施することを特徴とする請求項1から12のいずれか一項に記載の乗員監視装置。The occupant monitoring device according to any one of claims 1 to 12, characterized in that the second second task judgment unit judges whether the second task is being performed when the autonomous driving level changes from level 3 or higher, in which the vehicle is the driving subject, to level 2 or lower, in which the driver is the driving subject. 前記第2のセカンドタスク判定部は、自動運転レベルが運転の実施主体が前記車両であるレベル3以上である場合に、前記セカンドタスクが実施されているか否かの判定を実施しないことを特徴とする請求項1から13のいずれか一項に記載の乗員監視装置。The occupant monitoring device according to any one of claims 1 to 13, characterized in that the second second task judgment unit does not judge whether the second task is being performed when the autonomous driving level is level 3 or higher, in which the vehicle is the driving subject. 車両の運転者を撮像する撮像部から撮像画像を取得するステップと、
前記撮像画像を用いて、前記運転者が運転中に行う運転以外の行為であるセカンドタスクが実施されているか否かを判定するステップと、
前記運転者が両手でハンドルを把持している状態であるか否かを示す把持状態を判定するステップと、
前記セカンドタスクが実施されているか否かの判定結果及び前記把持状態の判定結果に基づき、前記セカンドタスクが実施されているか否かを判定するステップと、
を備える乗員監視方法。
acquiring an image from an imaging unit that images a driver of the vehicle;
determining whether or not a second task, which is an action other than driving that the driver performs while driving, is being performed by using the captured image;
determining a gripping state indicating whether the driver is gripping a steering wheel with both hands;
determining whether the second task is being performed based on a result of determining whether the second task is being performed and a result of determining the gripping state;
An occupant monitoring method comprising:
JP2023566026A 2021-12-10 2021-12-10 Occupant monitoring device and occupant monitoring method Active JP7483160B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/045526 WO2023105751A1 (en) 2021-12-10 2021-12-10 Occupant monitoring device and occupant monitoring method

Publications (2)

Publication Number Publication Date
JPWO2023105751A1 JPWO2023105751A1 (en) 2023-06-15
JP7483160B2 true JP7483160B2 (en) 2024-05-14

Family

ID=86729913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023566026A Active JP7483160B2 (en) 2021-12-10 2021-12-10 Occupant monitoring device and occupant monitoring method

Country Status (3)

Country Link
JP (1) JP7483160B2 (en)
CN (1) CN118525506A (en)
WO (1) WO2023105751A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017107502A (en) 2015-12-11 2017-06-15 トヨタ自動車株式会社 On-vehicle warning system
WO2019176037A1 (en) 2018-03-15 2019-09-19 三菱電機株式会社 Danger warning system and danger warning method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7431546B2 (en) * 2019-09-25 2024-02-15 株式会社Subaru Vehicle control device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017107502A (en) 2015-12-11 2017-06-15 トヨタ自動車株式会社 On-vehicle warning system
WO2019176037A1 (en) 2018-03-15 2019-09-19 三菱電機株式会社 Danger warning system and danger warning method

Also Published As

Publication number Publication date
CN118525506A (en) 2024-08-20
WO2023105751A1 (en) 2023-06-15
JPWO2023105751A1 (en) 2023-06-15

Similar Documents

Publication Publication Date Title
CN107291365B (en) System and method for controlling vehicle display in a moving vehicle
US9475389B1 (en) System and method for controlling a vehicle display based on driver behavior
CN107665330B (en) System, method and computer readable medium for detecting head pose in vehicle
US20170101111A1 (en) System and method for controlling vehicle systems in a vehicle
EP3033999B1 (en) Apparatus and method for determining the state of a driver
JP5018926B2 (en) Driving assistance device and program
JP7047821B2 (en) Driving support device
JP2019034574A (en) Driver state recognition apparatus, driver state recognition system, and driver state recognition method
JP5255945B2 (en) Vehicle operation evaluation device
US10029568B2 (en) System for warning of drowsiness of driver and method thereof
JP2016115117A (en) Determination device and determination method
JP7091983B2 (en) Equipment control device
CN112689587B (en) Method for classifying non-driving task activities taking account of the interruptibility of the non-driving task activities of a driver when the taking over of driving tasks is required, and method for re-releasing the non-driving task activities after interrupting the non-driving task activities due to the taking over of driving tasks is required
JP6417962B2 (en) Information processing apparatus, information processing method, and storage medium
KR102635284B1 (en) Driver assistance system and driver assistance method
JP2016115120A (en) Opened/closed eye determination device and opened/closed eye determination method
JP2017206173A (en) Driver state detection device
JP7483160B2 (en) Occupant monitoring device and occupant monitoring method
JP4683123B2 (en) Action estimation device, program
JP4613999B2 (en) Action estimation device, program
WO2021156914A1 (en) Attention direction determination device and attention direction determination method
JP7046748B2 (en) Driver status determination device and driver status determination method
CN111845758A (en) Fatigue driving management device, system including the same, and method thereof
JP2016115119A (en) Eye opening/closing determination device and eye opening/closing determination method
KR20150044199A (en) System and Method of Deciding Driving Location Considering Driver Preference

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240430

R150 Certificate of patent or registration of utility model

Ref document number: 7483160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150