JP2018149990A - 運転者の着座判定装置 - Google Patents

運転者の着座判定装置 Download PDF

Info

Publication number
JP2018149990A
JP2018149990A JP2017049009A JP2017049009A JP2018149990A JP 2018149990 A JP2018149990 A JP 2018149990A JP 2017049009 A JP2017049009 A JP 2017049009A JP 2017049009 A JP2017049009 A JP 2017049009A JP 2018149990 A JP2018149990 A JP 2018149990A
Authority
JP
Japan
Prior art keywords
driver
seat
captured image
seating determination
seating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017049009A
Other languages
English (en)
Other versions
JP2018149990A5 (ja
Inventor
初美 青位
Hatsumi Aoi
初美 青位
相澤 知禎
Chitei Aizawa
知禎 相澤
匡史 日向
Tadashi Hyuga
匡史 日向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017049009A priority Critical patent/JP2018149990A/ja
Priority to PCT/JP2017/036276 priority patent/WO2018168038A1/ja
Publication of JP2018149990A publication Critical patent/JP2018149990A/ja
Publication of JP2018149990A5 publication Critical patent/JP2018149990A5/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】自動車の運転席に運転者が着座しているか否かを正確に判断することができる、運転者の着座判定装置、運転者の着座方法、及び運転者の着座プログラムを提供する。【解決手段】本発明に係る運転者の着座判定装置は、自動車の運転席を撮影する少なくとも1つのカメラと接続される運転者の着座判定装置であって、前記カメラによって撮影された撮影画像を取得する取得部と、前記撮影画像から前記運転席に運転者が着座しているか否かを判断する解析部と、を備えている。【選択図】図4

Description

本発明は、運転者の着座判定装置、運転者の着座方法、及び運転者の着座プログラムに関する。
自動車の運転席に運転者が着座しているか否かを判断するための種々の技術が提案されている。このような技術は、例えば、運転者が運転席に着座しているにもかかわらず、シートベルトを着用していない場合に、警告を発することに利用される。例えば、特許文献1には、運転席に感圧センサを設け、これによって運転席に運転者が着座したか否かを判断するようにしている。
特開2011−213342号公報
しかしながら、上記技術では、例えば、運転席に重量の大きい荷物が置かれた場合には、これを運転者と認識して誤作動を引き起こす可能性がある。また、近年の自動運転技術では、自動運転中であっても、運転者が運転席に着座していることが求められることがあるため、このような場合に、運転者の着座を正確に判断できないと、運転に支障を来すおそれがある。本発明は、この問題を解決するためになされたものであり、自動車の運転席に運転者が着座しているか否かを正確に判断することができる、運転者の着座判定装置、運転者の着座方法、及び運転者の着座プログラムを提供することを目的とする。
本発明に係る運転者の着座判定装置は、自動車の運転席を撮影する少なくとも1つのカメラと接続される運転者の着座判定装置であって、前記カメラによって撮影された撮影画像を取得する画像取得部と、前記撮影画像から前記運転席に運転者が着座しているか否かを判断する解析部と、を備えている。
この構成によれば、カメラによって運転席を撮影した撮影画像を取得し、この撮影画像に運転者が含まれているか否かを解析することで、運転者が運転席に着座しているか否かを判断するようにしている。したがって、運転者が運転席に着座していることを確実に判断することができる。
上記着座判定装置においては、前記運転者の顔の挙動に関する顔挙動情報を含む当該運転者の観測情報を取得する観測情報取得部をさらに備えることができ、前記解析部は、前記運転者の前記運転席への着座を判定するための学習を行った学習済みの学習器に、前記撮影画像及び前記観測情報を入力することで、前記運転者が着座しているか否かの着座情報を当該学習器から取得する運転者状態推定部と、を備えることができる。
上記着座判定装置において、前記観測情報取得部は、取得した前記撮影画像に対して所定の画像解析を行うことで、前記運転者の顔の検出可否、顔の位置、顔の向き、顔の動き、視線の方向、顔の器官の位置、及び目の開閉の少なくともいずれか1つに関する情報を前記顔挙動情報として取得することができる。
上記各着座判定装置において、前記解析部は、取得した前記撮影画像の解像度を低下させる解像度変換部を更に備えることができ、前記運転者状態推定部は、解像度を低下させた前記撮影画像を前記学習器に入力することができる。
上記着座判定装置において、解析部は、種々の方法で、運転者の着座を判断することができるが、例えば、前記解析部は、前記撮影画像から前記運転者の顔を検出することで、前記運転席に運転者が着座していると判断することができる。
上記着座判定装置においては、種々の方法で運転者の顔を検出することができるが、例えば、前記解析部は、前記撮影画像に含まれる像から人の顔の器官を検出することで、前記運転席に運転者が着座していると判断することができる。
上記着座判定装置において、解析部は、種々の方法で、運転者の着座を判断することができるが、例えば、前記解析部は、人の顔を検出するための学習を行った学習済みの学習器であって、運転席を含む撮影画像を入力とし、当該撮影画像に人の顔が含まれるか否かを出力とする学習器を備えることができる。
上記各着座判定装置においては、前記運転席に運転者が着座していないと判断した場合に、警告を発する警告部をさらに備えることができる。
上記各着座判定装置においては、特に、自動車が自動運転機能を有するものであるときに有効である。この場合、前記解析部は、前記自動運転機能の作動中に、運転者の着座を判断することができるように構成できる。
本発明に係る運転者の着座判定方法は、自動車の運転席を、少なくとも1つのカメラで撮影するステップと、前記カメラによって撮影された撮影画像から前記運転席に運転者が着座しているか否かを判断するステップと、を備えている。
上記着座判定方法においては、前記撮影画像から前記運転者の顔を検出することで、前記運転席に運転者が着座していると判断することができる。
上記着座判定方法においては、前記撮影画像に含まれる像から人の顔の器官を検出することで、前記運転席に運転者が着座していると判断することができる。
本発明に係る運転者の着座判定プログラムは、自動車のコンピュータに、自動車の運転席を、少なくとも1つのカメラで撮影するステップと、前記カメラによって撮影された撮影画像から前記運転席に運転者が着座しているか否かを判断するステップと、を実行させる。
上記着座判定プログラムにおいては、前記撮影画像から前記運転者の顔を検出することで、前記運転席に運転者が着座していると判断することかできる。
上記着座判定プログラムにおいては、前記撮影画像に含まれる像から人の顔の器官を検出することで、前記運転席に運転者が着座していると判断することができる。
本発明によれば、自動車の運転席に運転者が着座しているか否かを正確に判断することができる。
本発明の第1実施形態に係る着座判定装置が取り付けられる自動車の一部概略構成図である。 本発明の第1実施形態に係る着座判定装置が含まれる着座判定システムの概要を示す図である。 図2の着座判定装置のハードウェア構成の一例を示すブロック図である。 図2の学習装置のハードウェア構成の一例を示すブロック図である。 図2の着座判定装置の機能構成の一例を示すブロック図である。 図2の学習装置の機能構成の一例を示すブロック図である。 図2の着座判定装置の動作を示すフローチャートである。 本発明の第2実施形態に係る着座判定装置のハードウェア構成の一例を示すブロック図である。 第2実施形態に係る着座判定装置の機能構成の一例を示すブロック図である。 第2実施形態に係る学習装置の機能構成の一例を示すブロック図である。 第2実施形態に係る着座判定装置の動作を示すフローチャートである。
<A.第1実施形態>
以下、本発明に係る運転者の着座判定装置、着座判定方法、及び着座判定プログラムの第1実施形態について、図面を参照しつつ説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。これらの点は、後述する第2実施形態についても同様である。
<1.着座判定システムの概要>
まず、本実施形態に係る着座判定装置が含まれる着座判定システムについて、説明する。図1は着座判定装置が取り付けられる自動車の一部概略構成図であり、図2は着座判定システムの概略構成を示す図である。図1に示すように、このシステムでは、運転席900の前方に配置されたカメラ3により、運転席900を撮影して撮影画像を取得し、この撮影画像から顔の器官(目、鼻、口など)が検出されたとき、運転席900に運転者800が着座していると判定するものである。具体的には、図2に示すように、この着座判定システムは、着座判定装置1、学習装置2、及びカメラ3を備えている。
着座判定装置1は、例えば、ネットワーク10を介して、学習装置2により作成された学習済みの学習器を取得することができる。ネットワーク10の種類は、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。その他、着座判定装置1と学習装置2とを直接接続して、学習器を送信することもできる。あるいは、着座判定装置1と学習装置2とを接続せず、学習装置2で学習された学習済みの学習器を、CD−ROM等の記憶媒体に記憶し、この記憶媒体に記憶された学習器を着座判定装置1に保存することもできる。以下、各装置について詳細に説明する。
<1−1.カメラ>
カメラ3は、デジタルカメラやビデオカメラなど、公知のものを用いることができ、前方から運転席を撮影することで撮影画像を生成し、これを着座判定装置1に出力する。カメラ3は、運転席900において、少なくとも人の顔801が配置される付近を撮影する。このとき、運転者の身長の高低を考慮し、概ねほとんどの運転者の顔が位置する範囲を含むようにする。なお、撮影画像は、静止画または動画のいずれであってもよく、動画の場合には、フレーム毎に着座判定装置1に撮影画像が送信され、着座の判定が行われる。
<1−2.着座判定装置>
図3は、本実施形態に係る着座判定装置を示すブロック図である。図3に示すように、本実施形態に係る着座判定装置1は、制御部11、記憶部12、外部インタフェース13、入力装置14、出力装置15、通信インタフェース13、及びドライブ17が電気的に接続されたコンピュータである。なお、図1では、通信インタフェース及び外部インタフェースをそれぞれ、「通信I/F」及び「外部I/F」と記載している。
制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。記憶部12は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置であり、制御部11で実行される着座判定プログラム121、学習済みの学習器に関する情報を示す学習結果データ122等を記憶する。
着座判定プログラム121は、撮影された画像から人の顔の器官を検出できるか否かの処理を、着座判定装置1に実行させるためのプログラムである。また、学習結果データ122は、学習済みの学習器の設定を行うためのデータである。詳細は後述する。
通信インタフェース16は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。入力装置14は、例えば、マウス、キーボード等の入力を行うための装置である。出力装置15は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。外部インタフェース13は、USB(Universal Serial Bus)ポート等であり、カメラ3、車内のスピーカ、ディスプレイ、速度を制御する装置等の外部装置と接続するためのインタフェースである。なお、車内のディスプレイとは、例えば、ダッシュボードに設けられた、カーナビゲーション用のディスプレイなど、種々のものを適用することができる。また、外部インタフェース13に接続する外部装置は、上記の各装置に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。そのため、外部インタフェース13は、接続する外部装置毎に設けられてもよく、その数は、実施の形態に応じて適宜選択可能である。
ドライブ17は、例えば、CD(Compact Disk)ドライブ、DVD(Digital Versatile Disk)ドライブ等であり、記憶媒体91に記憶されたプログラムを読み込むための装置である。ドライブ17の種類は、記憶媒体91の種類に応じて適宜選択されてよい。上記着座判定プログラム121及び/又は学習結果データ122は、この記憶媒体91に記憶されていてもよい。
記憶媒体91は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。着座判定装置1は、この記憶媒体91から、着座判定プログラム121及び/又は学習結果データ122を取得してもよい。
ここで、図3では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
なお、着座判定装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のプロセッサを含んでもよい。着座判定装置1は、複数台の情報処理装置で構成されてもよい。
<1−3.学習装置>
図4は、本実施形態に係る学習装置を示すブロック図である。図4に示すように、本実施形態に係る学習装置2は、上記第2検出部102に含まれる学習器を学習するためのものであり、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、外部インタフェース26、及びドライブ27が電気的に接続されたコンピュータである。なお、図4では、図3と同様に、通信インタフェース及び外部インタフェースをそれぞれ、「通信I/F」及び「外部I/F」と記載している。
制御部21〜ドライブ27及び記憶媒体92はそれぞれ、上記着座判定装置1の制御部11〜ドライブ17及び記憶媒体91と同様である。ただし、学習装置2の記憶部22は、制御部21で実行される学習プログラム221、学習器の学習に利用する学習データ222、学習プログラム221を実行して作成した学習結果データ122等を記憶する。
学習プログラム221は、学習装置2に後述するニューラルネットワークの学習処理(図8)を実行させるためのプログラムである。また、学習データ222は、撮影画像から人の顔の器官を検出するために学習器の学習を行うためのデータである。詳細は後述する。
なお、上記着座判定装置1と同様に、学習プログラム221及び/又は学習データ222は、記憶媒体92に記憶されていてもよい。これに応じて、学習装置2は、利用する学習プログラム221及び/又は学習データ222を記憶媒体92から取得してもよい。
また、上記着座判定装置1と同様に、学習装置2の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。更に、学習装置2は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、デスクトップPC等が用いられてもよい。
<2.着座判定装置の機能構成>
次に、図5を参照しつつ、本実施形態に係る着座判定装置1の機能構成の一例を説明する。図5は、本実施形態に係る着座判定装置1の機能構成の一例を模式的に例示する。
<2−1.概略構成>
着座判定装置1の制御部11は、記憶部12に記憶された着座判定プログラム121をRAMに展開する。そして、制御部11は、RAMに展開された着座判定プログラム121をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図5に示すように、本実施形態に係る着座判定装置1は、画像取得部111、解析部116、及び警告部117を備えるコンピュータとして機能する。
画像取得部111は、カメラ3で生成された撮影画像123を取得する。また、解析部116は、撮影画像123から運転者が運転席に着座しているか否かを判定する。そして、解析部116が、運転者が運転席に着座していないと判定したときには、警告部117が警告を発するように構成されている。以下、これらの機能構成について、詳細に説明する。
<2−2.解析部>
まず、解析部116について説明する。図5に示すように、解析部116では、撮影画像123を、顔の器官を検出するために学習した学習器の入力として用いる。この学習器の演算処理により、当該学習器から出力値を得る。そして、解析部116は、学習器から得られた出力値に基づいて、撮影画像123の中の人の顔の器官が存在するか否かを判定する。なお、顔の器官とは、目、鼻、口などが該当するが、これらの少なくとも1つの特徴点を検出できるようにする。但し、カメラの種類によっては、運転者がサングラスを着用している場合には目の検出ができない場合があるため、例えば、鼻や口の特徴点を検出できるようにする。また、運転者がマスクを着用している場合には、鼻や口が検出できないため、例えば、目の特徴点を検出できるようにする。
次に、学習器について説明する。図5に示すように、本実施形態に係る着座判定装置1は、一例として、撮影画像123中の顔の器官の有無について学習した学習器が用いられる。この学習器7はニューラルネットワークで構成されている。具体的には、図4に示すような、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力から順に、入力層71、中間層(隠れ層)72、及び出力層73を備えている。
図5の例では、ニューラルネットワーク7は1層の中間層72を備えており、入力層71の出力が中間層72の入力となり、中間層72の出力が出力層73の入力となっている。ただし、中間層72の数は1層に限られなくてもよく、ニューラルネットワーク7は、中間層72を2層以上備えてもよい。
各層71〜73は、1又は複数のニューロンを備えている。例えば、入力層71のニューロンの数は、各撮影画像123の画素数に応じて設定することができる。中間層72のニューロンの数は実施の形態に応じて適宜設定することができる。また、出力層73は、顔の器官の有無の判定に応じて設定することができる。
隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が設定されている。図5の例では、各ニューロンは、隣接する層の全てのニューロンと結合されているが、ニューロンの結合は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。
各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。着座判定装置1は、このようなニューラルネットワーク7の入力層71に上記各撮影画像を入力することで出力層73から得られる出力値に基づいて、運転者が運転席に着座しているか否かを判定する。
なお、このようなニューラルネットワーク7の構成(例えば、ニューラルネットワーク7の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報は、学習結果データ122に含まれている。着座判定装置1は、学習結果データ122を参照して、運転者が運転席に着座しているか否かを判定するための処理に用いる学習済みの学習器7の設定を行う。この点は、後述する第2実施形態においても同様である。
<2−3.警告部>
警告部117は、上記解析部116で、運転席に運転者が着座していないと判定したとき、外部インタフェース16を通じて車内のディスプレイやスピーカ等を駆動し、警告を行う。すなわち、運転者が着座していないことをディスプレイに表示したり、スピーカを通じて、着座していないことを車内に報知する。その他、ブレーキを駆動するなど、走行中の自動車の速度を落としたり、停止するなどで警告を行うこともできる。
<3.学習装置の機能構成>
次に、図6を用いて、本実施形態に係る学習装置2の機能構成の一例を説明する。図6は、本実施形態に係る学習装置2の機能構成の一例を模式的に例示する。
学習装置2の制御部21は、記憶部22に記憶された学習プログラム221をRAMに展開する。そして、制御部21は、RAMに展開された学習プログラム221をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図6に示されるとおり、本実施形態に係る学習装置2は、学習データ取得部211、及び学習処理部212を備えるコンピュータとして機能する。
学習データ取得部211は、図6に示すように、学習データ222として、カメラ3で撮影した撮影画像223と、この撮影画像223に顔の器官が示されているか否かを示す着座情報2241の組を取得する。この撮影画像223と着座情報2241が、ニューラルネットワーク8の教師データに相当する。
一方、学習処理部212は、学習データ222を用いて、取得した各撮影画像223を入力すると、上記着座情報2241に対応する出力値を出力するようにニューラルネットワーク8を学習させる。
図6に示すように、学習器の一例であるニューラルネットワーク8は、入力層81、中間層(隠れ層)82、及び出力層83を備え、上記ニューラルネットワーク7と同様に構成される。各層81〜83は、上記各層71〜73と同様である。学習処理部212は、ニューラルネットワークの学習処理により、撮影画像223を入力すると、上記着座情報2241に対応する出力値を出力するニューラルネットワーク8を構築する。そして、学習処理部212は、構築したニューラルネットワーク8の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。そして、この学習結果データ122は、上述した種々の方法で、着座判定装置1に送信される。また、このような学習結果データ122を定期的に更新してもよい。そして、制御部21は、作成した学習結果データ122を学習処理の実行毎に着座判定装置1に転送することで、着座判定装置1の保持する学習結果データ122を定期的に更新してもよい。
<4.その他>
着座判定装置1及び学習装置2の各機能に関しては後述する動作例で詳細に説明する。なお、本実施形態では、着座判定装置1及び学習装置2の各機能がいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上の機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、着座判定装置1及び学習装置2それぞれの機能構成に関して、実施形態に応じて、適宜、機能の省略、置換及び追加が行われてもよい。
<5.着座判定装置の動作>
次に、図7を参照しつつ、着座判定装置1の動作例を説明する。図7は、着座判定装置1の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
まず、利用者(運転者)は、着座判定装置1を起動し、起動した着座判定装置1に着座判定プログラム121を実行させる。着座判定装置1の制御部11は、学習結果データ122を参照して、ニューラルネットワーク7の構造、各ニューロン間の結合の重み及び各ニューロンの閾値の設定を行う。そして、制御部11は、以下の処理手順に従って、撮影画像123から、運転者が運転席に着座しているか否かを判定する。
まず、制御部11は、自動車の運転が行われている場合(ステップS101のYES)、画像取得部111として機能し、外部インタフェース16を介して接続されるカメラ3から、運転席を前方から撮影した撮影画像123を取得する(ステップS102)。上述したように、撮影画像123は、静止画でもよいし、動画である場合は、フレームごとに撮影画像が取得される。
次に、制御部11は、解析部116として機能し、ステップS102で取得した各撮影画像123に顔の器官が含まれているか否かを判断する(ステップS103)。そして、撮影画像123の中に顔の器官を検出した場合、運転席に運転者が着座していると判定する(ステップS103のYES)。その後、運転が行われていれば(ステップS101のYES)、引き続き、撮影画像123を取得し(ステップS102)、運転者の着座を判定する(ステップS103)。一方、撮影画像123中に顔の器官の検出ができない場合には、運転席に運転者が着座していないと判定し(ステップS101のNO)、警告を発信する(ステップS104)。すなわち、制御部11は、警告部117として機能し、車内のディスプレイまたはスピーカを用いて、運転席に運転者が着座していないことを車内に報知する。あるいは、自動車を減速したり、停止させることもできる。その後、運転が行われていれば(ステップS101のYES)、引き続き、撮影画像123を取得し(ステップS102)、運転者の着座を判定する(ステップS103)。一方、運転が行われていない場合には、処理を停止する。
なお、運転席に運転者が着座しているか否かの判定に当たって、撮影画像123から顔の器官を検出できない場合、上記のように、即座に警告を発してもよいが、例えば、所定時間(または所定の数のフレーム)、顔の器官が検出できない場合に、警告を発することもできる。
また、上記の処理は、自動車のイグニッション電源がONになった直後から行ってもよいし、例えば、自動車が手動運転モードと自動運転モードとを切替可能な場合、自動車が自動運転モードに移行した場合にのみ行ってもよい。
<6.特徴>
以上のように、本実施形態によれば、カメラ3によって運転席を撮影した撮影画像123を取得し、この撮影画像123に人の顔の器官が含まれているか否かを解析することで、運転者が運転席に着座しているか否かを判断するようにしている。したがって、運転者が運転席に着座していることを確実に判断することができる。
特に、着座の判定に当たっては、ニューラルネットワークにより構成された学習器7によって判定を行っている。すなわち、学習器7は、多くの撮影画像123から顔の器官を検出するための学習がなされているため、精度の高い判定を行うことができる。
<B.第2実施形態>
次に、本発明に係る運転者の着座判定装置、着座判定方法、及び着座判定プログラムの第2実施形態について、図面を参照しつつ説明する。
<1.着座判定システムの概要>
まず、本実施形態に係る着座判定装置が含まれる着座判定システムについて、説明する。但し、本実施形態に係る着座判定システムは、第1実施形態と同様に、着座判定装置1及び学習装置2を備えている。
本実施形態に係る着座判定装置1は、図1及び図2に示す第1実施形態と同様に、車両の運転席に着いた運転者800を撮影するように配置されたカメラ3から撮影画像を取得する。また、この着座判定装置1は、運転者800の顔の挙動に関する顔挙動情報を含む運転者の観測情報を取得する。そして、着座判定装置1は、運転者800が運転席900に着座しているか否かを判定するための学習を行った学習済みの学習器(後述するニューラルネットワーク)に、取得した撮影画像及び観測情報を入力することで、運転者800が運転席900に着座しているか否かを判定する。
一方、本実施形態に係る学習装置2は、着座判定装置1で利用する学習器を構築する、すなわち、撮影画像及び観測情報の入力に応じて、運転者800が運転席に着座しているか否かを示す着座情報を出力するように学習器の機械学習を行うコンピュータである。具体的には、学習装置2は、上記の撮影画像、観測情報、及び着座情報の組を学習データとして取得する。そして、学習装置2は、撮影画像及び観測情報を入力すると着座情報に対応する出力値を出力するように学習器(後述するニューラルネットワーク6)を学習させる。これにより、着座判定装置1で利用する学習済みの学習器が作成される。着座判定装置1と学習装置2と接続は、第1実施形態と同様である。
以上のとおり、本実施形態では、運転者800の状態を推定するために、運転者の着座を推定するための学習を行った学習済みの学習器を利用する。そして、この学習器の入力として、運転者の顔の挙動に関する顔挙動情報を含む、運転者を観測することで得られる観測情報の他に、車両の運転席に着いた運転者を撮影するように配置されたカメラ3から得られる撮影画像を用いる。そのため、運転者800の顔の挙動だけではなく、運転者800の身体の状態(例えば、身体の向き、姿勢等)を撮影画像から解析することができる。したがって、本実施形態によれば、運転者800の取り得る多様な状態を反映して、運転者800が運転席900に着座しているか否かを判定することができる。以下、詳細に説明する。
<2.着座判定装置>
まず、図8を用いて、本実施形態に係る着座判定装置について説明する。図8は、本実施形態に係る着座判定装置のブロック図である。
図8に示すように、本実施形態に係る着座判定装置のハードウェア構成は、第1実施形態と概ね同じであり、外部I/Fに接続される装置が相違している。したがって、以下では、第1実施形態と相違する点についてのみ説明し、同一構成には同一符号を付して説明を省略する。本実施形態では、外部インタフェース13は、例えば、CAN(Controller Area Network)を介して、上述したカメラ3のほか、ナビゲーション装置30、生体センサ32、及びスピーカ33に接続される。
ナビゲーション装置30は、車両の走行時に経路案内を行うコンピュータである。ナビゲーション装置30には、公知のカーナビゲーション装置が用いられてよい。ナビゲーション装置30は、GPS(Global Positioning System)信号に基づいて自車位置を測定し、地図情報及び周辺の建物等に関する周辺情報を利用して、経路案内を行うように構成される。なお、以下では、GPS信号に基づいて測定される自車位置を示す情報を「GPS情報」と称する。
生体センサ32は、運転者800の生体情報を測定するように構成される。測定対象となる生体情報は、特に限定されなくてもよく、例えば、脳波、心拍数等であってよい。生体センサ32は、測定対象となる生体情報を測定可能であれば特に限定されなくてもよく、例えば、公知の脳波センサ、脈拍センサ等が用いられてよい。生体センサ32は、測定対象となる生体情報に応じた運転者800の身体部位に装着される。
スピーカ33は、音声を出力するように構成される。スピーカ33は、車両の走行中に運転者800が当該車両の運転に適した状態ではない場合に、当該車両の運転に適した状態をとるように当該運転者800に対して警告するのに利用される。詳細は後述する。
<3.学習装置>
本実施形態に係る学習装置のハードウェア構成は、第1実施形態の学習装置と同じであるため、ここでは説明を省略する。
<4.着座判定装置の機能構成>
次に、図9を用いて、本実施形態に係る着座判定装置1の機能構成の一例を説明する。図9は、本実施形態に係る着座判定装置1の機能構成の一例を模式的に例示する。
図9に示すように、着座判定装置1の制御部11は、記憶部12に記憶されたプログラム121をRAMに展開する。そして、制御部11は、RAMに展開されたプログラム121をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図9に示されるとおり、本実施形態に係る着座判定装置1は、画像取得部111、観測情報取得部112、解像度変換部113、運転状態推定部114、及び警告部115を備えるコンピュータとして機能する。このうち、解像度変換部113及び運転状態推定部114が、本発明の解析部に相当する。
画像取得部111は、車両の運転席に着いた運転者800を撮影するように配置されたカメラ31から撮影画像123を取得する。観測情報取得部112は、運転者800の顔の挙動に関する顔挙動情報1241及び生体センサ32により測定された生体情報1242を含む観測情報124を取得する。本実施形態では、顔挙動情報1241は、撮影画像123を画像解析することで得られる。なお、観測情報124は、このような例に限定されなくてもよく、生体情報1242は、省略されてもよい。この場合、生体センサ32は省略されてもよい。すなわち、撮影画像123から取得した顔挙動情報1241のみを観測情報124として使用することもできる。
解像度変換部113は、画像取得部111により取得した撮影画像123の解像度を低下させる。これにより、解像度変換部113は、低解像度撮影画像1231を形成する。
運転状態推定部114は、運転者が運転席に着座しているか否かの反転を行うための学習を行った学習済みの学習器(ニューラルネットワーク5)に、撮影画像123を低解像度化することで得られた低解像度撮影画像1231及び観測情報124を入力する。これにより、運転状態推定部114は、運転者800の着座に関する着座情報125を当該学習器から取得する。なお、低解像度化の処理は省略されてもよい。この場合、運転状態推定部114は、撮影画像123を学習器に入力してもよい。
ところで、運転席900に運転者800が着座しているか否かを判定するに当たっては、誤判定がなされる可能性がある。例えば、助手席の乗車者が運転席900へ顔を含む体を乗り出している場合、後部座席の乗車者が運転席900へ顔を含む体を乗り出している場合などに、運転席900に運転者800が着座していると判断されるおそれがある。また、運転席900に着座しているにもかかわらず、運転者が着座していないと判断される可能性もある。例えば、運転者800がうつむいている場合、あるいは後を向いている場合には、後述するように顔の器官を検出できず、運転者800が着座していないと判断されるおそれがある。したがって、この着座判定装置1では、後述するように、観測情報124に含まれる顔の器官に関する情報を判定の材料とすることに加え、低解像度撮影画像1231から運転席に写る者の身体の状態(例えば、身体の向き、姿勢等)を判定の材料としている。このような身体の状態から、運転席に写る者が、運転席に座る者であるか、助手席や後部座席の者であるか、あるいは子供であるかを判定することができる。
警告部115は、第1実施形態と同じであり、運転席900に運転者800が着座していないと判定したとき、外部インタフェース16を通じて車内のディスプレイやスピーカ等を駆動し、警告を行う。
(学習器)
次に、学習器について説明する。図9に示されるとおり、本実施形態に係る着座判定装置1は、運転者800が運転席900に着座しているか否かの判定のための学習を行った学習済みの学習器として、ニューラルネットワーク5を利用する。本実施形態に係るニューラルネットワーク5は、複数種類のニューラルネットワークを組み合わせることで構成されている。
具体的には、ニューラルネットワーク5は、全結合ニューラルネットワーク51、畳み込みニューラルネットワーク52、結合層53、及びLSTMネットワーク54の4つの部分に分かれている。全結合ニューラルネットワーク51及び畳み込みニューラルネットワーク52は入力側に並列に配置されており、全結合ニューラルネットワーク51には観測情報124が入力され、畳み込みニューラルネットワーク52には低解像度撮影画像1231が入力される。結合層53は、全結合ニューラルネットワーク51及び畳み込みニューラルネットワーク52の出力を結合する。LSTMネットワーク54は、結合層53からの出力を受けて、着座情報125を出力する。
(a)全結合ニューラルネットワーク
全結合ニューラルネットワーク51は、いわゆる多層構造のニューラルネットワークであり、入力側から順に、入力層511、中間層(隠れ層)512、及び出力層513を備えている。ただし、全結合ニューラルネットワーク51の層の数は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
各層511〜513は、1又は複数のニューロン(ノード)を備えている。各層511〜513に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。各層511〜513に含まれる各ニューロンが、隣接する層に含まれる全てのニューロンに結合されていることで、全結合ニューラルネットワーク51は構成される。各結合には、重み(結合荷重)が適宜設定されている。
(b)畳み込みニューラルネットワーク
畳み込みニューラルネットワーク52は、畳み込み層521及びプーリング層522を交互に接続した構造を有する順伝播型ニューラルネットワークである。本実施形態に係る畳み込みニューラルネットワーク52では、複数の畳み込み層521及びプーリング層522が入力側に交互に配置されている。そして、最も出力側に配置されたプーリング層522の出力が全結合層523に入力され、全結合層523の出力が出力層524に入力される。
畳み込み層521は、画像の畳み込みの演算を行う層である。画像の畳み込みとは、画像と所定のフィルタとの相関を算出する処理に相当する。そのため、画像の畳み込みを行うことで、例えば、フィルタの濃淡パターンと類似する濃淡パターンを入力される画像から検出することができる。
プーリング層522は、プーリング処理を行う層である。プーリング処理は、画像のフィルタに対する応答の強かった位置の情報を一部捨て、画像内に現れる特徴の微小な位置変化に対する応答の不変性を実現する。
全結合層523は、隣接する層の間のニューロン全てを結合した層である。すなわち、全結合層523に含まれる各ニューロンは、隣接する層に含まれる全てのニューロンに結合される。畳み込みニューラルネットワーク52は、2層以上の全結合層523を備えてもよい。また、全結合層423に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。
出力層524は、畳み込みニューラルネットワーク52の最も出力側に配置される層である。出力層524に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。なお、畳み込みニューラルネットワーク52の構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。
(c)結合層
結合層53は、全結合ニューラルネットワーク51及び畳み込みニューラルネットワーク52とLSTMネットワーク54との間に配置される。結合層53は、全結合ニューラルネットワーク51の出力層513からの出力及び畳み込みニューラルネットワーク52の出力層524からの出力を結合する。結合層53に含まれるニューロンの個数は、全結合ニューラルネットワーク51及び畳み込みニューラルネットワーク52の出力の数に応じて適宜設定されてよい。
(d)LSTMネットワーク
LSTMネットワーク54は、LSTMブロック542を備える再起型ニューラルネットワークである。再帰型ニューラルネットワークは、例えば、中間層から入力層への経路のように、内部にループを有するニューラルネットワークのことである。LSTMネットワーク54は、一般的な再起型ニューラルネットワークの中間層をLSTMブロック542に置き換えた構造を有する。
本実施形態では、LSTMネットワーク54は、入力側から順に、入力層541、LSTMブロック542、及び出力層543を備えており、順伝播の経路の他、LSTMブロック542から入力層541に戻る経路を有している。入力層541及び出力層543に含まれるニューロンの個数は、実施の形態に応じて適宜設定されてよい。
LSTMブロック542は、入力ゲート及び出力ゲートを備え、情報の記憶及び出力のタイミングを学習可能に構成されたブロックである(S.Hochreiter and J.Schmidhuber, "Long short-term memory" Neural Computation, 9(8):1735-1780, November 15, 1997)。また、LSTMブロック542は、情報の忘却のタイミングを調節する忘却ゲートを備えてもよい(Felix A. Gers, Jurgen Schmidhuber and Fred Cummins, "Learning to Forget: Continual Prediction with LSTM" Neural Computation, pages 2451-2471, October 2000)。LSTMネットワーク54の構成は、実施の形態に応じて適宜設定可能である。
(e)小括
各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。着座判定装置1は、全結合ニューラルネットワーク51に観測情報124を入力し、畳み込みニューラルネットワーク52に低解像度撮影画像1231を入力する。そして、着座判定装置1は、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、着座判定装置1は、着座情報125に対応する出力値をニューラルネットワーク5の出力層543から取得する。
<5.学習装置>
次に、図10を用いて、本実施形態に係る学習装置2の機能構成の一例を説明する。図10は、本実施形態に係る学習装置2の機能構成の一例を模式的に例示する。
図10に示すように、学習装置2の制御部21は、記憶部22に記憶された学習プログラム221をRAMに展開する。そして、制御部21は、RAMに展開された学習プログラム221をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図10に示されるとおり、本実施形態に係る学習装置2は、学習データ取得部211、及び学習処理部212を備えるコンピュータとして機能する。
学習データ取得部211は、車両の運転席に着いた運転者を撮影するように配置された撮影装置から取得される撮影画像、当該運転者の顔の挙動に関する顔挙動情報を含む当該運転者の観測情報、及び当該運転者の着座に関する着座情報の組を学習データとして取得する。本実施形態では、学習データ取得部211は、低解像度撮影画像223、観測情報224、着座情報225の組を学習データ222として取得する。低解像度撮影画像223及び観測情報224はそれぞれ、上記低解像度撮影画像1231及び観測情報124に対応する。着座情報225は、上記着座情報125に対応する。学習処理部212は、低解像度撮影画像223及び観測情報224を入力すると着座情報225に対応する出力値を出力するように学習器を学習させる。これにより、この学習装置2では、上述した誤判定を避けるための、学習が行われる。
図10に示されるとおり、本実施形態において、学習対象となる学習器は、ニューラルネットワーク6である。当該ニューラルネットワーク6は、全結合ニューラルネットワーク61、畳み込みニューラルネットワーク62、結合層63、及びLSTMネットワーク64を備え、上記ニューラルネットワーク5と同様に構成される。全結合ニューラルネットワーク61、畳み込みニューラルネットワーク62、結合層63、及びLSTMネットワーク64はそれぞれ、上記全結合ニューラルネットワーク51、畳み込みニューラルネットワーク52、結合層53、及びLSTMネットワーク54と同様である。学習処理部212は、ニューラルネットワークの学習処理により、全結合ニューラルネットワーク61に観測情報224を入力し、畳み込みニューラルネットワーク62に低解像度撮影画像223を入力すると、着座情報225に対応する出力値をLSTMネットワーク64から出力するニューラルネットワーク6を構築する。そして、学習処理部212は、構築したニューラルネットワーク6の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。
<6.着座判定装置の動作>
次に、図11を用いて、着座判定装置1の動作例を説明する。図11は、着座判定装置1の処理手順の一例を例示するフローチャートである。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
まず、運転者800は、車両のイグニッション電源をオンにすることで、着座判定装置1を起動し、起動した着座判定装置1にプログラム121を実行させる。着座判定装置1が起動するタイミングは、これに限られない。例えば車両が手動運転モードと自動運転モードとを有する場合、着座判定装置1が起動するタイミングは、自動運転モードが起動されたタイミングでもよい。着座判定装置1の制御部11は、ナビゲーション装置30から地図情報、周辺情報、及びGPS情報を取得して、取得した地図情報、周辺情報、及びGPS情報に基づいて車両の自動運転を開始する。自動運転の制御方法には、公知の制御方法が利用可能である。そして、車両の自動運転を開始した後(ステップS201のYES)、制御部11は、以下の処理手順に従って、運転者800の状態を監視する。
(ステップS202)
ステップS101では、制御部11は、画像取得部111として機能し、車両の運転席についた運転者800を撮影するように配置されたカメラ31から撮影画像123を取得する。取得する撮影画像123は、動画像であってもよいし、静止画像であってもよい。撮影画像123を取得すると、制御部11は、次のステップS203に処理を進める。
(ステップS203)
ステップS203では、制御部11は、観測情報取得部112として機能し、運転者800の顔に挙動する顔挙動情報1241及び生体情報1242を含む観測情報124を取得する。観測情報124を取得すると、制御部11は、次のステップS204に処理を進める。
顔挙動情報1241は適宜取得されてよい。例えば、制御部11は、ステップS202で取得した撮影画像123に対して所定の画像解析を行うことで、運転者800の顔の検出可否、顔の位置、顔の向き、顔の動き、視線の方向、顔の器官の位置、及び目の開閉の少なくともいずれか1つに関する情報を顔挙動情報1241として取得することができる。
顔挙動情報1241の取得方法の一例として、まず、制御部11は、撮影画像123から運転者800の顔を検出し、検出した顔の位置を特定する。これにより、制御部11は、顔の検出可否及び位置に関する情報を取得することができる。また、継続的に顔の検出を行うことで、制御部11は、顔の動きに関する情報を取得することができる。次に、制御部11は、検出した顔の画像内において、運転者800の顔に含まれる各器官(眼、口、鼻、耳等)を検出する。これにより、制御部11は、顔の器官の位置に関する情報を取得することができる。そして、制御部11は、検出した各器官(眼、口、鼻、耳等)の状態を解析することで、顔の向き、視線の方向、及び目の開閉に関する情報を取得することができる。顔の検出、器官の検出、及び器官の状態の解析には、公知の画像解析方法が用いられてよい。
取得される撮影画像123が、動画像又は時系列に並んだ複数の静止画像である場合、制御部11は、これらの画像解析を撮影画像123の各フレームに実行することで、時系列に沿って各種情報を取得することができる。これにより、制御部11は、ヒストグラム又は統計量(平均値、分散値等)で表された各種情報を時系列データで取得することができる。
また、制御部11は、生体センサ32から生体情報(例えば、脳波、心拍数等)1242を取得する。例えば、生体情報1242は、ヒストグラム又は統計量(平均値、分散値等)で表されてよい。顔挙動情報1241と同様に、制御部11は、生体センサ32に継続的にアクセスすることで、生体情報1242を時系列データで取得することができる。なお、上述したように、生体情報1242は、必ずしも必要ではなく、制御部11は、顔挙動情報1241のみを用いて観測情報124を生成することができる。
(ステップS204)
ステップS204では、制御部11は、解像度変換部113として機能し、ステップS202で取得した撮影画像123の解像度を低下させる。これにより、制御部11は、低解像度撮影画像1231を形成する。低解像度化の処理方法は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、ニアレストネイバー法、バイリニア補間法、バイキュービック法等により、低解像度撮影画像1231を形成することができる。低解像度撮影画像1231を形成すると、制御部11は、次のステップS104に処理を進める。なお、本ステップS103は省略されてもよい。すなわち、制御部11は、撮影画像123の低解像度化を行うことなく、撮影画像123を学習器5への入力とすることができる。
(ステップS205及びS206)
ステップS205では、制御部11は、運転状態推定部114として機能し、取得した観測情報124及び低解像度撮影画像1231をニューラルネットワーク5の入力として用いて、当該ニューラルネットワーク5の演算処理を実行する。これにより、ステップS105では、制御部11は、着座情報125それぞれに対応する出力値を当該ニューラルネットワーク5から得る。
具体的には、制御部11は、ステップS203で取得した観測情報124を全結合ニューラルネットワーク51の入力層511に入力し、ステップS204で取得した低解像度撮影画像1231を、畳み込みニューラルネットワーク52の最も入力側に配置された畳み込み層521に入力する。そして、制御部11は、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、着座情報125に対応する出力値をLSTMネットワーク54の出力層543から取得する。
(ステップS207及びS208)
ステップS207では、制御部11は、警告部115として機能し、ステップS206で取得した着座情報125に基づいて、運転者800が運転席に着座しているか否かを判定する。そして、運転者800が運転席に着座していると判定した場合には、制御部11は、次のステップS208を省略して、本動作例に係る処理を終了する。一方、運転者800が運転席に着座していないと判定した場合には、制御部11は、次のステップS208の処理を実行する。すなわち、制御部11は、スピーカ33やディスプレイを介して、運転者が運転席に着座していないことを報知する。あるいは、自動車を減速したり、停止させることもできる。その後、運転が行われていれば(ステップS201のYES)、引き続き、ステップS202〜S207の処理を行う。一方、運転が行われていない場合には(ステップS201のNO)、処理を停止する。
<7.特徴>
以上のように、本実施形態に係る着座判定装置1は、上記ステップS202〜ステップS204までの処理により、運転者800の顔挙動情報1241を含む観測情報124と車両の運転席に着いた運転者を撮影するように配置されたカメラ3から得られる撮影画像(低解像度撮影画像1231)とを取得する。そして、着座判定装置1は、上記ステップS205及びS206により、取得した観測情報124及び低解像度撮影画像1231を学習済みのニューラルネットワーク(ニューラルネットワーク5)の入力として用いることで、運転者800が運転席900に着座しているか否か判定する。この学習済みのニューラルネットワークは、上記学習装置2により、低解像度撮影画像223、観測情報224、着座情報225を含む学習データを用いて作成される。したがって、本実施形態では、運転者の着座を判定する過程に、運転者800の顔の挙動だけではなく、低解像度撮影画像から判別され得る運転者800の身体の状態(例えば、身体の向き、姿勢等)を反映することができる。
よって、撮影画像123において、運転席900に写る者の身体の状態から、これが、運転者800であるか、助手席や後部座席の者が運転席900に身体を乗り出しているのであるか、を判定することができる。また、運転者800が着座している場合でも、運転者800がうつむいたり、後を向いたりする場合には、顔の器官を正確に検出できないが、このような場合でも運転者800の身体の状態を検出することで、運転者800が運転席900に着座していると判定することができる。したがって、運転者800が運転席900に着座しているか否かを精度よく判定することができる。
また、本実施形態では、ニューラルネットワーク(5、6)の入力として、運転者の顔挙動情報を含む観測情報(124、224)を利用している。そのため、ニューラルネットワーク(5、6)に入力するための撮影画像は、運転者の顔の挙動を判別できるほど高解像度のものでなくてもよい。そこで、本実施形態では、ニューラルネットワーク(5、6)の入力として、カメラ31により得られる撮影画像を低解像度化した低解像度撮影画像(1231、223)を用いてもよい。これにより、ニューラルネットワーク(5、6)の演算処理の計算量を低減することができ、プロセッサの負荷を低減することができる。なお、低解像度撮影画像(1231、223)の解像度は、運転者の顔の挙動は判別できないが、運転者の姿勢に関する特徴を抽出可能な程度であるのが好ましい。なお、上述したように、撮影画像123の低解像度化を必ずしも行う必要はなく、例えば、演算処理の負荷を考慮しなければ、撮影画像123を学習器5の入力とすることができる。
また、本実施形態に係るニューラルネットワーク5は、全結合ニューラルネットワーク51及び畳み込みニューラルネットワーク52を入力側に備えている。そして、上記ステップS104では、全結合ニューラルネットワーク51に観測情報124を入力し、畳み込みニューラルネットワーク52に低解像度撮影画像1231を入力している。これにより、各入力に適した解析を行うことができる。また、本実施形態に係るニューラルネットワーク5は、LSTMネットワーク54を備えている。これにより、観測情報124及び低解像度撮影画像1231に時系列データを利用し、短期的な依存関係だけでなく、長期的な依存関係を考慮して、運転者800の着座を判定することができる。したがって、本実施形態によれば、運転者800の着座の判定精度を高めることができる。
<C.変形例>
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
<1>
例えば、上記実施形態では、図5及び図6に示されるとおり、各ニューラルネットワーク(7、8)として、多層構造を有する一般的な順伝播型ニューラルネットワークを用いている。しかしながら、各ニューラルネットワーク(7、8)の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各ニューラルネットワーク(7、8)は、入力層71及び中間層72を畳み込み層及びプーリング層として利用する畳み込みニューラルネットワークであってもよい。また、例えば、各ニューラルネットワーク(7、8)は、中間層72から入力層71等のように出力側から入力側に再帰する結合を有する再帰型ニューラルネットワークであってもよい。なお、各ニューラルネットワーク(7、8)の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、及び各ニューロンの伝達関数は、実施の形態に応じて適宜決定されてよい。
<2>
上記実施形態では、着座判定装置1と学習器(ニューラルネットワーク)7の学習を行う学習装置2とは別々のコンピュータで構成されている。しかしながら、着座判定装置1及び学習装置2の構成はこのような例に限定されなくてもよく、着座判定装置1及び学習装置2の両方の機能を有するシステムを1台又は複数台のコンピュータで実現してもよい。また、学習装置2を着座判定装置1に組み込んで使用することもできる。
<3>
上記実施形態では、学習器は、ニューラルネットワークにより構成されている。しかしながら、学習器の種類は、カメラ3で撮影された撮影画像123を入力として利用可能であれば、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。複数の撮影画像123を入力可能な学習器として、例えば、上記ニューラルネットワークの他、サポートベクターマシン、自己組織化マップ、又は強化学習により学習を行う学習器によって構成された学習器を挙げることができる。
<4>
上記実施形態では、着座判定装置1を単独の装置として、自動車に実装しているが、例えば、自動車のコンピュータに、上記着座判定プログラムをインストールして、着座判定を行うこともできる。
<5>
顔の器官を検出する方法は、上記のような学習器以外でも可能である。また、顔の器官を検出する以外に、顔自体の検出や、人の体の検出を行うこともできる。そのような方法としては、種々の方法があり、例えば、公知のパターンマッチングを用いることができる。あるいは三次元モデルを用いて特徴点の抽出を行う手法があり、具体的には、例えば、国際公開2006/051607号公報、特開2007−249280号公報などに記載されている手法を採用することができる。
<6>
また、視体積交差法により運転席に位置する物体の三次元形状を取得し、この三次元形状が人であるか否かを判断することで、着座を判定することができる。この場合、車内に複数のカメラを設け、これら複数のカメラで複数の角度から運転席を撮影し、複数の撮影画像を取得する。そして、着座判定装置1では、解析部において、複数の撮影画像から、視体積交差法により運転席に着座する物体の三次元形状を取得する。そして、この三次元形状が人であるか否かを判断し、人である場合には、運転席に運転者が着座していると判定することができる。一方、三次元形状を取得できない場合、あるいは三次元形状が人ではないと判定されたた場合には、上記のように警告を行うことができる。
また、上記実施形態では、観測情報124は、顔挙動情報1241の他に、生体情報1242を含んでいる。しかしながら、観測情報124の構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、生体情報1242は省略されてもよい。また、例えば、観測情報124は、生体情報1242以外の情報を含んでいてもよい。
(付記1)
自動車の運転席を撮影する少なくとも1つのカメラと接続される運転者の着座判定装置であって、
少なくとも1つのハードウェアプロセッサを備え、
前記ハードウェアプロセッサは、
前記カメラによって撮影された撮影画像を取得し、
前記撮影画像から前記運転席に運転者が着座しているか否かを判断する、運転者の着座判定装置。
(付記2)
自動車の運転席を、少なくとも1つのカメラで撮影するステップと、
少なくとも1つのハードウェアプロセッサにより、前記カメラによって撮影された撮影画像から前記運転席に運転者が着座しているか否かを判断するステップと、
を備えている、運転者の着座判定方法。
1…着座判定装置、100…着座判定システム、
11…制御部、12…記憶部、13…通信インタフェース、
14…入力装置、15…出力装置、16…外部インタフェース、
17…ドライブ、
111…画像取得部、112…解析部、113…警告部、
121…着座判定プログラム、122…学習結果データ、
123…撮影画像、
2…学習装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…入力装置、25…出力装置、26…外部インタフェース、
27…ドライブ、
211…学習画像取得部、212…学習処理部、
221…学習プログラム、222…学習データ、
3…カメラ、
7…ニューラルネットワーク、
71…入力層、72…中間層(隠れ層)、73…出力層、
8…ニューラルネットワーク、
81…入力層、82…中間層(隠れ層)、83…出力層、
91・92…記憶媒体

Claims (15)

  1. 自動車の運転席を撮影する少なくとも1つのカメラと接続される運転者の着座判定装置であって、
    前記カメラによって撮影された撮影画像を取得する画像取得部と、
    前記撮影画像から前記運転席に運転者が着座しているか否かを判断する解析部と、
    を備えている、運転者の着座判定装置。
  2. 前記運転者の顔の挙動に関する顔挙動情報を含む当該運転者の観測情報を取得する観測情報取得部をさらに備え、
    前記解析部は、
    前記運転者の前記運転席への着座を判定するための学習を行った学習済みの学習器に、前記撮影画像及び前記観測情報を入力することで、前記運転者が着座しているか否かの着座情報を当該学習器から取得する運転者状態推定部と、
    を備える、請求項1に記載の運転者の着座判定装置。
  3. 前記観測情報取得部は、取得した前記撮影画像に対して所定の画像解析を行うことで、前記運転者の顔の検出可否、顔の位置、顔の向き、顔の動き、視線の方向、顔の器官の位置、及び目の開閉の少なくともいずれか1つに関する情報を前記顔挙動情報として取得する、請求項2に記載の運転者の着座判定装置。
  4. 前記解析部は、取得した前記撮影画像の解像度を低下させる解像度変換部を更に備え、
    前記運転者状態推定部は、解像度を低下させた前記撮影画像を前記学習器に入力する、
    請求項2または3に記載の運転者の着座判定装置。
  5. 前記解析部は、前記撮影画像から前記運転者の顔を検出することで、前記運転席に運転者が着座していると判断する、請求項1に記載の運転者の着座判定装置。
  6. 前記解析部は、前記撮影画像に含まれる像から人の顔の器官を検出することで、前記運転席に運転者が着座していると判断する、請求項5に記載の運転者の着座判定装置。
  7. 前記解析部は、
    人の顔を検出するための学習を行った学習済みの学習器であって、運転席を含む撮影画像を入力とし、当該撮影画像に人の顔が含まれるか否かを出力とする学習器を備えている、請求項5または6に記載の運転者の着座判定装置。
  8. 前記運転席に運転者が着座していないと判断した場合に、警告を発する警告部をさらに備えている、請求項1から7のいずれかに記載に運転者の着座判定装置。
  9. 前記自動車は、自動運転機能を有し、
    前記解析部は、前記自動運転機能の作動中に、運転者の着座を判断する、請求項1から8のいずれかに記載に運転者の着座判定装置。
  10. 自動車の運転席を、少なくとも1つのカメラで撮影するステップと、
    前記カメラによって撮影された撮影画像から前記運転席に運転者が着座しているか否かを判断するステップと、
    を備えている、運転者の着座判定方法。
  11. 前記撮影画像から前記運転者の顔を検出することで、前記運転席に運転者が着座していると判断する、請求項10に記載の運転者の着座判定方法。
  12. 前記撮影画像に含まれる像から人の顔の器官を検出することで、前記運転席に運転者が着座していると判断する、請求項10に記載の運転者の着座判定方法。
  13. 自動車のコンピュータに、
    自動車の運転席を、少なくとも1つのカメラで撮影するステップと、
    前記カメラによって撮影された撮影画像から前記運転席に運転者が着座しているか否かを判断するステップと、
    を実行させる、運転者の着座判定プログラム。
  14. 前記撮影画像から前記運転者の顔を検出することで、前記運転席に運転者が着座していると判断する、請求項13に記載の運転者の着座判定プログラム。
  15. 前記撮影画像に含まれる像から人の顔の器官を検出することで、前記運転席に運転者が着座していると判断する、請求項14に記載の運転者の着座判定プログラム。
JP2017049009A 2017-03-14 2017-03-14 運転者の着座判定装置 Pending JP2018149990A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017049009A JP2018149990A (ja) 2017-03-14 2017-03-14 運転者の着座判定装置
PCT/JP2017/036276 WO2018168038A1 (ja) 2017-03-14 2017-10-05 運転者の着座判定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017049009A JP2018149990A (ja) 2017-03-14 2017-03-14 運転者の着座判定装置

Publications (2)

Publication Number Publication Date
JP2018149990A true JP2018149990A (ja) 2018-09-27
JP2018149990A5 JP2018149990A5 (ja) 2019-04-11

Family

ID=63523251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017049009A Pending JP2018149990A (ja) 2017-03-14 2017-03-14 運転者の着座判定装置

Country Status (2)

Country Link
JP (1) JP2018149990A (ja)
WO (1) WO2018168038A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507156A (zh) * 2019-01-30 2020-08-07 斯特拉德视觉公司 利用乘客的关键点检测车辆占有的方法及装置
WO2021001942A1 (ja) * 2019-07-02 2021-01-07 三菱電機株式会社 運転者監視装置及び運転者監視方法
JP2021043773A (ja) * 2019-09-12 2021-03-18 Kddi株式会社 符号化パラメータ特徴量を利用した対象識別方法、装置及びプログラム
JPWO2021240769A1 (ja) * 2020-05-29 2021-12-02
US11999233B2 (en) 2022-01-18 2024-06-04 Toyota Jidosha Kabushiki Kaisha Driver monitoring device, storage medium storing computer program for driver monitoring, and driver monitoring method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007518970A (ja) * 2003-11-21 2007-07-12 シーメンス コーポレイト リサーチ インコーポレイテツド ステレオ検出器を使用して乗員および頭部ポーズを検出するためのシステムおよび方法
JP2007198929A (ja) * 2006-01-27 2007-08-09 Hitachi Ltd 車両内状態検知システム,車両内状態検知装置および方法
JP2013252863A (ja) * 2013-09-27 2013-12-19 Takata Corp 乗員拘束制御装置および乗員拘束制御方法
JP2016039539A (ja) * 2014-08-08 2016-03-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2016092773A1 (ja) * 2014-12-09 2016-06-16 株式会社デンソー 自動運転制御装置、運転情報出力装置、フットレスト、自動運転制御方法、および運転情報出力方法
JP2017016512A (ja) * 2015-07-03 2017-01-19 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002264826A (ja) * 2001-03-09 2002-09-18 Toyota Motor Corp 移動体の自動運転装置
JP6358171B2 (ja) * 2015-05-22 2018-07-18 株式会社デンソー 操舵制御装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007518970A (ja) * 2003-11-21 2007-07-12 シーメンス コーポレイト リサーチ インコーポレイテツド ステレオ検出器を使用して乗員および頭部ポーズを検出するためのシステムおよび方法
JP2007198929A (ja) * 2006-01-27 2007-08-09 Hitachi Ltd 車両内状態検知システム,車両内状態検知装置および方法
JP2013252863A (ja) * 2013-09-27 2013-12-19 Takata Corp 乗員拘束制御装置および乗員拘束制御方法
JP2016039539A (ja) * 2014-08-08 2016-03-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2016092773A1 (ja) * 2014-12-09 2016-06-16 株式会社デンソー 自動運転制御装置、運転情報出力装置、フットレスト、自動運転制御方法、および運転情報出力方法
JP2017016512A (ja) * 2015-07-03 2017-01-19 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507156A (zh) * 2019-01-30 2020-08-07 斯特拉德视觉公司 利用乘客的关键点检测车辆占有的方法及装置
CN111507156B (zh) * 2019-01-30 2023-09-15 斯特拉德视觉公司 利用乘客的关键点检测车辆占有的方法及装置
WO2021001942A1 (ja) * 2019-07-02 2021-01-07 三菱電機株式会社 運転者監視装置及び運転者監視方法
JPWO2021001942A1 (ja) * 2019-07-02 2021-12-16 三菱電機株式会社 運転者監視装置及び運転者監視方法
JP7003332B2 (ja) 2019-07-02 2022-01-20 三菱電機株式会社 運転者監視装置及び運転者監視方法
JP2021043773A (ja) * 2019-09-12 2021-03-18 Kddi株式会社 符号化パラメータ特徴量を利用した対象識別方法、装置及びプログラム
JP7145830B2 (ja) 2019-09-12 2022-10-03 Kddi株式会社 符号化パラメータ特徴量を利用した対象識別方法、装置及びプログラム
JPWO2021240769A1 (ja) * 2020-05-29 2021-12-02
US11999233B2 (en) 2022-01-18 2024-06-04 Toyota Jidosha Kabushiki Kaisha Driver monitoring device, storage medium storing computer program for driver monitoring, and driver monitoring method

Also Published As

Publication number Publication date
WO2018168038A1 (ja) 2018-09-20

Similar Documents

Publication Publication Date Title
JP6264492B1 (ja) 運転者監視装置、運転者監視方法、学習装置及び学習方法
JP6245398B2 (ja) 状態推定装置、状態推定方法、及び状態推定プログラム
CN111602137B (zh) 评估装置、动作控制装置、评估方法以及存储媒介
JP7011578B2 (ja) 運転行動を監視する方法及びシステム
WO2019149061A1 (en) Gesture-and gaze-based visual data acquisition system
CN112673378B (zh) 推断器生成装置、监视装置、推断器生成方法以及推断器生成程序
US7853051B2 (en) Recognizing apparatus and method, recording media, and program
WO2018168038A1 (ja) 運転者の着座判定装置
JP5001930B2 (ja) 動作認識装置及び方法
KR20230137221A (ko) 이미지 검증 방법, 그를 수행하는 진단 시스템 및 그를 수행하는 방법이 기록된 컴퓨터로 판독가능한 기록매체
WO2017209225A1 (ja) 状態推定装置、状態推定方法、及び状態推定プログラム
CN115719486A (zh) 基于上下文的状态估计
JP2007304721A (ja) 画像処理装置及び画像処理方法
KR20190031786A (ko) 전자 장치 및 이의 피드백 정보 획득 방법
JP2018151938A (ja) 画像処理装置
JP7219787B2 (ja) 情報処理装置、情報処理方法、学習方法、およびプログラム
JP2022135676A (ja) 移動体制御システム及び移動体制御方法
JP2018173757A (ja) 検知装置、学習装置、検知方法、学習方法、およびプログラム
JP2021189852A (ja) 状態判定装置および状態判定方法
EP4332886A1 (en) Electronic device, method for controlling electronic device, and program
EP4332885A1 (en) Electronic device, control method for electronic device, and program
JP7466433B2 (ja) 運転データ記録装置、運転支援システム、運転データ記録方法、およびプログラム
JP7219788B2 (ja) 情報処理装置、情報処理方法、学習方法、およびプログラム
KR102475961B1 (ko) 이미지 처리 방법, 및 이를 이용하는 장치 및 프로그램
JP2024514994A (ja) 画像検証方法、それを実行する診断システム、及びその方法が記録されたコンピューター読取可能な記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190304

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200512