JP2023114500A - 状態判定装置、状態判定方法、および、プログラム - Google Patents
状態判定装置、状態判定方法、および、プログラム Download PDFInfo
- Publication number
- JP2023114500A JP2023114500A JP2022016819A JP2022016819A JP2023114500A JP 2023114500 A JP2023114500 A JP 2023114500A JP 2022016819 A JP2022016819 A JP 2022016819A JP 2022016819 A JP2022016819 A JP 2022016819A JP 2023114500 A JP2023114500 A JP 2023114500A
- Authority
- JP
- Japan
- Prior art keywords
- user
- vehicle
- state
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 53
- 230000008569 process Effects 0.000 claims description 38
- 238000001514 detection method Methods 0.000 claims description 34
- 230000009471 action Effects 0.000 claims description 12
- 230000007246 mechanism Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 24
- 210000003128 head Anatomy 0.000 description 13
- 206010041349 Somnolence Diseases 0.000 description 8
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 206010024642 Listless Diseases 0.000 description 1
- 206010062519 Poor quality sleep Diseases 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 208000017971 listlessness Diseases 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】容易な処理により車両内のユーザの状態を判定する。【解決手段】状態判定装置1は、車両の車室内に設置されるカメラ5であって、車両の外部の光景と、車室内にいるユーザとの両方が撮影された一の画像を生成するカメラ5と、カメラ5が生成した一の画像に対する処理によって一の画像に映っている光景とユーザとから取得した情報を用いて、ユーザの状態を判定し、判定結果を出力する判定部10とを備える。【選択図】図2
Description
本発明は、状態判定装置、状態判定方法、および、プログラムに関する。
車両の運転者の視線に基づいて、運転者による車両の運転を支援する技術がある(特許文献1参照)。
しかしながら、上記技術では、車内カメラおよび車外カメラの制御の処理、ならびに、上記のカメラにより生成された画像の画像処理などの多くの処理が必要であり、処理が容易でないという問題がある。
そこで、本発明は、容易な処理により車両内のユーザの状態を判定する状態判定装置を提供する。
本発明の一態様に係る状態判定装置は、車両の車室内に設置されるカメラであって、前記車両の外部の光景と、前記車室内にいるユーザとの両方が撮影された一の画像を生成するカメラと、前記カメラが生成した前記一の画像に対する処理によって前記一の画像に映っている前記光景と前記ユーザとから取得した情報を用いて、前記ユーザの状態を判定し、判定結果を出力する判定部とを備える状態判定装置である。
なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明の情報処理方法は、容易な処理により車両内のユーザの状態を判定することができる。
(本発明の基礎となった知見)
本発明者は、「背景技術」の欄において記載した、運転支援技術について、以下の問題が生じることを見出した。
本発明者は、「背景技術」の欄において記載した、運転支援技術について、以下の問題が生じることを見出した。
特許文献1に示される技術では、車内カメラおよび車外カメラそれぞれにより取得した画像を用いて、車両の運転者の視線に基づいて、運転者による車両の運転を支援する。この場合、車内カメラおよび車外カメラの制御の処理、ならびに、上記のカメラにより生成された画像の画像処理などの煩雑な処理が必要であり、処理が容易でないという問題がある。使用されるカメラが複数であることから、各カメラの撮影などの処理のほか、各カメラの撮影タイミングの調整のための処理も必要であり、そのような処理において撮影タイミングに生じ得る時間差を考慮する必要もある。
ところで、車内カメラを車室内の天井の近傍に設置すると、当該車内カメラの撮影画角に車両の乗員(運転手など)と、車両の窓(サイドウィンドウまたはリアウィンドウ)とが含まれ得る。その車内カメラが撮影した画像には、乗員の身体の少なくとも一部と、車両の窓を介して見える、車外の光景の少なくとも一部との両方が映っている。
そこで、上記のように設置されたカメラにより撮影された一の画像から、車外の光景と車内の乗員との両方に関する情報を取得し、車外の光景を考慮して、車内の乗員の状態を判定することが可能であることに、本願発明者は着想した。このようにすれば、車内カメラと車外カメラとを個別に用意する場合(特許文献1参照)に生ずる煩雑な処理が不要となり、複数のカメラを用いる場合に想定される撮影タイミングのずれが生じ得ない利点がある。
本発明は、容易な処理により車両内のユーザの状態を判定する状態判定装置を提供する。
本発明の一態様に係る状態判定装置は、車両の車室内に設置されるカメラであって、前記車両の外部の光景と、前記車室内にいるユーザとの両方が撮影された一の画像を生成するカメラと、前記カメラが生成した前記一の画像に対する処理によって前記一の画像に映っている前記光景と前記ユーザとから取得した情報を用いて、前記ユーザの状態を判定し、判定結果を出力する判定部とを備える状態判定装置である。
上記態様によれば、状態判定装置は、カメラによる撮影により生成された一の画像から、車両の外部の光景に関する情報と、ユーザに関する情報との両方を取得することができ、これらの情報を用いて容易にユーザの状態を判定することができる。仮に車両の外部の光景に関する情報と、ユーザに関する情報とを、別個の撮影画像から取得するとすれば、複数の画像の取得および管理の処理(具体的には、複数の画像を撮影するためのカメラの制御、複数の画像の撮影タイミングのずれを考慮した管理、および、複数の画像を対応付けた管理など)が必要である。上記態様によれば、一の画像から上記両方の情報を取得することができるので、複数の画像の取得および管理の処理の必要がなくなり、処理がより容易となる。特に、一の画像から取得される上記両方の情報は、当然に、同じ時刻の情報を示しているので、管理がより容易となる。このように、状態判定装置は、容易な処理により車両内のユーザの状態を判定することができる。
例えば、前記カメラは、前記車両のサイドウィンドウの少なくとも一部と、前記ユーザが乗車する位置の少なくとも一部との両方が撮影画角内に入る位置および姿勢で設置されていてもよい。
上記態様によれば、状態判定装置は、カメラにより撮影された一の画像が、より容易に、車両の外部の光景とユーザとの両方が映っている画像になる。よって、状態判定装置は、容易な処理により車両内のユーザの状態を判定することができる。
例えば、前記カメラは、前記車室内の天井の近傍の位置に設置され、かつ、前記カメラの撮影方向が水平より下方を向く姿勢で設置されていてもよい。
上記態様によれば、状態判定装置は、車両の外部の光景とユーザとの両方が映っている画像を生成するような位置および姿勢で、カメラがより容易に設置される。よって、状態判定装置は、容易な処理により車両内のユーザの状態を判定することができる。
例えば、前記カメラは、前記ユーザが乗車する位置より、前記車両の進行方向側の位置に設置され、かつ、前記カメラの撮影方向が、前記車両の進行方向と略反対になる姿勢で設置されていてもよい。
上記態様によれば、状態判定装置は、車両の外部の光景とユーザの顔との両方が映っている画像を生成するような位置および姿勢で、カメラがより容易に設置される。画像にユーザの顔が映っていることで、ユーザの状態の判定がより容易になされ得る。また、画像にユーザの顔が映っていることで、判定の精度が向上するので、ユーザの状態の判定結果が適切となり得る。よって、状態判定装置は、より適切に、車両内のユーザの状態を判定することができる。
例えば、前記カメラは、前記車両のルームミラーの近傍の位置に設置されていてもよい。
上記態様によれば、状態判定装置は、車両の外部の光景とユーザの顔との両方が映っている画像を生成するような位置および姿勢で、カメラがより容易に設置される。とくに、ユーザがルームミラーに視線を向けているか否かを、より高い精度で判定することにより、ユーザの状態をより適切に判定することができる。よって、状態判定装置は、より適切に、車両内のユーザの状態を判定することができる。
例えば、前記処理は、前記一の画像に映っている前記光景に含まれている、前記車両の外部にある物体を認識する第一認識処理と、前記一の画像に映っている前記ユーザの頭部の姿勢または視線を検出する第一検出処理とを含み、前記判定部は、前記ユーザの状態の判定として、前記第一検出処理で検出した前記姿勢または前記視線に基づいて、前記第一認識処理で認識した前記物体に前記ユーザが気付いているか否かを判定してもよい。
上記態様によれば、状態判定装置は、カメラによる撮影により生成された一の画像から、ユーザの状態として、状態判定装置が認識した車外の物体にユーザが気付いているか否かを判定することができる。よって、状態判定装置は、容易な処理により車両内のユーザの状態を具体的に判定することができる。
例えば、前記車両の外部の光景は、前記車両の左または右の一方のサイドウィンドウを通して前記カメラから見える光景を含み、前記判定部は、前記ユーザが前記物体の存在に気付いていないと判定した場合であって、かつ、前記車両が左または右の前記一方に旋回すること、または、前記ユーザが前記物体の存在に気付いていない状態が所定時間継続したことを検出した場合に、前記ユーザに通知してもよい。
上記態様によれば、状態判定装置は、判定したユーザの状態に加えて、車両の旋回またはユーザが気付いていない時間長についての検出結果を用いてユーザに通知をすることで、より適切な車両の運行に寄与する。よって、状態判定装置は、車両内のユーザの状態を具体的に判定しながら、より適切な車両の運行に寄与する。
例えば、前記車両の外部の光景は、前記車両のリアウィンドウを通して前記カメラから見える光景を含み、前記判定部は、前記ユーザが前記物体の存在に気付いていないと判定した場合であって、かつ、前記車両が後退すること、または、前記ユーザが前記車両を後退させる操作をしたことを検出した場合に、前記ユーザに通知してもよい。
上記態様によれば、状態判定装置は、判定したユーザの状態に加えて、車両の後退についての検出結果を用いてユーザに通知をすることで、より適切な車両の運行に寄与する。よって、状態判定装置は、車両内のユーザの状態を具体的に判定しながら、より適切な車両の運行に寄与する。
例えば、前記処理は、前記一の画像に映っている前記光景に含まれている、前記車両の外部にある物体を認識する第一認識処理と、前記一の画像に映っている前記ユーザの姿勢を検出する第二検出処理を含み、前記判定部は、前記ユーザの状態の判定として、前記第二検出処理で検出した前記姿勢に基づいて、前記第一認識処理で認識した前記物体が存在する状況において、前記ユーザが前記車両を降車する動作をしているか否かを判定してもよい。
上記態様によれば、状態判定装置は、カメラによる撮影により生成された一の画像から、ユーザの状態として、ユーザの降車を判定することができる。よって、状態判定装置は、容易な処理により車両内のユーザの状態を具体的に判定することができる。
例えば、前記判定部は、前記ユーザが前記動作をしていると判定した場合であって、前記第一認識処理で認識した前記物体に前記ユーザが接触する危険があることを検出した場合に、前記ユーザに通知してもよい。
上記態様によれば、状態判定装置は、カメラによる撮影により生成された一の画像から、ユーザの状態として、状態判定装置が認識した車外の物体に、車両を降車するユーザが接触する危険があるか否かを判定することができる。よって、状態判定装置は、車両内のユーザの状態を具体的に判定しながら、より適切な車両の運行に寄与する。
例えば、前記処理は、前記一の画像に映っている前記光景に含まれている、前記車両の外部にある他車両または静止物体を認識する第二認識処理と、前記一の画像に映っている前記ユーザの状態を検出する第三検出処理とを含み、前記判定部は、前記第二認識処理で認識した前記他車両または前記静止物体に基づいて、前記車両の走行状況を判定し、前記走行状況によって、前記第三検出処理で検出した前記ユーザの状態を補正してから、前記ユーザの状態として出力してもよい。
上記態様によれば、状態判定装置は、車両の走行状況を考慮して、ユーザの状態を適切に判定することができる。よって、状態判定装置は、容易な処理により車両内のユーザの状態を具体的に判定することができる。
例えば、前記カメラは、ユーザによる操作に基づいて、撮影方向が変更される機構を有し、前記判定部は、さらに、前記一の画像に前記車両のサイドウィンドウの少なくとも一部と、前記ユーザが乗車する位置の少なくとも一部との両方が含まれているか否かを判定し、含まれていないと判定した場合に前記ユーザに通知してもよい。
上記態様によれば、状態判定装置は、カメラにより撮影された一の画像に、車両の外部の光景とユーザとの両方が映っていないことをユーザに通知する。通知を受けたユーザは、カメラの撮影方向が変更される機構を操作することで、カメラの撮影方向を変更することができる。これにより、カメラにより撮影された一の画像が、車両の外部の光景とユーザとの両方が映っている画像になるようにすることに寄与する。よって、状態判定装置は、容易な処理により車両内のユーザの状態を判定することができる。
また、本発明の一態様に係る状態判定方法は、車両の車室内に設置されるカメラによって、前記車両の外部の光景と、前記車室内にいるユーザとの両方が撮影された一の画像を生成し、前記カメラが生成した前記一の画像に対する処理によって前記一の画像に映っている前記光景と前記ユーザとから取得した情報を用いて、前記ユーザの状態を判定し、判定結果を出力する状態判定方法である。
上記態様によれば、上記状態判定装置と同様の効果を奏する。
また、本発明の一態様に係るプログラムは、上記の状態判定方法をコンピュータに実行させるプログラムである。
上記態様によれば、上記状態判定装置と同様の効果を奏する。
なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
本実施の形態において、容易な処理により車両内のユーザの状態を判定する状態判定装置および状態判定方法などについて説明する。
本実施の形態において、容易な処理により車両内のユーザの状態を判定する状態判定装置および状態判定方法などについて説明する。
図1は、実施の形態における車両Vと状態判定装置1との構成を模式的に示す説明図である。図2は、本実施の形態における状態判定装置1の機能構成を示すブロック図である。
車両Vは、例えば自動車であり、人が乗車することができる。車両Vに乗車している人をユーザUという。ユーザUは、例えば車両Vの運転席に着座する運転者であり、この場合を例として説明するが、これに限られず、助手席または後部座席に乗車している乗員でもよい。
車両Vは、ユーザUによって運転されて路面を走行する。車両Vは、乗員が乗車するための空間である車室Sを有する。車室Sには、ルームミラーおよび乗員が着座するためのシートなどが配置されている。なお、車両Vの進行方向を向いた人にとっての左方向または右方向を、それぞれ、単に左方向または右方向ともいう。
状態判定装置1は、ユーザUの状態を判定する装置である。例えば、状態判定装置1は、ユーザUの状態として、ユーザUが車両Vの外部にある物体に気付いているか否か、または、ユーザUが車両Vを降車する動作をしているか否かを判定する。また、例えば、状態判定装置1は、ユーザUの状態として、ユーザUの眠気を判定する。
図1および図2に示されるように、状態判定装置1は、カメラ5と、判定部10と、提示部20とを備える。
カメラ5は、車両Vの車室S内に設置されるカメラである。カメラ5は、車両Vの窓を介して見える車両Vの外部の光景と、車室S内にいるユーザUとの両方が撮影された一の画像を生成する。カメラ5が設置される位置および姿勢については、後で詳しく説明する。
判定部10は、ユーザUの状態を判定する機能部である。判定部10は、カメラ5が生成した画像に対する処理によって画像に映っている光景とユーザUとから取得した情報を用いて、ユーザUの状態を判定し、判定結果を出力する。判定部10は、状態判定装置1が備えるプロセッサ(例えばCPU(Central Processing Unit))(不図示)が、メモリ(不図示)を用いて所定のプログラムを実行することで実現され得る。判定部10は、例えば車両Vのダッシュボード内に配置されるが、配置位置はこれに限られない。
判定部10は、機能部として、乗員領域抽出部11と、窓領域抽出部12と、状況取得部13と、状態判定部14とを備える。
乗員領域抽出部11は、カメラ5が生成した画像に映っているユーザUの領域を抽出する。ユーザUの領域の抽出は、上記画像に対する画像処理によって周知技術を用いてなされ得る。乗員領域抽出部11は、抽出したユーザUの領域の画像を状態判定部14に提供する。
窓領域抽出部12は、カメラ5が生成した画像に映っている窓の領域を抽出する。窓の領域には、車両Vの外部の光景が映っている。窓の領域の抽出は、上記画像に対する画像処理によって周知技術を用いてなされ得る。窓領域抽出部12は、抽出した窓の領域の画像を状況取得部13に提供する。
状況取得部13は、車両Vの状況を取得し、取得した状況を示す状況情報を生成する。状況の取得は、窓領域抽出部12が抽出した窓の領域の画像に対する画像処理によってなされ得る。状況取得部13は、生成した状況情報を状態判定部14に提供する。
状態判定部14は、ユーザUの状態を判定し、判定結果を出力する。ユーザUの状態の判定は、乗員領域抽出部11が抽出した画像に対する画像処理の結果と、状況取得部13が生成した状況情報とを用いてなされ、言い換えれば、カメラ5が生成した画像に映っている光景とユーザUとから取得した情報を用いてなされ得る。状態判定部14は、判定の結果を示す結果情報を提示部20に提供する。なお、状態判定部14は、ユーザUへの通知を示す通知情報を提示部20に提供してもよい。
なお、状態判定部14は、画像に車両の窓の少なくとも一部と、ユーザUが乗車する位置の少なくとも一部との両方が含まれているか否かを判定し、含まれていないと判定した場合にユーザUに通知してもよい。通知を受けたユーザUは、カメラ5の撮影方向を変更することが想定され、その後にカメラ5が生成する画像を、車両の外部の光景とユーザとの両方が映っている画像にすることに寄与する。
以降において、カメラ5が設置される位置および姿勢について説明する。
カメラ5は、天井の近傍の位置に設置され、より具体的には、天井に設置される場合と、ルームミラーに設置される場合とがある。
図3A、図3Bおよび図4は、実施の形態におけるカメラ5が設置される位置と撮影方向との例を示す説明図である。図3Aは、カメラ5が天井に設置される場合の車室S内を左側から見た図である。図3Bは、カメラ5がルームミラーに設置される場合の車室S内を左側から見た図である。図4は、カメラ5が天井またはルームミラーに設置される場合の車室S内を天井のやや後方の位置から見た図である。
図3Aに示されるように、カメラ5は、例えば、車室S内の天井に設置され、かつ、カメラ5の撮影方向6が水平より下方を向く姿勢で設置されている。なお、天井の近傍は、車室S内において天井に比較的近い領域として定められた領域であり、例えば、鉛直方向(高さ方向)において天井から、ユーザUの頭部が位置する高さまでの領域であり得る。より具体的には、天井の近傍は、例えば、車室S内で、天井からの距離が距離H2以下である領域である。距離H2は、車室Sの鉛直方向(つまり高さ方向)の距離H1の1/5~1/10程度とすることができる。
また、図3Aに示されるように、カメラ5は、ユーザUが乗車する位置より、車両Vの進行方向側の位置に設置され、かつ、カメラ5の撮影方向6が、車両Vの進行方向と略反対になる姿勢で設置されている。なお、カメラ5が設置される位置は、例えば、車室S内で、車室Sの前方端部からの距離が距離L2以下である領域である。距離L2は、車室Sの水平方向の距離L1の1/2~1/3程度とすることができる。
また、図3Aおよび図4に示されるように、カメラ5は、車両Vの窓(つまりサイドウィンドウW1およびW2)の少なくとも一部と、ユーザUが乗車する位置の少なくとも一部との両方が撮影画角7内に入る位置および姿勢で設置されている。
なお、カメラ5は、天井に埋め込まれて設置されてもよいし、天井に取り付けられることで設置されてもよい。
また、カメラ5の位置は、ルームミラーの近傍の位置であるともいえる。ルームミラーの近傍は、車室S内においてルームミラーに比較的近い領域として定められた領域であり、例えば、ルームミラーから10cm~20cm程度以内である領域である。
なお、カメラ5は、ユーザUによる操作に基づいて、撮影方向6を変更する機構を有してもよい。撮影方向6を変更する機構は、具体的には、カメラ5が備える光学系の方向を変更する駆動機構を含んでもよい。また、撮影方向6を変更する機構は、カメラ5がルームミラーに設置される場合には、ルームミラーの向きを調整する関節機構であってもよい。状態判定部14が、画像に車両Vの窓の少なくとも一部と、ユーザUが乗車する位置の少なくとも一部との両方が含まれていないと判定した場合に行う通知を受けたユーザUが、上記機構を用いて、カメラ5の撮影方向6を変更することが想定される。
別の例として、カメラ5は、図3Bにカメラ5Aとして示されるように、車室S内のルームミラーに設置されていてもよい。ルームミラーに設置されるカメラ5Aの位置、カメラ5Aの撮影方向6A、カメラ5Aの撮影画角7Aは、図3Bおよび図4に示されている。
ルームミラーは、一般に、車両Vを運転しているユーザUが、車両Vの後方を確認するために視線を向ける対象となる。カメラ5Aがルームミラーに設置される場合、カメラ5Aが撮影により生成する画像に基づくユーザUの状態の判定(より具体的にはユーザUの視線の検出)において、ユーザUがルームミラーに視線を向けているか否かをより正確に判定することができる効果がある。これにより、状態判定部14は、ユーザUが運転中にルームミラーを適切に確認しているか否かを、より正確に認識することができる効果がある。
また、カメラ5Aは、天井に設置されるカメラ5よりもユーザUの頭部に近い位置に配置されるので、ユーザUの顔または表情がより鮮明に撮影された画像を生成することに寄与し、画像に基づく処理の精度を向上する効果を奏する。
次に、カメラ5が生成する画像について説明する。
図5は、実施の形態におけるカメラ5により生成される画像の第一例を示す説明図である。
図5に示されるように、カメラ5により生成される画像には、車両Vの窓として、サイドウィンドウW1およびW2とリアウィンドウW3とが映っており、車両Vの窓を介して車両Vの外部の光景が映っている。また、カメラ5により生成される画像にはユーザUの身体が映っている。
図5に示される画像を対象とする乗員領域抽出部11の画像処理によって、当該画像に映っているユーザUの領域31が抽出される。また、図5に示される画像を対象とする窓領域抽出部12の画像処理によって、当該画像に映っている窓の領域33、34および35が抽出される。
以降において、状況取得部13と状態判定部14とが行う画像処理と、画像処理の結果に基づく状態判定とについて、具体例を説明する。
(1)車両Vの外部の物体にユーザUが気付いているか否かの判定
状況取得部13が実行する画像処理は、例えば、窓領域抽出部12が抽出した窓の領域の画像に対する物体認識処理(第一認識処理とも記載)を含む。状況取得部13は、第一認識処理を実行することで、車両Vの外部にある物体を認識し得る。状況取得部13は、車両Vの外部にある物体を認識すると、車両Vの外部に物体があることを示す状況情報を生成する。
状況取得部13が実行する画像処理は、例えば、窓領域抽出部12が抽出した窓の領域の画像に対する物体認識処理(第一認識処理とも記載)を含む。状況取得部13は、第一認識処理を実行することで、車両Vの外部にある物体を認識し得る。状況取得部13は、車両Vの外部にある物体を認識すると、車両Vの外部に物体があることを示す状況情報を生成する。
状態判定部14が実行する画像処理は、例えば、乗員領域抽出部11が抽出したユーザUの領域の画像に対する、人の頭部の姿勢または視線の検出処理(第一検出処理)を含む。状態判定部14は、第一検出処理を実行することで、画像に映っているユーザUの頭部の姿勢または視線を検出する。
この場合、状態判定部14は、ユーザUの状態の判定として、第一検出処理で検出したユーザUの頭部の姿勢または視線に基づいて、状況情報に示される物体(つまり第一認識処理で認識した物体)にユーザUが気付いているか否かを判定する。例えば、状態判定部14は、検出したユーザUの頭部の姿勢に基づいて、ユーザUの視線方向が上記物体に向くようにユーザUの頭部の姿勢が変化したことを検出した場合、または、検出したユーザUの視線に基づいて、ユーザUが上記物体に視線を向けたことを検出した場合に、上記物体にユーザUが気付いていると判定し得る。また、状態判定部14は、上記物体にユーザUが気付いていると判定しない場合に、上記物体にユーザUが気付いていないと判定し得る。
なお、状態判定部14は、下記のようにユーザUへの通知をしてもよい。
例えば、車両Vの外部の光景が、車両Vの左側のサイドウィンドウW2を通してカメラ5から見える光景を含んでいる場合、状態判定部14は、ユーザUが物体の存在に気付いていないと判定し、かつ、走行している車両Vが左方向に旋回することを検出したときに、ユーザUへの通知をしてもよい。
また、例えば、車両Vの外部の光景が、車両Vの右側のサイドウィンドウW1を通してカメラ5から見える光景を含んでいる場合、状態判定部14は、ユーザUが物体の存在に気付いていないと判定し、かつ、走行している車両Vが右方向に旋回することを検出したときに、ユーザUへの通知をしてもよい。
また、例えば、車両Vの外部の光景が、車両Vの左側のサイドウィンドウW1または右側のサイドウィンドウW2を通してカメラ5から見える光景を含んでいる場合、状態判定部14は、ユーザUが物体の存在に気付いていない状態が所定時間継続したことを検出したときに、ユーザUへの通知をしてもよい。
また、例えば、車両Vの外部の光景が、車両VのリアウィンドウW3を通してカメラ5から見える光景を含んでいる場合、状態判定部14は、ユーザUが物体の存在に気付いていないと判定し、かつ、車両Vが後退することを検出したときに、ユーザUへの通知をしてもよい。車両Vが後退することの検出は、ユーザUがシフトレバーなどに対して車両Vを後退させる操作をしたことの検出であってもよい。また、車両Vが後退することの検出は、ユーザUの姿勢の変化(ユーザUが身体の向きを後方に向けて後方を目視する姿勢をとるなど)の検出であってもよい。
(2)車両Vの外部に物体が存在する状況でユーザUが車両Vを降車するか否かの判定
状況取得部13が実行する画像処理は、上記(1)と同様に第一認識処理を含む。
状況取得部13が実行する画像処理は、上記(1)と同様に第一認識処理を含む。
状態判定部14が実行する画像処理は、例えば、乗員領域抽出部11が抽出したユーザUの領域の画像に対する、人の姿勢の検出処理(第二検出処理)を含む。状態判定部14は、第二検出処理を実行することで、画像に映っているユーザUの姿勢を検出する。
この場合、状態判定部14は、ユーザUの状態の判定として、第二検出処理で検出した姿勢に基づいてユーザUが車両Vを降車する動作をしているか否かを判定する。ユーザUが車両Vを降車する動作は、具体的には、ドアハンドルに手をかける、ドアを開ける、ドアの開口部に身体を通すなどの動作を含み得る。なお、車両Vを降車する動作は、車両Vを降車する動作の前に行われる所定の動作(身体をドアの方向に傾ける、ドアハンドルに向かって手を延すなど)を含んでもよい。
なお、状態判定部14は、下記のようにユーザUへの通知をしてもよい。
状態判定部14は、例えば、ユーザUが上記動作をしていると判定した場合であって、第一認識処理で認識した物体にユーザUが接触する危険があることを検出した場合に、ユーザUへの通知をしてもよい。状態判定部14は、例えば、上記物体とユーザUとの将来の位置を推定し、ユーザUが移動すると推定される位置に、上記物体が存在していると推定される場合に、上記物体にユーザUが接触する危険があると検出する。
(3)車両Vの外部の状況に基づくユーザUの状態の判定
状況取得部13が実行する画像処理は、例えば、窓領域抽出部12が抽出した窓の領域の画像に対する、他車両または静止物体を認識する物体認識処理(第二認識処理)を含む。状況取得部13は、第二認識処理を実行することで、車両Vの外部にある他車両または静止物体を認識し得る。状況取得部13は、車両Vの外部にある他車両または静止物体を認識すると、車両Vの外部に物体があることを示す状況情報を生成する。静止物体は、道路に対して静止している物体であり、道路に描かれている白線、または、道路に固定的に設置されている構造物、標識または看板などである。
状況取得部13が実行する画像処理は、例えば、窓領域抽出部12が抽出した窓の領域の画像に対する、他車両または静止物体を認識する物体認識処理(第二認識処理)を含む。状況取得部13は、第二認識処理を実行することで、車両Vの外部にある他車両または静止物体を認識し得る。状況取得部13は、車両Vの外部にある他車両または静止物体を認識すると、車両Vの外部に物体があることを示す状況情報を生成する。静止物体は、道路に対して静止している物体であり、道路に描かれている白線、または、道路に固定的に設置されている構造物、標識または看板などである。
状態判定部14が実行する画像処理は、例えば、乗員領域抽出部11が抽出したユーザUの領域の画像に対する、画像に映っている人の状態を検出する画像処理(第三検出処理)を含む。人の状態は、例えば、眠気、疲労、感情、急病、漫然または脇見を含む。ユーザUの状態の検出は、画像に映っているユーザUの画像に基づいて、ユーザUの顔表情(より具体的には、顔のパーツ(目または口など)の位置および位置の変化、または、視線の方向など)、姿勢および姿勢の変化、頭部または肩の位置、傾きまたは揺れの検出により、周知技術によりなされ得る。例えば、眠気、疲労または急病時には、頭部の揺れが大きくなることが知られているので、頭部の揺れからこれらを検知できる。また、視線が滞留していれば漫然を検知でき、視線が正面を向いていなければ脇見していると検知できる。また、顔表情から感情を判定できる。
この場合、状態判定部14は、第二認識処理で認識した他車両または静止物体に基づいて、車両Vが走行している走行状況を判定する。走行状況とは、具体的には車速、車体揺れ、走行環境(高速道路、市街地、未舗装路など)、周辺走行車両または渋滞状態などである。状態判定部14は、車両Vの車速が閾値より低い場合であって、同一の他車両が比較的長い時間、画像に映っている場合に、道路が渋滞していると判定できる。車両Vの車速は、静止物体に対する相対速度から取得してもよいし、車両Vの制御情報から取得され得る。
そして、状態判定部14は、走行状況によって、第三検出処理で検出したユーザの状態を補正してから、ユーザの状態として出力する。例えば、状態判定部14は、道路が渋滞していると判定した場合に、第三検出処理で検出した眠気を高くする補正をしてから、人の状態として出力する。車両Vが走行している道路が渋滞しているときには一般にユーザUが眠気を感じる傾向が高いことから、一般の眠気の検出の結果より眠気を高く補正することで、実際のユーザUの眠気に近づけることができるからである。
また、状態判定部14は、車速もしくは車体揺れが大きい場合、または、未舗装路である場合には、頭部の揺れが一般よりも過大になることから、上記の頭部揺れまたは眠気などの異常状態である確率を小さく補正することで、実際のユーザUの状態に近づけることができる。また、状態判定部14は、車速が低いまたは静止しているときにはユーザUが漫然または脇見していても問題はないため、異常状態ではないと判断することで、実際のユーザUの危険運転状態を適切に判断できる。また、状態判定部14は、バイクの追い抜きまたは大型トラックの並走があった場合には、一般にいらついたり不安に感じたりすることから、ユーザの感情が不快状態であると補正することで、実際のユーザUの状態に近づけることができる。
提示部20は、判定部10(より具体的には状態判定部14)から提供される結果情報を提示する。提示した結果情報は、ユーザUに視認されることが想定される。提示部20は、例えば、車両Vが搭載しているインフォテインメントシステム(カーナビゲーションシステムを含む)の表示画面への画像の表示によって、結果情報を提示する。なお、提示部20は、インフォテインメントシステムを介して、車両Vの車載スピーカによる音の出力によって、結果情報を提示してもよい。
また、提示部20は、判定部10(より具体的には状態判定部14)から通知情報が提供された場合には、通知情報を提示する。通知情報の提示の方法は、結果情報の提示の方法と同様である。ただし、提示部20は、通知情報の提示を、結果情報の提示と異なる態様で行ってもよい。例えば、ユーザUが、結果情報の提示よりも、通知情報の提示に、より一層の注意を払うようにしてもよく、例えば、通知情報の提示に係る色を比較的目立ちやすい色にしたり、通知情報の提示に係る文字を比較的大きくしたり、通知情報の提示に係る音声を比較的大きくしたりしてもよい。
提示部20は、判定部10から脇見、眠気または漫然の判定がなされた場合には、警告情報を提示してもよい。眠気の判定がなされた場合には、覚醒を促すために空調温度を下げたり、ライトを点灯して明るくしたり、音楽を再生してもよい。眠気、疲労または漫然の判定がなされた場合には、休憩を促す通知をしてもよい。急病の判定がなされた場合には、緊急停止などの危険回避措置とともに、ハザードランプ点灯または安全運航管理システムへの情報通知などの車両外部への情報通知を行ってもよい。感情が不快と判定がなされた場合には、快適にするために音楽を掛けたり、振動を加えたり、アロマを噴出したりして、リラックスを促してもよい。
以降において、カメラ5により生成される画像の具体例を示す。
図6は、本実施の形態におけるカメラ5により生成される画像の第二例を示す説明図である。図6に示される画像は、車両Vの左側にバイク41が走行しているときに、カメラ5により生成される画像の例である。
図6に示される画像において、サイドウィンドウW1を通してバイク41が映っている。
窓領域抽出部12は、画像におけるサイドウィンドウW1の領域を抽出して状況取得部13に提供する。
状況取得部13は、サイドウィンドウW1の領域の画像に対する第一認識処理を行うことで、バイク41を認識する。このとき、車両Vが走行している場合には、状況取得部13は、車両Vの右側にバイク41が走行しているという状況を取得する。
乗員領域抽出部11は、画像におけるユーザUの領域を抽出して状態判定部14に提供する。
状態判定部14は、ユーザUの領域の画像に対する第一検出処理を行うことで、ユーザUの頭部の姿勢または視線を検出し、ユーザUがバイク41に気付いているか否かを判定する。
なお、状態判定部14は、さらに、ユーザUが車両Vを右に旋回させる(つまり右折する)動作を検出した場合には、ユーザUへの通知をしてもよい。
図7は、本実施の形態におけるカメラ5により生成される画像の第三例を示す説明図である。図7に示される画像は、車両Vの右側にバイク42が走行していて、かつ、ユーザTが車両Vから降車しようとしているときに、カメラ5により生成される画像の例である。
図7に示される画像において、サイドウィンドウW2を通してバイク42が映っている。
窓領域抽出部12は、画像におけるサイドウィンドウW2の領域を抽出して状況取得部13に提供する。
状況取得部13は、サイドウィンドウW2の領域の画像に対する第一認識処理を行うことで、バイク42を認識する。このとき、状況取得部13は、車両Vの左側にバイク42が走行または停車しているという状況を取得する。
乗員領域抽出部11は、画像におけるユーザTの領域を抽出して状態判定部14に提供する。
状態判定部14は、ユーザTの領域の画像に対する第二検出処理を行うことで、ユーザTの姿勢を検出し、ユーザTが車両Vを降車しようとする動作(具体的には、ドアハンドルに手をかける動作)をしていることを判定する。
なお、状態判定部14は、さらに、バイク42にユーザTが接触する危険があることを検出した場合には、ユーザTへの通知をしてもよい。なお、上記場合には、ユーザTへの通知とともに、または、ユーザTへの通知に代えて、ユーザUへの通知をしてもよい。
図8は、本実施の形態における状態判定装置1の処理の例を示すフロー図である。
ステップS101において、カメラ5は、車両Vの外部の光景と、車室S内にいる乗員(つまりユーザU)との両方が撮影された一の画像を生成する。
ステップS102において、判定部10は、ステップS101で取得した一の画像に映っている光景と乗員とから情報を取得する。情報の取得の詳細は、上記のとおりである。
ステップS103において、判定部10は、ステップS102で取得した情報に基づいて、乗員の状態を判定する。乗員の状態の判定の詳細は、上記のとおりである。
ステップS104において、判定部10は、ステップS103で行った判定の結果を出力する。
図8に示される一連の処理により、容易な処理により車両内のユーザの状態を判定する。
(実施の形態の変形例)
上記実施の形態において、判定部10が、乗員領域抽出部11と、窓領域抽出部12と、状況取得部13と、状態判定部14とを備える場合を例として説明したが、判定部10の構成は上記に限られない。
上記実施の形態において、判定部10が、乗員領域抽出部11と、窓領域抽出部12と、状況取得部13と、状態判定部14とを備える場合を例として説明したが、判定部10の構成は上記に限られない。
以降において、上記実施の形態における判定部10の変形例を説明する。
(第一例)
図9は、本変形例における状態判定装置1の機能構成の第一例を示すブロック図である。図9に示される判定部10Aは、上記実施の形態における判定部10の他の構成の一例である。
図9は、本変形例における状態判定装置1の機能構成の第一例を示すブロック図である。図9に示される判定部10Aは、上記実施の形態における判定部10の他の構成の一例である。
図9に示される判定部10Aは、ユーザUの状態を判定する機能部である。判定部10Aは、カメラ5が生成した画像の入力を受け、ユーザUの状態についての判定結果を出力する。
判定部10Aは、学習モデル51を有し、学習モデル51を用いて、入力された画像に基づくユーザUの状態についての判定結果を出力する。学習モデル51は、事前に機械学習によって構成されたものである。事前の機械学習は、ユーザの状態が既知であるユーザが映っている多数の画像それぞれについて、そのユーザの状態を正解情報として用いた学習であり得る。学習モデル51は、例えば、ニューラルネットワークモデルである。
(第二例)
図10は、本変形例における状態判定装置1の機能構成の第二例を示すブロック図である。図10に示される判定部10Bは、上記実施の形態における判定部10の他の構成の一例である。
図10は、本変形例における状態判定装置1の機能構成の第二例を示すブロック図である。図10に示される判定部10Bは、上記実施の形態における判定部10の他の構成の一例である。
図10に示される判定部10Bは、ユーザUの状態を判定する機能部である。判定部10Bは、カメラ5が生成した画像の入力を受け、ユーザUの状態についての判定結果を出力する。
判定部10Bは、機能部として、窓領域抽出部12と、状況取得部13と、状態判定部14Aとを備える。窓領域抽出部12と、状況取得部13とは、上記実施の形態における同名の構成要素と同じである。
状態判定部14Aは、ユーザUの状態を判定し、判定結果を出力する。状態判定部14Aは、学習モデル52を有し、学習モデル52を用いて、入力された画像に基づくユーザUの状態についての判定結果を出力する。また、状態判定部14Aは、状況取得部13が生成した状況情報を取得し、状況情報にも基づいて、上記判定結果を出力する。状態判定部14Aは、判定の結果を示す結果情報を提示部20に提供する。
学習モデル52は、事前に機械学習によって構成されたものである。事前の機械学習は、ユーザの状態と車両の状況とが既知であるユーザが映っている多数の画像それぞれについて、そのユーザの状態を正解情報として用いた学習であり得る。学習モデル52は、例えば、ニューラルネットワークモデルである。
(第三例)
図11は、実施の形態の変形例における状態判定装置の機能構成の第三例を示すブロック図である。
図11は、実施の形態の変形例における状態判定装置の機能構成の第三例を示すブロック図である。
図11は、本変形例における状態判定装置1の機能構成の第三例を示すブロック図である。図11に示される判定部10Cは、上記実施の形態における判定部10の他の構成の一例である。
図11に示される判定部10Cは、ユーザUの状態を判定する機能部である。判定部10Cは、カメラ5が生成した画像の入力を受け、ユーザUの状態についての判定結果を出力する。
判定部10Cは、機能部として、乗員領域抽出部11と、状況取得部13Aと、状態判定部14とを備える。乗員領域抽出部11と、状態判定部14とは、上記実施の形態における同名の構成要素と同じである。
状況取得部13Aは、車両Vの状況を取得し、取得した状況を示す状況情報を生成する。状況取得部13Aは、学習モデル53を有し、学習モデル53を用いて、入力された画像に基づく車両Vの状況を示す状況情報を出力する。
学習モデル53は、事前に機械学習によって構成されたものである。事前の機械学習は、車両の状況が既知である多数の画像それぞれについて、その車両の状況を正解情報として用いた学習であり得る。学習モデル53は、例えば、ニューラルネットワークモデルである。
(第四例)
図12は、本変形例における状態判定装置1の機能構成の第四例を示すブロック図である。図12に示される判定部10Dは、上記実施の形態における判定部10の他の構成の一例である。
図12は、本変形例における状態判定装置1の機能構成の第四例を示すブロック図である。図12に示される判定部10Dは、上記実施の形態における判定部10の他の構成の一例である。
図12に示される判定部10Dは、ユーザUの状態を判定する機能部である。判定部10Dは、カメラ5が生成した画像の入力を受け、ユーザUの状態についての判定結果を出力する。
判定部10Dは、機能部として、状況取得部13Aと、状態判定部14Aとを備える。状況取得部13Aは、上記第三例における同名の構成要素と同じである。状態判定部14Aは、上記第二例における同名の構成要素と同じである。
上記の判定部10A~10Dにより、上記実施の形態における判定部10と同様の出力を得ることができる。
以上のように、本実施の形態の状態判定装置は、カメラによる撮影により生成された一の画像から、車両の外部の光景に関する情報と、ユーザに関する情報との両方を取得することができ、これらの情報を用いて容易にユーザの状態を判定することができる。仮に車両の外部の光景に関する情報と、ユーザに関する情報とを、別個の撮影画像から取得するとすれば、複数の画像の取得および管理の処理(具体的には、複数の画像を撮影するためのカメラの制御、複数の画像の撮影タイミングのずれを考慮した管理、および、複数の画像を対応付けた管理など)が必要である。上記態様によれば、一の画像から上記両方の情報を取得することができるので、複数の画像の取得および管理の処理の必要がなくなり、処理がより容易となる。特に、一の画像から取得される上記両方の情報は、当然に、同じ時刻の情報を示しているので、管理がより容易となる。このように、状態判定装置は、容易な処理により車両内のユーザの状態を判定することができる。
また、状態判定装置は、カメラにより撮影された一の画像が、より容易に、車両の外部の光景とユーザとの両方が映っている画像になる。よって、状態判定装置は、容易な処理により車両内のユーザの状態を判定することができる。
また、状態判定装置は、車両の外部の光景とユーザとの両方が映っている画像を生成するような位置および姿勢で、カメラがより容易に設置される。よって、状態判定装置は、容易な処理により車両内のユーザの状態を判定することができる。
また、状態判定装置は、車両の外部の光景とユーザの顔との両方が映っている画像を生成するような位置および姿勢で、カメラがより容易に設置される。画像にユーザの顔が映っていることで、ユーザの状態の判定がより容易になされ得る。また、画像にユーザの顔が映っていることで、判定の精度が向上するので、ユーザの状態の判定結果が適切となり得る。よって、状態判定装置は、より適切に、車両内のユーザの状態を判定することができる。
また、状態判定装置は、車両の外部の光景とユーザの顔との両方が映っている画像を生成するような位置および姿勢で、カメラがより容易に設置される。とくに、ユーザがルームミラーに視線を向けているか否かを、より高い精度で判定することにより、ユーザの状態をより適切に判定することができる。よって、状態判定装置は、より適切に、車両内のユーザの状態を判定することができる。
また、状態判定装置は、カメラによる撮影により生成された一の画像から、ユーザの状態として、状態判定装置が認識した車外の物体にユーザが気付いているか否かを判定することができる。よって、状態判定装置は、容易な処理により車両内のユーザの状態を具体的に判定することができる。
また、状態判定装置は、判定したユーザの状態に加えて、車両の旋回またはユーザが気付いていない時間長についての検出結果を用いてユーザに通知をすることで、より適切な車両の運行に寄与する。よって、状態判定装置は、車両内のユーザの状態を具体的に判定しながら、より適切な車両の運行に寄与する。
また、状態判定装置は、判定したユーザの状態に加えて、車両の後退についての検出結果を用いてユーザに通知をすることで、より適切な車両の運行に寄与する。よって、状態判定装置は、車両内のユーザの状態を具体的に判定しながら、より適切な車両の運行に寄与する。
また、状態判定装置は、カメラによる撮影により生成された一の画像から、ユーザの状態として、ユーザの降車を判定することができる。よって、状態判定装置は、容易な処理により車両内のユーザの状態を具体的に判定することができる。
また、状態判定装置は、カメラによる撮影により生成された一の画像から、ユーザの状態として、状態判定装置が認識した車外の物体に、車両を降車するユーザが接触する危険があるか否かを判定することができる。よって、状態判定装置は、車両内のユーザの状態を具体的に判定しながら、より適切な車両の運行に寄与する。
また、状態判定装置は、車両の走行状況を考慮して、ユーザの状態を適切に判定することができる。よって、状態判定装置は、容易な処理により車両内のユーザの状態を具体的に判定することができる。
また、状態判定装置は、カメラにより撮影された一の画像に、車両の外部の光景とユーザとの両方が映っていないことをユーザに通知する。通知を受けたユーザは、カメラの撮影方向が変更される機構を操作することで、カメラの撮影方向を変更することができる。これにより、カメラにより撮影された一の画像が、車両の外部の光景とユーザとの両方が映っている画像になるようにすることに寄与する。よって、状態判定装置は、容易な処理により車両内のユーザの状態を判定することができる。
なお、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記実施の形態のサーバなどを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、車両の車室内に設置されるカメラによって、前記車両の外部の光景と、前記車室内にいるユーザとの両方が撮影された一の画像を生成し、前記カメラが生成した前記一の画像に対する処理によって前記一の画像に映っている前記光景と前記ユーザとから取得した情報を用いて、前記ユーザの状態を判定し、判定結果を出力する状態判定方法を実行させるプログラムである。
以上、一つまたは複数の態様に係る状態判定装置などについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
本発明は、自動車の運転手など、車両内のユーザの状態を判定する状態判定装置に利用可能である。
1 状態判定装置
5、5A カメラ
6、6A 撮影方向
7、7A 撮影画角
10、10A、10B、10C、10D 判定部
11 乗員領域抽出部
12 窓領域抽出部
13、13A 状況取得部
14、14A 状態判定部
20 提示部
31、33、34、35 領域
41、42 バイク
51、52、53 学習モデル
S 車室
T、U ユーザ
V 車両
W1、W2 サイドウィンドウ
W3 リアウィンドウ
5、5A カメラ
6、6A 撮影方向
7、7A 撮影画角
10、10A、10B、10C、10D 判定部
11 乗員領域抽出部
12 窓領域抽出部
13、13A 状況取得部
14、14A 状態判定部
20 提示部
31、33、34、35 領域
41、42 バイク
51、52、53 学習モデル
S 車室
T、U ユーザ
V 車両
W1、W2 サイドウィンドウ
W3 リアウィンドウ
Claims (14)
- 車両の車室内に設置されるカメラであって、前記車両の外部の光景と、前記車室内にいるユーザとの両方が撮影された一の画像を生成するカメラと、
前記カメラが生成した前記一の画像に対する処理によって前記一の画像に映っている前記光景と前記ユーザとから取得した情報を用いて、前記ユーザの状態を判定し、判定結果を出力する判定部とを備える
状態判定装置。 - 前記カメラは、前記車両のサイドウィンドウの少なくとも一部と、前記ユーザが乗車する位置の少なくとも一部との両方が撮影画角内に入る位置および姿勢で設置されている
請求項1に記載の状態判定装置。 - 前記カメラは、前記車室内の天井の近傍の位置に設置され、かつ、前記カメラの撮影方向が水平より下方を向く姿勢で設置されている
請求項1または2に記載の状態判定装置。 - 前記カメラは、前記ユーザが乗車する位置より、前記車両の進行方向側の位置に設置され、かつ、前記カメラの撮影方向が、前記車両の進行方向と略反対になる姿勢で設置されている
請求項1~3のいずれか1項に記載の状態判定装置。 - 前記カメラは、前記車両のルームミラーの近傍の位置に設置されている
請求項1~4のいずれか1項に記載の状態判定装置。 - 前記処理は、前記一の画像に映っている前記光景に含まれている、前記車両の外部にある物体を認識する第一認識処理と、前記一の画像に映っている前記ユーザの頭部の姿勢または視線を検出する第一検出処理とを含み、
前記判定部は、
前記ユーザの状態の判定として、前記第一検出処理で検出した前記姿勢または前記視線に基づいて、前記第一認識処理で認識した前記物体に前記ユーザが気付いているか否かを判定する
請求項1~5のいずれか1項に記載の状態判定装置。 - 前記車両の外部の光景は、前記車両の左または右の一方のサイドウィンドウを通して前記カメラから見える光景を含み、
前記判定部は、
前記ユーザが前記物体の存在に気付いていないと判定した場合であって、かつ、
前記車両が左または右の前記一方に旋回すること、または、前記ユーザが前記物体の存在に気付いていない状態が所定時間継続したことを検出した場合に、前記ユーザに通知する
請求項6に記載の状態判定装置。 - 前記車両の外部の光景は、前記車両のリアウィンドウを通して前記カメラから見える光景を含み、
前記判定部は、
前記ユーザが前記物体の存在に気付いていないと判定した場合であって、かつ、
前記車両が後退すること、または、前記ユーザが前記車両を後退させる操作をしたことを検出した場合に、前記ユーザに通知する
請求項6または7に記載の状態判定装置。 - 前記処理は、前記一の画像に映っている前記光景に含まれている、前記車両の外部にある物体を認識する第一認識処理と、前記一の画像に映っている前記ユーザの姿勢を検出する第二検出処理を含み、
前記判定部は、
前記ユーザの状態の判定として、前記第二検出処理で検出した前記姿勢に基づいて、前記第一認識処理で認識した前記物体が存在する状況において、前記ユーザが前記車両を降車する動作をしているか否かを判定する
請求項1~5のいずれか1項に記載の状態判定装置。 - 前記判定部は、
前記ユーザが前記動作をしていると判定した場合であって、前記第一認識処理で認識した前記物体に前記ユーザが接触する危険があることを検出した場合に、前記ユーザに通知する
請求項9に記載の状態判定装置。 - 前記処理は、前記一の画像に映っている前記光景に含まれている、前記車両の外部にある他車両または静止物体を認識する第二認識処理と、前記一の画像に映っている前記ユーザの状態を検出する第三検出処理とを含み、
前記判定部は、
前記第二認識処理で認識した前記他車両または前記静止物体に基づいて、前記車両の走行状況を判定し、
前記走行状況によって、前記第三検出処理で検出した前記ユーザの状態を補正してから、前記ユーザの状態として出力する
請求項1~10のいずれか1項に記載の状態判定装置。 - 前記カメラは、ユーザによる操作に基づいて、撮影方向が変更される機構を有し、
前記判定部は、さらに、
前記一の画像に前記車両のサイドウィンドウの少なくとも一部と、前記ユーザが乗車する位置の少なくとも一部との両方が含まれているか否かを判定し、含まれていないと判定した場合に前記ユーザに通知する
請求項1~11のいずれか1項に記載の状態判定装置。 - 車両の車室内に設置されるカメラによって、前記車両の外部の光景と、前記車室内にいるユーザとの両方が撮影された一の画像を生成し、
前記カメラが生成した前記一の画像に対する処理によって前記一の画像に映っている前記光景と前記ユーザとから取得した情報を用いて、前記ユーザの状態を判定し、判定結果を出力する
状態判定方法。 - 請求項13に記載の状態判定方法をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022016819A JP2023114500A (ja) | 2022-02-07 | 2022-02-07 | 状態判定装置、状態判定方法、および、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022016819A JP2023114500A (ja) | 2022-02-07 | 2022-02-07 | 状態判定装置、状態判定方法、および、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023114500A true JP2023114500A (ja) | 2023-08-18 |
Family
ID=87569807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022016819A Pending JP2023114500A (ja) | 2022-02-07 | 2022-02-07 | 状態判定装置、状態判定方法、および、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023114500A (ja) |
-
2022
- 2022-02-07 JP JP2022016819A patent/JP2023114500A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10908677B2 (en) | Vehicle system for providing driver feedback in response to an occupant's emotion | |
US9007198B2 (en) | Adaptive Actuator interface for active driver warning | |
JPWO2015151243A1 (ja) | 車両用情報呈示装置 | |
WO2014188648A1 (ja) | ドライバ確認装置 | |
US20170355379A1 (en) | Driving support device | |
JP5177102B2 (ja) | 運転支援装置 | |
JP2008070965A (ja) | 車両制御装置および車両制御方法 | |
US20150125126A1 (en) | Detection system in a vehicle for recording the speaking activity of a vehicle occupant | |
JP2008068664A (ja) | 車両制御装置および車両制御方法 | |
KR102272774B1 (ko) | 차량, 및 차량의 제어방법 | |
US10666901B1 (en) | System for soothing an occupant in a vehicle | |
JP2019195377A (ja) | データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム | |
JP2008305096A (ja) | 運転支援装置 | |
US11881054B2 (en) | Device and method for determining image data of the eyes, eye positions and/or a viewing direction of a vehicle user in a vehicle | |
JP5935759B2 (ja) | ドライバ状態判定システム | |
JP2005087284A (ja) | 覚醒状態判定装置及び覚醒状態判定方法 | |
JP2019012046A (ja) | 通知装置、通知システムおよび通知方法 | |
JP2023114500A (ja) | 状態判定装置、状態判定方法、および、プログラム | |
JP6482739B2 (ja) | 情報提示方法 | |
US10945651B2 (en) | Arousal level determination device | |
CN112506353A (zh) | 车辆交互系统、方法、存储介质和车辆 | |
JP2022129155A (ja) | 車両の車内マルチモニタリング装置 | |
JP2022129156A (ja) | 車両の車内モニタリング装置 | |
JP5847320B2 (ja) | 車載情報処理装置 | |
KR20130021980A (ko) | 차량의 승원 파악 및 시트벨트 경고 시스템과 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20240304 |