JP2020052827A - 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム - Google Patents

乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム Download PDF

Info

Publication number
JP2020052827A
JP2020052827A JP2018182750A JP2018182750A JP2020052827A JP 2020052827 A JP2020052827 A JP 2020052827A JP 2018182750 A JP2018182750 A JP 2018182750A JP 2018182750 A JP2018182750 A JP 2018182750A JP 2020052827 A JP2020052827 A JP 2020052827A
Authority
JP
Japan
Prior art keywords
face
unit
model
occupant
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018182750A
Other languages
English (en)
Other versions
JP7290930B2 (ja
Inventor
晋 大須賀
Susumu Osuga
晋 大須賀
加藤 隆志
Takashi Kato
隆志 加藤
善之 山田
Yoshiyuki Yamada
善之 山田
服部 哲也
Tetsuya Hattori
哲也 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2018182750A priority Critical patent/JP7290930B2/ja
Priority to US16/578,686 priority patent/US11210497B2/en
Priority to DE102019125921.5A priority patent/DE102019125921A1/de
Publication of JP2020052827A publication Critical patent/JP2020052827A/ja
Application granted granted Critical
Publication of JP7290930B2 publication Critical patent/JP7290930B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20121Active appearance model [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20124Active shape model [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Abstract

【課題】トラッキング処理を維持し易い乗員モデリング装置を提供する。【解決手段】乗員モデリング装置は、例えば、車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる画像を取得する取得部と、取得部が取得する第1の画像に基づき顔のモデルを生成するモデルフィッティング部と、取得部が取得する第1の画像より後に取得された第2の画像にモデルを適合させるトラッキング部と、顔の顔部品位置に関する正解情報と不正解情報とに基づき学習させた学習済み情報を用いて、モデルが適合される第2の画像に含まれる顔部品位置の正否を判定する判定部と、判定部の判定結果に応じて、トラッキング部による処理を継続するか、モデルフィッティング部による処理を再実行するかを決定する処理部と、を備える。【選択図】図4

Description

本発明の実施形態は、乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラムに関する。
従来、撮像された画像(静止画または動画)に含まれる顔の位置および向き、眼、口等の顔部品の状態等を検出する顔検出技術の開発が進められている。例えば、車両においては、運転者の顔検出を行うことによって、脇見運転や居眠り運転を検知し、警報等の所定のアクションを行うものが提案されている。このような検知を行うためにはリアルタイムで顔検出を実行することが望ましいが、車両の内部では、車外から差し込む光の強さや光の差し込む方向が変化しやすく、また車の揺れや周囲の確認動作により運転者の顔が動きやすい。顔検出の技術としては、例えば、非特許文献1には、最急降下法等を用いて統計的顔形状モデルを画像中の顔に合わせる、いわゆるモデルフィッティングを行うことによって、画像中の顔のモデルを生成する顔検出技術(ASM:Active Shape Model、AAM:Active Appearance Model)が開示されている。この技術によれば、画像中の顔のモデルを生成し、このモデルを用いて継続して画像中の顔に適合させる、すなわちトラッキングを行うことが可能で、経時的に顔の位置および向き、ならびに各顔部品の状態を特定することができる。また、特許文献1には、フレーム間の差分画像を用いて瞬目に起因する画像の変化領域を検出し、眼の位置を特定する顔部品検出技術が開示されている。
Stan Z. Li, Anil K. Jain、「Handbook of Face Recognition2nd Edition」
特許第4895847号公報
上述したモデルフィッティングを行う場合、顔形状モデルの初期状態(位置、形状、角度等)が実際の画像における顔の状態と大きく異なる場合、局所最適解に陥り、正しくフィッティング処理ができないことがある。そのため、フィッティング処理で生成されたモデルを用いたトラッキング処理を継続して行うと誤差の累積が生じて、顔の検出精度が低下してしまう場合がある。そのため、他のシステム、例えば、特許文献1の瞬目に基づく顔部品検出技術と組み合わせることで、トラッキング処理で正しいモデルが利用されているかチェック処理を行うことで精度の低下を軽減することが考えられる。しかしながら、瞬目の間隔には個人差があり、人によっては長時間(例えば1分近くまたそれ以上)瞬目をしない場合もある。このような場合、瞬目が検出されるまで、チェック処理が実行されない。その結果、適切なトラッキング処理が行われない期間が長くなり、顔検出精度の低下対策が十分にできないという問題があった。したがって、トラッキング処理を維持し易い乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラムが提供できれば、顔検出精度の維持性能が向上できて有意義である。
本発明の実施形態にかかる乗員モデリング装置は、例えば、車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる画像を取得する取得部と、上記取得部が取得する第1の画像に基づき上記顔のモデルを生成するモデルフィッティング部と、上記取得部が取得する上記第1の画像より後に取得された第2の画像に上記モデルを適合させるトラッキング部と、上記顔の顔部品位置に関する正解情報と不正解情報とに基づき学習させた学習済み情報を用いて、上記モデルが適合される上記第2の画像に含まれる上記顔部品位置の正否を判定する判定部と、上記判定部の判定結果に応じて、上記トラッキング部による処理を継続するか、上記モデルフィッティング部による処理を再実行するかを決定する処理部と、を備える。この構成によれば、例えば、乗員の顔の第2の画像が取得できれば、学習済み情報に基づき顔部品位置の正否の判定が可能になり、その判定結果に応じて、トラッキング部による処理を継続するか、モデルフィッティング部による処理を再実行するかを決定することができる。その結果、顔検知精度の低下したトラッキング処理が継続されることが抑制できる。
本発明の実施形態にかかる乗員モデリング装置の上記判定部は、例えば、上記トラッキング部の処理により顔部品位置と認識された情報に基づき、上記第2の画像の顔部品位置を特定し、上記学習済み情報との正否を判定してもよい。この構成によれば、トラッキング処理が正しく実施されているか否かを効率的に判定することができる。
本発明の実施形態にかかる乗員モデリング装置の上記判定部は、例えば、上記顔部品位置として、上記顔の眼の位置の正否を判定する第1の判定と、上記顔に含まれる複数の顔部品の位置の正否を判定する第2の判定と、のうち少なくとも一方に対して判定を実行するようにしてもよい。この構成によれば、例えば、第1の判定または第2の判定のいずれか一方で顔部品位置の正否判定を行う場合、効率的な判定処理ができる。また、第1の判定と第2の判定の両方で顔部品位置の正否判定を行う場合、判定精度をより向上することができる。
本発明の実施形態にかかる乗員モデリング方法は、例えば、車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる画像を取得する取得ステップと、上記取得ステップで取得した第1の画像に基づき上記顔のモデルを生成するモデルフィッティングステップと、上記取得ステップが取得した上記第1の画像より後に取得された第2の画像に上記モデルを適合させるトラッキングステップと、上記顔の顔部品位置に関する正解情報と不正解情報とに基づき学習させた学習済み情報を用いて、上記モデルが適合される上記第2の画像に含まれる上記顔部品位置の正否を判定する判定ステップと、上記判定ステップの判定結果に応じて、上記トラッキングステップによる処理を継続するか、上記モデルフィッティングステップによる処理を再実行するかを決定する処理ステップと、を備える。この構成によれば、例えば、乗員の顔の第2の画像が取得できれば、学習済み情報に基づき顔部品位置の正否の判定が可能になり、その判定結果に応じて、トラッキングステップによる処理を継続するか、モデルフィッティングステップによる処理を再実行するかを決定することができる。その結果、顔検知精度の低下したトラッキングステップによる処理が継続されることが抑制できる。
本発明の実施形態にかかる乗員モデリングプログラムは、例えば、コンピュータに、車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる画像を取得する取得ステップと、上記取得ステップで取得した第1の画像に基づき上記顔のモデルを生成するモデルフィッティングステップと、上記取得ステップが取得した上記第1の画像より後に取得された第2の画像に上記モデルを適合させるトラッキングステップと、上記顔の顔部品位置に関する正解情報と不正解情報とに基づき学習させた学習済み情報を用いて、上記モデルが適合される上記第2の画像に含まれる上記顔部品位置の正否を判定する判定ステップと、上記判定ステップの判定結果に応じて、上記トラッキングステップによる処理を継続するか、上記モデルフィッティングステップによる処理を再実行するかを決定する処理ステップと、を実行させる。この構成によれば、例えば、乗員の顔の第2の画像が取得できれば、学習済み情報に基づき顔部品位置の正否の判定が可能になり、その判定結果に応じて、トラッキングステップによる処理を継続するか、モデルフィッティングステップによる処理を再実行するかを決定することを、コンピュータに実行させることができる。その結果、顔検知精度の低下したトラッキング処理が継続されることが抑制できる。
図1は、実施形態にかかる乗員モデリング装置を搭載可能な車両の車室の一部が透視された状態が示された例示的な斜視図である。 図2は、実施形態にかかる乗員モデリング装置で利用する画像を撮像するための撮像部および赤外線照射器の配置の一例を示す模式図である。 図3は、実施形態にかかる乗員モデリング装置(乗員モデリング部)を実現するECUを含む車両制御システムの構成の例示的なブロック図である。 図4は、実施形態にかかる乗員モデリング装置(乗員モニタリング部)の各モジュールがCPUで実現されることを例示的に示すブロック図である。 図5は、実施形態にかかる乗員モデリング装置で利用する顔のモデルを説明するための例示的な模式図である。 図6は、図5の顔のモデルに対応するテンプレートを説明するための例示的な模式図である。 図7は、実施形態にかかる乗員モデリング装置におけるトラッキング処理の様子を説明する模式図である。 図8は、実施形態にかかる乗員モデリング装置において、トラッキング処理と判定処理とが並列的に実行されていることを示す例示的な模式図である。 図9は、実施形態にかかる乗員モデリング装置における判定部が、顔部品位置として、顔の眼の位置の正否を判定する第1の判定を実行する場合の判定領域を示す例示的に模式図である。 図10は、実施形態にかかる乗員モデリング装置における判定部が、顔部品位置として、顔に含まれる複数の顔部品の位置の正否を判定する第2の判定を実行する場合の判定領域を示す例示的に模式図である。 図11は、実施形態にかかる乗員モデリング装置のおける乗員モニタリング処理の流れの一例を示すフローチャートである。 図12は、実施形態にかかる乗員モデリング装置のおける判定処理の流れの一例を示すフローチャートである。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。
以下に示す実施形態では、車両1は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。
図1に示されるように、車両1の車体2は、運転者(不図示)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード12(インストルメントパネル)から突出したステアリングホイールである。
また、図1に示されるように、本実施形態では、一例として、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。さらに、本実施形態では、これら四つの車輪3は、いずれも操舵されうるように(転舵可能に)構成されている。
また、車室2a内のダッシュボード12の車幅方向すなわち左右方向の中央部には、モニタ装置11が設けられている。モニタ装置11には、表示装置や音声出力装置が設けられている。表示装置は、例えば、LCD(Liquid Crystal Display)や、OELD(Organic Electroluminescent Display)等である。音声出力装置は、例えば、スピーカである。また、表示装置は、例えば、タッチパネル等、透明な操作入力部10(図3参照)で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8(図3参照)の表示画面に表示される画像に対応した位置において手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。
また、図2に示すように、操舵部4を支持するハンドルコラム202には、撮像部201と、赤外線照射器203と、が設けられている。赤外線照射器203は、例えば、赤外線を照射するLED(Light Emitting Diode)ライト等とすることができる。撮像部201は、例えば、赤外線による撮影に対応した、CCD(Charge Coupled Device)カメラ等とすることができる。
撮像部201は、例えば、座席2bに着座する運転者302の顔が、視野中心に位置するように、視野角及び姿勢が調整されて設置されている。撮像部201は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。また、赤外線照射器203は、当該赤外線照射器203が照射する光の光軸が、座席2bに着座する運転者302の顔の近傍に来るように、調整されている。
赤外線照射器203は、上述した調整の結果、座席2bに運転者302(人)が座った場合に、当該運転者302の顔が存在する可能性がある範囲250に対して、赤外線212を照射する。赤外線212は、人の眼には光として認識されないため、赤外線212が運転者302の顔の方向に照射しても、照射対象となった運転者302はまぶしいと感じない。したがって、運転者302の運転時の快適性を確保しつつ、撮像部201による、運転者302の顔の撮像を容易に行うことができる。
撮像部201は、上述した調整の結果、赤外線照射器203により赤外線212が照射される、運転者302の顔が存在する可能性がある範囲250を撮像する。そして、撮像部201は、例えば車両1の運転が行われている間、運転者302の顔の撮影を継続し、撮影により得た撮像画像データを逐次、ECU14(Electronic Control Unit:図3参照)に出力する。なお、撮像部201による撮像は、常時行われてもよいし、一定期間間隔で周期的に行われてもよい。なお、撮像部201として赤外線カメラを用いる場合、周囲の光の影響を受け難く、運転者302の顔が存在する可能性のある領域の撮像を良好に行うことができる。また、別の実施形態においては、撮像部201は、可視光カメラを用いてもよい。この場合、赤外線照射器203を省略することが可能で、システムの簡略化が可能である。また、撮像部201および赤外線照射器203の設置位置は、ハンドルコラム202に限定されず、運転者302の顔が存在する可能性がある範囲250を概ね正面から撮像することができる場所であれば、適宜変更可能である。例えば、撮像部201および赤外線照射器203は、ダッシュボード12上に設けられてもよいし、天井やルームミラー等に設置されてもよい。また、撮像部201と赤外線照射器203とは分離された位置にそれぞれ設けられてもよい。
図3には、本実施形態にかかる乗員モデリング装置(乗員モデリング部)を実現するECU14を含む車両制御システム100の構成の例示的なブロック図が示されている。図3に例示されるように、車両制御システム100では、ECU14や、モニタ装置11、操舵システム13等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、アクチュエータ13aを含む操舵システム13、アクチュエータ18aを含むブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。なお、本実施形態において、ECU14は、乗員モデリング装置の一例とすることができる。
ECU14は、例えば、CPU14a(Central Processing Unit)や、ROM14b(Read Only Memory)、RAM14c(Random Access Memory)、表示制御部14d、音声制御部14e、SSD14f(Solid State Drive、フラッシュメモリ)等を有している。CPU14aは、乗員モデリング装置(乗員モデリング部)を実現するとともに、車両1全体の制御を行う。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行できる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、撮像部201から取得した撮像画像データをCPU14aに提供するとともに、表示装置8で表示するための画像データを処理する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。
なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。
本実施形態では、ECU14は、ハードウェアとソフトウェア(制御プログラム)が協働することにより、撮像部201で撮像した撮像画像データから運転者302の顔を逐次抽出する処理を実行する。また、ECU14は、運転者302の顔の抽出が正しく行われているかを逐次確認するチェック処理を実現する。
図4は、ECU14に含まれるCPU14aが実現する乗員モデリング部30(乗員モデリング装置)の機能ブロック図を例示的に示す図である。ECU14に含まれるCPU14aは、上述したような運転者302の顔を逐次抽出する処理、運転者302の顔の抽出が正しく行われているかを逐次確認するチェックする処理、およびチェック結果に応じて以降の処理を決定する判定処理を実行するための各種モジュールを実現する。また、CPU14aは、抽出された運転者302の顔の状態(向きや表情等)に応じて、種々の警報処理を実行させたり、運転者302の操作の有無に拘わらず車両1の制御を実行させたりする、所定のアクションを実行するためのモジュールを実現する。各種モジュールは、CPU14aがROM14b等の記憶装置にインストールされ記憶された乗員モデリングプログラム14bpを読み出し、それを実行することで実現される。例えば、CPU24aは、図4に示されるように、乗員モデリング部30、アクション処理部32等を実現する。なお、CPU14aは、この他にも種々の処理装置(処理部)を実現しうる。また、乗員モデリング部30、アクション処理部32等は、CPU14aとは異なるCPUで実現されてもよいし、異なるECUにおいて実現されてもよい。また、専用のハードウェアとして構成されてもよい。
乗員モデリング部30は、上述したように運転者302の顔を逐次抽出する処理および運転者302の顔の抽出が正しく行われているかを逐次確認するチェック処理を実行するモジュールとして、取得部34、モデルフィッティング部36、トラッキング部38、判定部40、処理部42等を含む。
取得部34は、撮像部201により撮像された撮像画像データを逐次取得し、RAM14c等の記憶部にフレーム毎に格納させる。したがって、RAM14cは、CPU14aによるプログラム実行時のワークエリアとして使用されるとともに、撮像画像データをフレーム毎に一時的に格納するフレーム・メモリとして使用されうる。また、RAM14cは、後述するモデルフィッティング処理の結果得られるモデル(3Dモデル)やモデルに基づくテンプレート等を一時的に格納することにも使用することができる。取得部34は、撮像部201が逐次撮像する撮像画像データを取得してもよいし、取得部34が所定のタイミングで撮像部201に撮像処理を実行させて、撮像画像データを取得するようにしてもよい。
モデルフィッティング部36は、撮像部201により撮像される撮像画像データ(モデルフィッティング開始時の画像を「第1の画像」と称する場合がある)が取得部34によって取得されると、モデルフィッティング処理を行い、運転者302の顔に対応するモデル(3Dモデル、顔モデル)を生成する。
図5は、本実施形態で用いる顔のモデルMの一例を模式的に示した図である。モデルMは、それぞれ所定の顔部品を表す複数の特徴点Pを含んでいる。特徴点Pは、任意の点を原点とした座標により表される。図5では眼、鼻、口、眉および輪郭を表す特徴点Pを示しているが、モデルMは、図5に示した特徴点Pと異なる顔部品を示す特徴点Pを含んでもよい。本実施形態において、モデルフィッティング処理には、統計的顔形状モデル、すなわち予め作成した平均的な顔の仮モデルを初期状態として用い、この仮モデルの特徴点Pを、取得部34が取得したモデルフィッティング開始時の第1の画像中の顔の各部分に位置させることによって、第1の画像の顔に近似したモデルMを生成することができる。また、図6は、顔に含まれる特徴的な顔部分、例えば、眼、鼻、口、眉、輪郭等を規定する特徴点Pを探索する場合に利用するテンプレートTの一例を模式的に示した図である。テンプレートTは、図6に示すように、眼を表す特徴点Pを含む領域Ta、鼻を表す特徴点Pを含む領域Tb、口を表す特徴点Pを含む領域Tc、輪郭を表す特徴点Pを含む領域Tdおよび眉を表す特徴点Pを含む領域Te等を含む。テンプレートTの各領域は、1または2以上の特徴点Pと対応しており、特徴点Pの座標と紐付けられている。テンプレートTが有する領域(Ta〜Te等)の位置および数は、モデルMのトラッキングが可能である限り任意に設定することができる。
モデルフィッティング部36は、RAM14cからモデルフィッティング処理開始時(顔検出処理開始時)のフレームの画像(第1の画像)および仮モデルを取得する。そして、モデルフィッティング部36は、仮モデルを用いて、第1の画像に対してモデルフィッティングを行い、第1の画像に含まれる顔に適合したモデルMおよびテンプレートTを生成する。モデルフィッティング部36で生成されたモデルMおよびテンプレートTは、トラッキング部38が実行するトラッキング処理で用いるため、RAM14c等に一時的に保存する。モデルフィッティング処理の方法には、周知のAAM(Active Appearance Model)法やASM(Active Shape Model)法等の、任意のモデルフィッティング法を用いることができる。
トラッキング部38は、モデルフィッティング部36によるモデルフィッティングにおいてモデルMが生成された後に、第1の画像より後に逐次撮像される第2の画像中で、角度や位置、大きさ等が変化している可能性のある顔に合うようにモデルMを適合させる。この場合、テンプレートTを用いることによって第2の画像の中から特徴点を抽出することで、モデルMのトラッキングを行う。トラッキング部38は、RAM14cから処理対象のフレームの画像(第2の画像)、前回処理で利用されたモデルMおよびテンプレートTを取得する。なお、最初のトラッキング処理の場合は、モデルフィッティング処理で生成されたモデルMおよびテンプレートTを取得する。また、連続する2回目以降のトラッキング処理の場合、前回のトラッキング処理で更新したモデルMおよびテンプレートTを取得する。そして、図7に示すように第2の画像FとテンプレートTとの比較を行う。具体的には、トラッキング部38は、テンプレートTが有する各領域(Ta〜Te等)を第2の画像F上で走査して各位置における領域とその領域に含まれる画像とを比較する。トラッキング部38は、比較の結果、最も近似している位置を用いてテンプレートTが有する各領域の位置を決定し、位置が適用されたテンプレートTをRAM14cに保存する。その後、トラッキング部38は、RAM14cから読み出されたモデルMと、新たに保存されたテンプレートTとに基づいて、テンプレートTが有する各領域に紐付けられたモデルMの角度、位置および大きさを決定する。つまり、モデルMを第2の画像に適合するように回転させたり拡縮させたりすることで、角度、位置および大きさが適用されたモデルMをとする。その結果、モデルMが処理対象のフレームの画像(第2の画像)に適合(トラッキング)される。トラッキング部38は、このモデルMを更新されたモデルMとしてRAM14cに保存する。このように、トラッキング部38は、テンプレートTを用いてトラッキング処理を行うことで低い処理負荷でトラッキングを行うことができる。
ところで、上述したように、トラッキングの対象が顔の場合、例えば、眼鏡の縁や眉毛の位置と眼の位置とを誤って認識してしまう、いわゆる、トラッキングずれを起こす場合がある。この場合、トラッキングずれ(誤認識)を起こした状態でトラッキング処理をそのまま次のフレームの画像に対して継続して実行すると、トラッキングずれの影響が蓄積され、モデルMの精度低下が増大する虞がある。そこで、本実施形態の乗員モデリング部30は、図8に示すように、トラッキング処理と並列的に、トラッキング処理が正しく実行されているか、つまり、運転者302の顔の抽出が正しく行われているかを逐次確認するチェック処理を判定部40で実行している。
判定部40は、過去に取得した大量の顔の顔部品位置に関する正解情報と不正解情報とに基づき学習させたディープラーニング等の機械学習手法で作成した学習済み情報を用いて、モデルMが適合される第2の画像に含まれる顔部品位置の正否を判定する。学習済みの情報(学習画像)は、例えば、図9に示すように、眼を中心とした矩形領域D1を正解情報(ポジティブデータ)とし、この正解情報に対して一定値以上、位置移動、拡大、縮小、回転等を単独または組み合わせて切り出した矩形領域D2、D3、・・・を不正解情報(ネガティブデータ)として学習させる。そして、判定部40は、トラッキング処理において、モデルMが適合される第2の画像で、例えば眼と認識されている位置(眼と見なした画像を抽出するために用いた特徴点P)を取得する。そして、判定部40は、取得した特徴点Pに基づき、トラッキング処理で処理対象にしている第2の画像と同一の第2の画像から、トラッキング処理で認識された眼の周辺を一定の広さ(領域)で切り出した切出し画像を取得する。切出し画像の広さは、例えば、左右の眼の目尻で規定される距離+αを領域の横幅とし、領域の縦幅は、例えば横幅の1/2〜1/3の幅とすることができる。判定部40は、切出し画像に対して学習済みの情報を用いて判定することにより、トラッキング処理で認識している顔部品位置、例えば眼の位置の正否を判定することができる。例えば、顔具品位置としての眼の位置が所定量以上ずれてトラッキングされている場合(例えば、眼の位置を示す特徴点Pで、眼鏡の縁や眉毛等を眼と誤ってトラッキングしている場合)を判定することができる。なお、本実施形態において、上述したように、顔具品位置の正否判定を、眼の位置について実施する判定を「第1の判定」と称する場合がある。
また、判定部40における別の判定では、顔に含まれる複数の顔部品位置に対して正否判定を行ってもよい。図10に示すように、顔に含まれる複数の顔部品、例えば、眼、鼻、口、眉毛、輪郭等の顔全体を含むような矩形領域E1を正解情報(ポジティブデータ)とし、この正解情報に対して一定値以上、位置移動、拡大、縮小、回転等を単独または組み合わせて切り出した矩形領域E2、E3、・・・を不正解情報(ネガティブデータ)として学習させる。そして、判定部40は、トラッキング処理において、モデルMが適合される第2の画像で顔として認識されている位置(顔部品と見なした画像を抽出するために用いた各特徴点P)を取得する。そして、判定部40は、取得した特徴点Pに基づき、トラッキング処理で処理対象にしている第2の画像と同一の第2の画像から、トラッキング処理で認識された顔を中心として一定の広さ(領域)で切り出した切出し画像を取得する。そして、判定部40は、切出し画像に対して学習済みの情報を用いて判定することにより、トラッキング処理で認識している顔部品位置(顔の位置)の正否を判定することができる。この場合、顔の位置が大きくずれた状態、例えば、顔位置と全く異なる位置を顔と誤認識している誤トラッキングの発生、またはモデルフィッティング部36における誤フィッティングの発生を判定することができる。なお、本実施形態において、上述したように、顔具品位置の正否判定を、顔に含まれる複数の顔部品(例えば、顔全体)の位置について実施する判定を「第2の判定」と称する場合がある。なお、第2の判定において、矩形領域E1等に含まれる顔部品は、複数種類であれば、種類の数は適宜変更してもよい。
なお、判定部40は、第1の判定と第2の判定のうち、少なくともいずれか一方を実行する。例えば、第1の判定または第2の判定のいずれか一方で顔部品位置の正否判定を行う場合、効率的な判定処理ができる。特に第1の判定の場合、眼の位置を正確にチェックすることが可能で、効率的かる高精度のチェックが実施できる。また、第1の判定と第2の判定の両方で顔部品位置の正否判定を行う場合、判定精度を向上することができる。
処理部42は、判定部40の判定結果に応じて、トラッキング部38による処理を継続するか、モデルフィッティング部36による処理を再実行するかを決定する。例えば、図8に例示されるように、トラッキング処理と並列処理で実行されている判定処理(チェック処理)において、判定結果が「OK」の場合、トラッキング部38が処理対象の第2の画像に対して正しい顔認識を行っていると見なす。したがって、処理部42は、次の処理対処となる画像を第2の画像としてトラッキング処理を継続させる。一方、判定処理(チェック処理)において、判定結果が「NG」の場合、トラッキング部38が処理対象としている第2の画像に対してトラッキングずれ(例えば、眼と眉毛を誤ってトラッキングする誤トラッキング)が発生していると見なす。したがって、処理部42は、次の処理対処となる画像を第1の画像として、モデルフィッティング部36によるモデルフィッティング処理を再実行させて、改めて生成したモデルMによるトラッキング処理を再開させる。つまり、顔の再発見を実行させる。なお、判定部40による判定は毎フレームに対して実行可能である。この場合、トラッキング部38によるトラッキングずれを迅速に検出することが可能であり、モデルフィッティング処理を再実行して認識ずれの影響を最小限にすることができる。別の実施形態では、トラッキング処理の処理周期より長い処理周期で判定処理を時刻するようにしてもよい。この場合、CPU14aの処理負荷の軽減に寄与できる。
アクション処理部32は、乗員モデリング部30により車両1の乗員、例えば運転者302の顔の認識結果に応じて警報処理や車両1の走行制御処理等の所定のアクションを実行する。例えば、アクション処理部32は、トラッキング部38によるトラッキング処理において適合されるモデルMが正面を向いていない期間が所定期間以上の場合に運転者302が脇見状態であると判定し、警告処理を実行させる。例えば、音声制御部14eに対して音声出力装置9を介して警報音やメッセージを出力するようにしてもよい。または、運転者302が認識できる位置に設置されたLED等の警告ランプ等を発光させるようにしたり、操舵部4や座席2bに内蔵した振動体を振動させたりしてもよい。同様に、アクション処理部32は、トラッキング処理において適合されるモデルが所定の時間以上下を向いている場合や閉眼状態にある場合は、運転者302が居眠り状態であると判定し、警告処理を実行させる。例えば、脇見状態と見なした場合と同様の警報または、それより強い警報を出力するようにすることができる。また、アクション処理部32は、脇見状態や居眠り状態等の判定に基づいて、自動運転、例えば自動ブレーキシステムや自動操舵システム等を作動させて、車両1を安全な場所に誘導するようにしてもよい。
なお、図4に示すモジュール構成は一例であり、同様な処理ができれば、機能の分割や統合は適宜可能である。
以上にように構成される乗員モデリング部30およびアクション処理部32による乗員モニタリング処理およびアクション処理の流れの一例を図11および図12のフローチャートを用いて説明する。なお、図11は、モデルフィッティング処理およびトラッキング処理の流れの一例を説明するフローチャートであり、図12は、判定処理(チェック処理)の流れの一例を説明するフローチャートである。
CPU14aの取得部34は、車両1の電源がONされている場合、走行の有無に拘わらず、常時、撮像部201が撮像する撮像画像データ(モデルフィッティング処理のための第1の画像)を逐次取得する(S100:取得ステップ)。続いて、モデルフィッティング部36は、取得部34が取得した画像を第1の画像として、RAM14cから取得した仮モデルを用いて、第1の画像に対してモデルフィッティングを実行し(S102:モデルフィッティングステップ)、第1の画像に含まれる顔に適合したモデルMおよびテンプレートTを生成して、RAM14cに一時的に保存する(S104)。
続いて、取得部34は、撮像部201で第1の画像より後に撮像される第2の画像を取得し(S106:取得ステップ)、トラッキング部38は、前回処理で利用されたモデルMおよびテンプレートTを取得する(S108)。なお、最初のトラッキング処理の場合は、S102のモデルフィッティング処理で生成されたモデルMおよびテンプレートTを取得する。また、連続する2回目以降のトラッキング処理の場合、前回のトラッキング処理で更新したモデルMおよびテンプレートTを取得することになる。そして、トラッキング部38は、第2の画像にモデルMを適合させるトラッキング処理を実行する(S110:トラッキングステップ)。
トラッキング処理が実行されている場合、前述したように、判定部40はディープラーニング等の機械学習手法で作成した学習済み情報を用いて、モデルMが適合される第2の画像に含まれる顔部品位置の正否判定を実行している。例えば、判定部40は、図12のフローチャートで示すような判定処理(チェック処理)を実行する。まず、判定部40は、現在トラッキング処理が実行中であるか否か確認し、トラッキング処理が実行中でない場合(S200のNo)、このフローを一旦終了する。一方、トラッキング処理が実行中の場合(S200のYes)、トラッキング処理で処理対象としている第2画像、すなわち、トラッキング処理において、モデルMが適合される第2の画像で例えば、眼と認識されている位置(特徴点Pで認識される位置)の周辺を一定の広さ(領域)で切り出した切出し画像を取得する(S202)。そして、例えば、ROM14b等に予め保持された学習済み情報を用いて、第2の画像に含まれる顔部品位置の正否を判定する(S204:判定ステップ)。つまり、トラッキング処理が正しく実行されて、運転者302の顔の抽出が正しく行われているかのチェック処理を実行し、その判定結果を処理部42に出力する(S206)。
図11のフローチャートに戻り、処理部42が判定結果を取得した場合(S112)、処理部42は、判定結果に応じてトラッキング処理を継続するか、モデルフィッティング処理を再実行(顔の再発見)するか決定する(S114:処理ステップ)。例えば、判定結果が「OK」の場合(S114のYes)、トラッキング部38は、トラッキング処理の結果得られたモデルMおよびテンプレートTをRAM14cに保存する(S116)、つまり、トラッキング部38は、トラッキング処理で認識している顔部品位置が許容範囲を超える位置ずれを伴うことなく正しく認識されていると判定された場合、現在のトラッキング処理で生成したモデルMおよびテンプレートTは、次の画像(第2の画像)に対するトラッキング処理で適用可能として、RAM14cに更新保存する。
そして、アクション処理部32は、トラッキング処理において適合されるモデルMの顔の向き等に基づき、アクション処理が必要か判定する(S118)。アクション処理部32が、例えば、脇見状態や居眠り状態であると判定して、アクション処理が必要であると判定した場合(S118のYes)、予め定められたアクション処理、例えば、警報音やメッセージの出力等を実行する(S120)。また、S118において、アクション処理が必要でないと判定された場合(S118のNo)、つまり、認識したモデルMから脇見状態や居眠り状態であると判定されない場合、S120の処理をスキップする。
そして、所定の終了条件(例えば、運転者302の離席、運転者302による車両1の電源OFFまたは特定のスイッチのOFF等)が満たされたことが、図示を省略したセンサ等で検出された場合(S122のYes)、このフローを一旦終了する。一方、終了条件が満たされていない場合(S122のNo)、S106の処理に戻り、取得部34が取得する次の画像を第2の画像として、S106以降の処理を繰り返し実行する。つまり、処理部42は、トラッキング部38によるトラッキング処理の継続を許可する。その結果、CPU14aの処理負荷を増大させることなく、乗員モニタリング処理を継続することができる。
一方、S114において、判定結果が「NG」の場合(S114のNo)、処理部42はトラッキング処理において、顔部品位置が正しく認識されていない、つまり、現在適用中のモデルMがトラッキング処理には不適切であると判定し、S100に戻る。したがって、取得部34が取得する次の画像を第1の画像として、S100以降の処理を実行する。つまり、処理部42は、取得部34によるモデルフィッティング処理を再実行させる。その結果、第1の画像に基づきモデルMが再生成され、モデルフィッティング処理に続くトラッキング処理の処理精度を改善または向上させることができる。
このように、本実施形態によれば、例えば、乗員の顔の第2の画像が取得できれば、学習済み情報に基づき、顔部品位置の正否の判定が可能になり、その判定結果に応じて、トラッキング部によるトラッキング処理を継続するか、モデルフィッティング部によるモデルフィッティング処理を再実行するかを決定することができる。その結果、顔検知精度の低下したトラッキング処理が継続されることが抑制できる。
上述した実施形態では、運転席に着座した運転者302に対して乗員モデリング処理を実行する例を示したが、車両1の他の座席2bに着座する同乗者に対しても同様な処理が可能であり、同様な効果を得ることができる。なお、同乗者に対しては、アクション処理部32によるアクション処理は、省略することができる。
本実施形態のCPU14aで実行される乗員モデリング処理のためのプログラム(乗員モデリングプログラム14bp)は、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、乗員モデリングプログラム14bpを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される乗員モデリングプログラム14bpをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…車両、14…ECU、14a…CPU、30…乗員モデリング部(乗員モデリング装置)、32…アクション処理部、34…取得部、36…モデルフィッティング部、38…トラッキング部、40…判定部、42…処理部、100…車両制御システム、201…撮像部、202…ハンドルコラム、203…赤外線照射器、212…赤外線、302…運転者、14bp…乗員モデリングプログラム、M…モデル、T…テンプレート。

Claims (5)

  1. 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる画像を取得する取得部と、
    前記取得部が取得する第1の画像に基づき前記顔のモデルを生成するモデルフィッティング部と、
    前記取得部が取得する前記第1の画像より後に取得された第2の画像に前記モデルを適合させるトラッキング部と、
    前記顔の顔部品位置に関する正解情報と不正解情報とに基づき学習させた学習済み情報を用いて、前記モデルが適合される前記第2の画像に含まれる前記顔部品位置の正否を判定する判定部と、
    前記判定部の判定結果に応じて、前記トラッキング部による処理を継続するか、前記モデルフィッティング部による処理を再実行するかを決定する処理部と、
    を備える、乗員モデリング装置。
  2. 前記判定部は、前記トラッキング部の処理により顔部品位置と認識された情報に基づき、前記第2の画像の顔部品位置を特定し、前記学習済み情報との正否を判定する、請求項1に記載の乗員モデリング装置。
  3. 前記判定部は、前記顔部品位置として、前記顔の眼の位置の正否を判定する第1の判定と、前記顔に含まれる複数の顔部品の位置の正否の正否を判定する第2の判定と、のうち少なくとも一方に対して判定を実行する、請求項1または請求項2に記載の乗員モデリング装置。
  4. 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる画像を取得する取得ステップと、
    前記取得ステップで取得した第1の画像に基づき前記顔のモデルを生成するモデルフィッティングステップと、
    前記取得ステップが取得した前記第1の画像より後に取得された第2の画像に前記モデルを適合させるトラッキングステップと、
    前記顔の顔部品位置に関する正解情報と不正解情報とに基づき学習させた学習済み情報を用いて、前記第2の画像に含まれる前記顔部品位置の正否を判定する判定ステップと、
    前記判定ステップの判定結果に応じて、前記トラッキングステップによる処理を継続するか、前記モデルフィッティングステップによる処理を再実行するかを決定する処理ステップと、
    を備える、乗員モデリング方法。
  5. コンピュータに、
    車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる画像を取得する取得ステップと、
    前記取得ステップで取得した第1の画像に基づき前記顔のモデルを生成するモデルフィッティングステップと、
    前記取得ステップが取得した前記第1の画像より後に取得された第2の画像に前記モデルを適合させるトラッキングステップと、
    前記顔の顔部品位置に関する正解情報と不正解情報とに基づき学習させた学習済み情報を用いて、前記第2の画像に含まれる前記顔部品位置の正否を判定する判定ステップと、
    前記判定ステップの判定結果に応じて、前記トラッキングステップによる処理を継続するか、前記モデルフィッティングステップによる処理を再実行するかを決定する処理ステップと、
    を実行させるための、乗員モニタリングプログラム。
JP2018182750A 2018-09-27 2018-09-27 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム Active JP7290930B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018182750A JP7290930B2 (ja) 2018-09-27 2018-09-27 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム
US16/578,686 US11210497B2 (en) 2018-09-27 2019-09-23 Occupant modeling device, occupant modeling method, and occupant modeling program
DE102019125921.5A DE102019125921A1 (de) 2018-09-27 2019-09-26 Insassenmodelliervorrichtung, Insassenmodellierverfahren und Insassenmodellierprogramm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018182750A JP7290930B2 (ja) 2018-09-27 2018-09-27 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム

Publications (2)

Publication Number Publication Date
JP2020052827A true JP2020052827A (ja) 2020-04-02
JP7290930B2 JP7290930B2 (ja) 2023-06-14

Family

ID=69781263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182750A Active JP7290930B2 (ja) 2018-09-27 2018-09-27 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム

Country Status (3)

Country Link
US (1) US11210497B2 (ja)
JP (1) JP7290930B2 (ja)
DE (1) DE102019125921A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193528A1 (ja) 2020-03-24 2021-09-30 三菱マテリアル株式会社 接合体の製造方法及び絶縁回路基板の製造方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11205083B2 (en) * 2019-04-02 2021-12-21 Magna Electronics Inc. Vehicular driver monitoring system
DE102019004692B3 (de) * 2019-07-03 2020-11-12 Daimler Ag Vorrichtung und Verfahren zur Ermittlung von Bilddaten der Augen, von Augenpositionen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug
KR20220005297A (ko) * 2020-07-06 2022-01-13 주식회사 씽크아이 차량에 설치되는 인캐빈 안전센서 및 그 서비스 플랫폼 제공 방법
DE102021211739B4 (de) 2021-10-18 2023-07-06 Volkswagen Aktiengesellschaft Bestimmung der Sternumsposition
US20230362560A1 (en) * 2022-05-08 2023-11-09 Tuned Ltd. System and method for personalized, image analysis based positioning of hearing aids

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075916A (ja) * 2013-10-09 2015-04-20 アイシン精機株式会社 顔検出装置、方法およびプログラム
JP2017215897A (ja) * 2016-06-02 2017-12-07 株式会社デンソーアイティーラボラトリ 特徴点位置推定装置、特徴点位置推定システム、特徴点位置推定方法、および特徴点位置推定プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2715511B2 (ja) 1989-01-31 1998-02-18 日産自動車株式会社 運転者の目の位置認識装置
JP4895847B2 (ja) 2007-02-08 2012-03-14 アイシン精機株式会社 瞼検出装置及びプログラム
CN103632136B (zh) * 2013-11-11 2017-03-29 北京天诚盛业科技有限公司 人眼定位方法和装置
CN104217350B (zh) * 2014-06-17 2017-03-22 北京京东尚科信息技术有限公司 实现虚拟试戴的方法和装置
CN107679448B (zh) * 2017-08-17 2018-09-25 平安科技(深圳)有限公司 眼球动作分析方法、装置及存储介质
US20200065559A1 (en) * 2018-08-22 2020-02-27 Nitin Vats Generating a video using a video and user image or video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075916A (ja) * 2013-10-09 2015-04-20 アイシン精機株式会社 顔検出装置、方法およびプログラム
JP2017215897A (ja) * 2016-06-02 2017-12-07 株式会社デンソーアイティーラボラトリ 特徴点位置推定装置、特徴点位置推定システム、特徴点位置推定方法、および特徴点位置推定プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
J. M. WANG ET AL: "Extracting driver's facial features during driving", 2011 14TH INTERNATIONAL IEEE CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC), JPN7022003384, 7 October 2011 (2011-10-07), US, ISSN: 0004970053 *
回 盻 他3名: "顔特徴点の信頼度と配置を用いた顔の誤検出除去", SSII2012 第18回画像センシングシンポジウム 講演論文集 [CD−ROM], JPN6022029987, 6 June 2012 (2012-06-06), JP, pages 1 - 19, ISSN: 0004970052 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193528A1 (ja) 2020-03-24 2021-09-30 三菱マテリアル株式会社 接合体の製造方法及び絶縁回路基板の製造方法

Also Published As

Publication number Publication date
US11210497B2 (en) 2021-12-28
US20200104571A1 (en) 2020-04-02
DE102019125921A1 (de) 2020-04-02
JP7290930B2 (ja) 2023-06-14

Similar Documents

Publication Publication Date Title
JP7290930B2 (ja) 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム
US11977675B2 (en) Primary preview region and gaze based driver distraction detection
US11535280B2 (en) Method and device for determining an estimate of the capability of a vehicle driver to take over control of a vehicle
EP3033999B1 (en) Apparatus and method for determining the state of a driver
US10089543B2 (en) System and method for detecting distraction and a downward vertical head pose in a vehicle
JP7198023B2 (ja) 眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラム
JP2016115117A (ja) 判定装置および判定方法
JP2018032337A (ja) 運転者体調検知装置及び方法
JP2016115120A (ja) 開閉眼判定装置および開閉眼判定方法
JP6572538B2 (ja) 下方視判定装置および下方視判定方法
JP2016115119A (ja) 開閉眼判定装置、及び開閉眼判定方法
US20200104590A1 (en) Eyeball information detection device, eyeball information detection method, and occupant monitoring device
CN115344117A (zh) 适配的眼睛追踪机器学习模型引擎
US11501561B2 (en) Occupant monitoring device, occupant monitoring method, and occupant monitoring program
JP2019114118A (ja) 警告装置、自動車、警告方法、及びプログラム
JP2020052773A (ja) 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム
US20220319203A1 (en) Distracted-driving monitoring apparatus for vehicle
US11138753B2 (en) Method and device for localizing a sensor in a vehicle
US20240029454A1 (en) Line of sight estimating device, storage medium for storing computer program for line of sight estimation, and line of sight estimating method
JP6932269B1 (ja) 運転支援制御装置及び運転支援制御方法
JP2024031625A (ja) 通知装置、通知方法、および通知用コンピュータプログラム
JP2018206037A (ja) 安全確認装置、及び安全確認方法
KR20210001777A (ko) 영상 기록 장치 및 그 동작 방법
JP2009245257A (ja) 顔位置推定装置
JP2021007717A (ja) 乗員観察装置、乗員観察方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230602

R150 Certificate of patent or registration of utility model

Ref document number: 7290930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150