JP6982767B2 - 検知装置、学習装置、検知方法、学習方法、およびプログラム - Google Patents

検知装置、学習装置、検知方法、学習方法、およびプログラム Download PDF

Info

Publication number
JP6982767B2
JP6982767B2 JP2017070739A JP2017070739A JP6982767B2 JP 6982767 B2 JP6982767 B2 JP 6982767B2 JP 2017070739 A JP2017070739 A JP 2017070739A JP 2017070739 A JP2017070739 A JP 2017070739A JP 6982767 B2 JP6982767 B2 JP 6982767B2
Authority
JP
Japan
Prior art keywords
image
orientation
feature amount
region image
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017070739A
Other languages
English (en)
Other versions
JP2018173757A (ja
Inventor
修蔵 乘冨
浩治 新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017070739A priority Critical patent/JP6982767B2/ja
Priority to US15/911,241 priority patent/US10706301B2/en
Publication of JP2018173757A publication Critical patent/JP2018173757A/ja
Application granted granted Critical
Publication of JP6982767B2 publication Critical patent/JP6982767B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Description

本発明は、検知装置、学習装置、検知方法、学習方法、およびプログラムに関する。
近年、撮像装置が撮像した画像に基づいて車両内の乗員の状態を推定する技術が注目されている。特に乗員の顔向きは、乗員の脇見を検知する際の重要な要素であり、様々な研究が行われている。
例えば、脇見状態にある可能性がある運転者の顔の主要な要素が認識できるか否かを判定することにより、運転者の顔向き角度が正面を中心とする所定角度範囲(検知範囲)内に含まれるか否かを判定する技術が提案されている(特許文献1)。特許文献1においては、検知範囲外であると判定された場合、直前の顔領域の動きを示す角速度と運転者の顔向き角度が所定角度範囲を超えてからの経過時間とから、顔向き角度が推定される。
特開2016−57839号公報
しかしながら、特許文献1に提案されている技術においては、検知範囲内と検知範囲外とで処理内容を切り替える必要があるという課題がある。さらに、顔向きが検知範囲内から急激な顔向き変化を経て検知範囲外に変化する等の場合、画像フレーム間における顔向き変化が大きいため、正確な角速度を算出することができないという課題がある。したがって、特許文献1に提案されている技術においては、顔向きを安定して算出することができないという課題がある。
本発明の目的は、振り返り動作を行う乗員の身体の部位の向きを精度良く検知することができる検知装置、学習装置、検知方法、学習方法、およびプログラムを提供することである。
本開示の一態様に係る検知装置は、撮像装置から取得した車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する検知部と、を備え、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
本開示の一態様に係る学習装置は、第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する学習モデル生成部と、を備え、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
また、本開示の一態様に係る検知方法は、検知装置に実行させる検知方法であって、撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知するステップと、を備え、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
また、本開示の一態様に係る学習方法は、学習装置に実行させる学習方法であって、第1のデータ提供装置から取得した車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成するステップと、を備え、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
また、本開示の一態様に係るプログラムは、検知装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する処理と、を実行させ、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
また、本開示の一態様に係るプログラムは、学習装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する処理と、を実行させ、前記第1の部位は、顔または頭部であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である構成を採る。
また、本開示の一態様に係る検知装置は、撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の前記身体の前記第1の部位の向きを検知する検知部と、を備え、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
また、本開示の一態様に係る学習装置は、第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する学習モデル生成部と、を備え、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
また、本開示の一態様に係る検知方法は、検知装置に実行させる検知方法であって、撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知するステップと、を備え、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
また、本開示の一態様に係る学習方法は、学習装置に実行させる学習方法であって、第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成するステップと、を備え、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
また、本開示の一態様に係るプログラムは、検知装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する処理と、を実行させ、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
また、本開示の一態様に係るプログラムは、学習装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する処理と、を実行させ、前記第1の部位は、顔または頭部であり、前記第2の部位は、肩、胸、または上半身であり、前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である構成を採る。
本開示によれば、振り返り動作を行う乗員の身体の部位の向きを精度良く検知することができる。
本開示に係る向き検知装置の構成図である。 本開示に係る向き検知装置の動作フローを示すフローチャートである。 顔向きの一例を示す説明図である。 顔向きの一例を示す説明図である。 顔向きの一例を示す説明図である。 第1の領域および第2の領域の一例を示す説明図である。 第1の領域および第2の領域の一例を示す説明図である。 第1の領域画像および第2の領域画像の一例を示す説明図である。 第1の領域画像および第2の領域画像の一例を示す説明図である。 第1の領域画像および第2の領域画像の一例を示す説明図である。 本開示に係る向き学習装置の構成図である。 本開示に係る向き学習装置の動作フローを示すフローチャートである。 コンピュータのハードウェア構成の一例を示す図である。
以下、本開示の実施の形態について、図面を参照して詳細に説明する。
(向き検知システム100の構成および動作)
図1は、本開示に係る向き検知システム100の構成図である。向き検知システム100は、撮像装置110、向き検知装置(検知装置)120、および向き出力装置130を備える。
撮像装置110は、車室内画像を撮像する。ここで、車室内画像は、第1の領域と第2の領域とを含む領域を撮像した画像である。第1の領域は、車両の乗員(例えば、運転手)の体の第1の部位の少なくとも一部を含む領域である。第2の領域は、第1の部位の周辺にある車室内領域または第2の部位の少なくとも一部を含む領域である。乗員の身体の第1の部位は、例えば、顔、頭部である。また、車室内領域は、例えば、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つである。第2の部位は、例えば、肩、胸および上半身の少なくとも1つである。
一例において、撮像装置110は、太陽光等の外部光源からの光や電磁波、音波等の反射を検知する受動型(パッシブ)検知器を備える。受動型検知器は、例えば、可視光を受光可能なCCDイメージセンサ、MOSイメージセンサである。
向き検知装置120は、撮像装置110が撮像した車室内画像に基づいて、乗員の身体の第1の部位の向きを検知する。向き検知装置120は、画像取得部121、切り出し位置決定部122、画像切り出し部123、学習モデル記憶部124、および向き検知部(検知部)125を備える。
画像取得部121は、撮像装置110が撮像した車室内画像を取得し、切り出し位置決定部122および画像切り出し部123に出力する。
切り出し位置決定部122は、画像取得部121から出力された車室内画像において、第1の領域と第2の領域とを決定する。
一例において、切り出し位置決定部122は、車室内画像から体の第1の部位に対応する領域を決定し、当該領域を第1の領域と決定する。第1の領域の形状は、例えば、矩形である。第1の部位に対応する領域は、例えば、Haar−like特徴量やGabor特徴量等を用いる顔判定技術等の任意の公知の部位判定技術を用いて決定される。他の一例において、切り出し位置決定部122は、車室内画像の所定の部分に対応する領域を第1の領域と決定する。
一例において、切り出し位置決定部122は、第1の領域に基づいて、第2の領域を決定する。例えば、第2の領域の中心は、第1の領域の中心と一致する。一例において、第2の領域は、第1の領域よりも上下左右に所定のピクセル数だけ大きい矩形の領域である。この場合、第2の領域は、第1の領域を含む。他の一例において、第2の領域は、第1の領域よりも上下左右に所定のピクセル数だけ大きい矩形の領域から、第1の領域を除いた領域である。
画像切り出し部123は、切り出し位置決定部122が決定する第1の領域と第2の領域に基づいて、画像取得部121から出力された車室内画像から、第1の領域画像と第2の領域画像を切り出す。画像切り出し部123は、切り出した第1の領域画像および第2の領域画像を、向き検知部125へ出力する。
第1の領域および第2の領域は、画像切り出し部123が切り出した第1の領域画像および第2の領域画像の特徴量が第2の部位の向きと相関関係にあるものである限り、特に限定されない。相関関係については、図6Aから図6Cを参照して後述する。領域画像の特徴量は、例えば、目、鼻、口等の顔部位の位置関係、車室内領域の露出部分の面積であり、または、領域画像内における濃淡の変化や勾配方向等を算出して数値化した量である。ここで、車室内領域の露出部分とは、領域画像内の車室内領域において乗員の陰になっていない部分のことである。
学習モデル記憶部124は、第1の領域画像および第2の領域画像の特徴量と第2の部位の向きとの相関関係を学習させた学習モデルを記憶する。一例において、学習モデル記憶部124は、不揮発性記憶装置である。一例において、学習モデル記憶部124は、図7を参照して後述される学習モデル生成部232が予め生成した学習モデルを記憶する。
向き検知部125は、画像切り出し部123から出力された第1の領域画像および第2の領域画像の特徴量に基づいて、第1の部位の向きを検知する。
一例において、向き検知部125は、学習モデル記憶部124から取得した学習モデルを用いて、第1の領域画像および第2の領域画像の特徴量から第1の部位の向きを検知する。例えば、第1の部位の向きは、ロール(roll)角、ピッチ(pitch)角、ヨー(yaw)角等の角度で表される。
他の一例において、向き検知部125は、第1の領域画像および第2の領域画像の特徴量と第1の部位の向きとの相関関係を記述する、予め作成されたテーブルを参照して、第1の領域画像および第2の領域画像の特徴量から第1の部位の向きを検知する。
向き出力装置130は、向き検知部125が検知した第1の部位の向きに応じた出力を行う。一例において、向き出力装置130は、スピーカを備え、第1の部位の向きを表すヨー角が、所定の時間に亘って所定の範囲外にある場合、スピーカから乗員に対して脇見を注意する旨の音声を出力する。
図2は、本開示に係る向き検知装置120の動作フローを示すフローチャートである。図3A、図3B、および図3Cは、顔向きの一例を示す説明図である。図4および図5は、第1の領域R1および第2の領域R2の一例を示す説明図である。図6Aから図6Cは、第1の領域画像I1−1,I2−1,I3−1および第2の領域画像I1−2,I2−2,I3−2の一例を示す説明図である。
図2に示される処理は、例えば車両のエンジンが起動されることに伴い、向き検知装置120のCPUがROMに格納されているプログラムを読み出して定期的に実行することにより実現される。
なお、以下においては、第1の部位として、顔または頭部を例にとって説明する。さらに、乗員Pの顔(第1の部位)が正面を向いているときの顔向き方向を基準とし、乗員Pが右を向いている場合の顔向き方向を正方向とするヨー角(以下、顔向き角度と呼ぶ)によって顔(第1の部位)の向きが表される場合を例にとって説明する。
ステップS11において、向き検知装置120は、撮像装置110から車室内画像を取得する(画像取得部121としての処理)。車室内画像は、例えば、図3A、図3B、および図3Cにそれぞれ示される、車室内画像I1,I2,I3である。車室内画像I1,I2,I3において、乗員Pの顔向き角度は、それぞれ、−45度、0度、120度である。
ステップS12において、向き検知装置120は、第1の領域R1と第2の領域R2とを決定する(切り出し位置決定部122としての処理)。
一例において、第1の領域R1は、乗員Pの顔が存在する位置に基づいて決定される。また、一例において、第1の領域R1は、少なくとも乗員Pの頭部を含む。なお、第1の領域R1における乗員Pの頭部の大きさや位置は、常に一致するのが好ましいが、多少のずれは許容される。
一例において、第1の領域R1の位置は、車室内画像I1,I2,I3の乗員Pの頭部の位置に追従するように決定される。また、一例において、第1の領域R1は、乗員Pの頭部が動くと想定される範囲に基づいて決定される。
一例において、第1の領域R1には、乗員Pの顔全体が含まれる。また、一例において、第1の領域R1には、少なくとも、乗員Pの顔向きと強い相関関係にある、乗員Pの目、鼻、口等の顔部位が含まれる。この場合、第1の領域R1には、乗員Pの顔全体が含まれるとは限らない。
一例において、第2の領域R2は、乗員Pが振り返った場合に車室内画像I1,I2,I3において見え方が変わる車室内領域の少なくとも一部を含む。そのような車室内領域は、例えば、座席、ヘッドレスト、車窓、ピラーである。
図4に示される乗員Pが正面を見ているときと、図5に示される乗員Pが後ろを振り返っているときとで、座席の露出部分が異なる。例えば、図5に示されるように乗員Pが車室内で右後方を振り返っているとき、乗員Pは体を右側に振っている。したがって、車室内画像I2と比較して、車室内画像I3における座席の露出部分の面積が大きくなっている。
一例において、第2の領域R2は、乗員Pが振り返った場合に車室内画像I1,I2,I3において見え方が変わる体の部位の少なくとも一部を含む。そのような体の部位は、例えば、乗員Pの上半身である。例えば、図3Cに示されるように、車室内で右後方を振り返るとき、乗員Pは肩を含む上半身を右方向に回転させる。したがって、肩等を含む上半身の見え方または面積が、図3Bに示されるように乗員Pが正面を向いている場合と異なる。
図4および図5に示される例においては、第2の領域R2の中心位置は、第1の領域R1の中心位置と同一であり、かつ、第2の領域R2には、乗員Pの上半身および座席の少なくとも一部が含まれる。
車室内画像I1,I2,I3における見え方は、車室内の内装等にも依存する。したがって、一例において、第2の領域R2として適切な領域が、実験的に決定されてもよい。
図2に戻り、ステップS13において、向き検知装置120は、第1の領域画像I1−1,I2−1,I3−1と第2の領域画像I1−2,I2−2,I3−2とを切り出す(画像切り出し部123としての処理)。図6A、図6B、および図6Cは、それぞれ、乗員Pの顔向き角度が−45度、0度、および120度のときの、第1の領域画像I1−1,I2−1,I3−1と、第2の領域画像I1−2,I2−2,I3−2を示している。
ステップS14において、向き検知装置120は、顔向き角度を検知する(向き検知部125としての処理)。一例において、向き検知部125は、学習モデル記憶部124から取得した学習モデルを用いて、第1の領域画像I1−1,I2−1,I3−1における乗員Pの顔部位の位置関係と第2の領域画像I1−2,I2−2,I3−2における座席の露出部分の面積とから、乗員Pの顔向き角度を検知する。
図6Aから図6Cに示されるように、第1の領域画像I1−1,I2−1,I3−1においては、乗員Pの顔向き角度が大きくなるにしたがって、乗員Pの顔部位がより見えなくなっている。一方、第2の領域画像I1−2,I2−2,I3−2においては、乗員Pの顔向き角度が大きくなるにしたがって、座席の露出部分の面積が大きくなっている。
例えば、図6Aから図6Bに示されるように顔向き角度が変化したとする。この間、第1の領域画像I1−1,I2−1においては、例えば、両目間の距離は乗員の顔向き角度が変化するにしたがい、徐々に狭くなる。すなわち、第1の領域画像の特徴量と乗員Pの顔向き角度とが、強い相関関係にあると言える。一方、第2の領域画像I1−2,I2−2においては、乗員の顔向き角度が変化しても座席の露出部分の面積はほとんど変わらず、第2の領域画像の特徴量と乗員Pの顔向き角度とは、弱い相関関係にあると言える。
したがって、第1の領域画像の特徴量と乗員Pの顔向き角度との相関関係が学習モデルに十分に反映されている限り、向き検知装置120は、図6Aから図6Bに示されるように変化する顔向き角度を良好に検知することができる。
さらに、例えば、図6Bから図6Cに示されるように顔向き角度が変化したとする。この間、第2の領域画像I2−2,I3−2においては、例えば、座席の露出部分の面積は大きくなる。すなわち、第2の領域の特徴量と乗員Pの顔向き角度とが、強い相関関係にあると言える。一方、第1の領域画像I2−1,I3−1においては、乗員Pの顔部位が見えなくなる。例えば、乗員Pの顔部位が見えなくなり第1の領域画像に頭部として頭髪だけしか見えない場合、顔向き角度が変化しても第1の領域画像では特徴量に大きな差が生じない。すなわち、第1の領域画像の特徴量と乗員Pの顔向き角度とは、弱い相関関係にあると言える。
したがって、第2の領域画像の特徴量と乗員Pの顔向き角度との相関関係が学習モデルに十分に反映されている限り、向き検知装置120は、図6Bから図6Cに示されるように変化する顔向き角度を良好に検知することができる。
繰り返しとなるが、図6Aから図6Bに遷移する場合には第1の領域画像の特徴量と乗員Pの顔向き角度とが強い相関にあり、第2の領域画像の特徴量と乗員Pの顔向き角度とは弱い相関にある。また、図6Bから図6Cに遷移する場合には第1の領域画像の特徴量と乗員Pの顔向き角度とが弱い相関にあり、第2の領域画像の特徴量と乗員Pの顔向き角度とは強い相関にある。したがって、第1の領域画像の特徴量と第2の領域画像の特徴量はお互いに補完し合う関係(補完関係)にあると言える。
図7および図8を参照して後述するように、本開示に係る学習モデルには、乗員Pの顔部位の位置関係と乗員Pの顔向き角度との相関関係および座席の露出部分の面積と乗員Pの顔向き角度との相関関係のうちより強い相関関係が優先的に学習され、十分に反映される。すなわち、乗員Pの顔がよく見えている場合には、顔部位の位置関係と顔向き角度との相関関係が優先的に学習され、乗員Pの顔がよく見えていない場合には、座席の露出部分の面積と乗員Pの顔向き角度との相関関係が優先的に学習される。したがって、向き検知装置120は、乗員Pの向きに関わらず、同一の学習モデル、即ち同一の処理内容を用いて、顔向き角度を良好に検知することができる。
このように、本開示に係る向き検知装置120は、撮像装置110から取得した車室内画像から、乗員Pの身体の第1の部位の少なくとも一部を含む第1の領域画像I1−1,I2−1,I3−1と、第1の部位の周辺にある車室内領域または、乗員Pの身体の第2の部位の少なくとも一部を含む第2の領域画像I1−2,I2−1,I3−2とを切り出す画像切り出し部123と、前記第1の領域画像I1−1,I2−1,I3−1および前記第2の領域画像I1−2,I2−1,I3−2の特徴量に基づき、乗員Pの身体の第1の部位の向きを検知する向き検知部125と、を備える構成を採る。
本開示に係る向き検知装置120によれば、振り返り動作を行う乗員Pの体の部位の向きを精度良く検知することができる。
さらに、本開示に係る向き検知装置120によれば、部位の動きを表す角速度を算出する必要がなく、部位の向きを安定して算出することができる。
(向き学習システム200の構成および動作)
図7は、本開示に係る向き学習システム200の構成図である。向き学習システム200は、車室内画像データ提供装置(第1のデータ提供装置)210、向きデータ提供装置(第2のデータ提供装置)220、向き学習装置(学習装置)230、および学習モデル記憶装置240を備える。
車室内画像データ提供装置210は、学習モデル生成部232の学習に用いられる車室内画像を、車室内画像データとして向き学習装置230に提供する。一例において、車室内画像データ提供装置210は、車室内画像データを予め格納する格納部(図示せず)を備える。次いで、向き学習装置230の動作時に、車室内画像データ提供装置210は、格納部から取得した車室内画像データを、向き学習装置230に提供する。
向きデータ提供装置220は、学習モデル生成部232の学習に用いられる第2の部位の向きを、向きデータとして向き学習装置230に提供する。一例において、向きデータ提供装置220は、向きデータを予め格納する格納部(図示せず)を備える。次いで、向き学習装置230の動作時に、向きデータ提供装置220は、格納部から取得した向きデータを、向き学習装置230に提供する。
向きデータが示す第2の部位の向きは、車室内画像データが示す車室内画像に含まれる乗員の身体の第2の部位の実際の向きに対応する。例えば、図3A、図3B、および図3Cで示される車室内画像I1,I2,I3が学習に用いられる場合、向きデータが示す顔向き角度−45度、0度、120度は、それぞれ、車室内画像データが示す車室内画像I1,I2,I3に対応する。なお、図1に示される向き検知装置120が取得する車室内画像と向き学習装置230が取得する車室内画像とは、一般には異なる乗員を含む異なる車室内画像である。しかしながら、本明細書においては、向き検知装置120の説明に用いられた車室内画像I1,I2,I3を流用して、向き学習装置230を説明する。
一例において、学習に用いられる車室内画像データおよび向きデータは、向き学習装置230の動作前に準備される。
一例において、乗員は、ジャイロセンサ等の方向センサを、乗員の身体の第2の部位に装着する。次いで、撮像装置(図示せず)が当該乗員を含む車室内画像を撮像するのと同時に、方向センサが第2の部位の向きを測定する。次いで、取得された車室内画像を示す車室内画像データが作成され、車室内画像データ提供装置210の格納部に格納される。次いで、取得された第2の部位の向きを示す向きデータが作成され、向きデータ提供装置220の格納部に格納される。
他の一例において、第2の部位の向きを既知の向きに向けた乗員を含む車室内画像を、撮像装置(図示せず)が撮像する。次いで、取得された車室内画像を示す車室内画像データが作成され、それぞれ、車室内画像データ提供装置210の格納部に格納される。次いで、既知の向きを示す向きデータが作成され、向きデータ提供装置220の格納部に格納される。
向き学習装置230は、車室内画像データ提供装置210から提供される車室内画像と、向きデータ提供装置220から提供される第2の部位の向きとの相関関係を学習する。第2の部位は、例えば、顔である。向き学習装置230は、画像取得部121、切り出し位置決定部122、画像切り出し部123、向き取得部231、および学習モデル生成部232を備える。
画像取得部121は、車室内画像の取得元が異なる点を除いて、図1に示される向き検知装置120が備えるものと同様であるので、説明を省略する。また、切り出し位置決定部122および画像切り出し部123は、図1に示される向き検知装置120が備えるものと同様であるので、説明を省略する。
向き取得部231は、向きデータ提供装置220から第2の部位の向きを示すデータを取得し、学習モデル生成部232に第2の部位の向きを出力する。
学習モデル生成部232は、向き取得部231から出力された第2の部位の向きと、画像切り出し部123から取得した前記第1の領域画像および前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する。一例において、学習モデルの生成手法は、CNN(Convolutional Neural Network)である。
学習モデル記憶装置240は、学習モデル生成部232が生成した学習モデルを記憶する。一例において、学習モデル記憶装置240が記憶する学習モデルの複製を、図1に示される学習モデル記憶部124が記憶する。学習モデルは事前に生成され、車両出荷時に向き検知装置の学習モデル記憶部に記憶される。
図8は、本開示に係る向き学習装置230の動作フローを示すフローチャートである。この処理は、向き学習装置230のCPUがROMに格納されているプログラムを読み出して実行することにより実現される。なお、以下の説明においては、第1の部位として、顔または頭部を、車室内領域として座席を、例にとって説明する。
ステップS21において、向き学習装置230は、車室内画像データ提供装置210から車室内画像を取得する(画像取得部121としての処理)。取得する車室内画像は、例えば、図3A、図3B、および図3Cにそれぞれ示される、車室内画像I1,I2,I3である。
ステップS22において、向き学習装置230は、第1の領域R1と第2の領域R2とを決定する(切り出し位置決定部122としての処理)。ステップS23において、向き検知装置120は、第1の領域画像I1−1,I2−1,I3−1と第2の領域画像I1−2,I2−2,I3−2とを切り出す(画像切り出し部123としての処理)。ステップS22およびステップS23の処理内容は、図2に示されるステップS12およびステップS13の処理内容と同様であるので、説明を省略する。特に、第1の領域および第2の領域は、それぞれ、向き検知装置120と向き学習装置230とで同様に決定される。
ステップS24において、向き学習装置230は、車室内画像に対応する顔向き角度を向きデータ提供装置220から取得する(向き取得部121としての処理)。取得する顔向き角度は、例えば、車室内画像I1,I2,I3における乗員Pの顔向き角度である、−45度、0度、120度である。
ステップS25において、向き学習装置230は、第1の領域画像I1−1,I2−1,I3−1および第2の領域画像I1−2,I2−2,I3−2の特徴量と顔向き角度との相関関係を学習モデルに学習させる(学習モデル生成部232としての処理)。
例えば、図6Aから図6Bに示されるように顔向き角度が遷移したとする。この間、第1の領域画像I1−1,I2−1においては、乗員Pの顔部位が見えるので、乗員Pの顔部位の位置関係と乗員Pの顔向き角度とが、強い相関関係にある。一方、第2の領域画像I1−2,I2−2において、座席の露出部分の面積は大きく変化しない。したがって、生成された学習モデルにおいては、特徴量の1つである乗員Pの顔部位の位置関係と乗員Pの顔向き角度との相関関係が、優先的に学習され、十分に反映される。
さらに、例えば、図6Bから図6Cに示されるように顔向き角度が遷移したとする。この間、第2の領域画像I2−2から第2の領域画像I3−2にかけて、座席の露出部分の面積が大きくなっているので、座席の露出部分の面積と乗員Pの顔向き角度とが、強い相関関係にある。一方、図6Cに示される第1の領域画像I3−1においては、乗員Pの顔部位が全く見えていない。したがって、生成された学習モデルにおいては、特徴量の1つである座席の露出部分の面積と乗員Pの顔向き角度との相関関係が、優先的に学習され、十分に反映される。
図8に示されるフローチャートに従うと、図1に示される向き検知装置120の向き検知部125が顔向き検知に用いる学習モデルが生成される。
このように、本開示に係る向き学習装置230は、第1のデータ提供装置(車室内画像データ提供装置210)から取得した車室内画像から、乗員Pの身体の第1の部位の少なくとも一部を含む第1の領域画像I1−1,I2−1,I3−1と、前記第1の部位の周辺にある車室内領域または乗員の身体の第2の部位の少なくとも一部を含む第2の領域画像像I1−2,I2−2,I3−2とを切り出す画像切り出し部123と、第2のデータ提供装置(向きデータ提供装置220)から取得した第2の部位の向きと、第1の領域画像I1−1,I2−1,I3−1および第2の領域画像I1−2,I1−2,I1−3の特徴量との相関関係を学習させた学習モデルを生成する学習モデル生成部232と、を備える構成を採る。
本開示に係る向き学習装置230によれば、本開示に係る向き検知装置120が振り返り動作を行う乗員Pの体の部位の向きを精度良く検知することができる。
さらに、本開示に係る向き学習装置230によれば、乗員Pの体の部位が車室内画像に含まれない場合であっても、向き検知装置120が部位の向きを精度良く検知することができる。
さらに、本開示に係る向き学習装置230によれば、向き検知装置120が、部位の動きを表す角速度を算出する必要がなく、部位の向きを安定して算出することができる。
(向き学習システム200の変形例)
上述された向き学習システム200においては、車室内画像データ提供装置210および向きデータ提供装置220が別体の構成要素である。これに代えて、車室内画像データ提供装置210および向きデータ提供装置220を一体の構成要素とする実施の形態も考えられる。この場合、第1のデータ提供装置および第2のデータ提供装置は、同一のデータ提供装置である。
上述された向き学習システム200においては、車室内画像データ提供装置210および向きデータ提供装置220は、それぞれ格納部が格納する車室内画像データおよび向きデータを提供する。これに代えて、車室内画像データ提供装置210は、図1に示される撮像装置110を流用し、向きデータ提供装置220は、乗員の身体の第1の部位に装着した方向センサとする実施の形態も考えられる。
図9は、コンピュータのハードウェア構成の一例を示す図である。上述した各実施の形態および各変形例における各部の機能は、コンピュータ2100が実行するプログラムにより実現される。
図9に示すように、コンピュータ2100は、入力ボタン、タッチパッド等の入力装置2101、ディスプレイ、スピーカ等の出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105を備える。また、コンピュータ2100は、ハードディスク装置、SSD(Solid State Drive)等の記憶装置2106、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリ等の記録媒体から情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備える。上述した各部は、バス2109により接続される。
そして、読取装置2107は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置2106に記憶させる。
そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM2105または記憶装置2106には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。
本開示に係る検知装置、学習装置、検知方法、学習方法およびプログラムは、車両に適用されるのに好適である。
100 向き検知システム
110 撮像装置
120 向き検知装置
121 画像取得部
122 切り出し位置決定部
123 画像切り出し部
124 学習モデル記憶部
125 向き検知部
130 向き出力装置
200 向き学習システム
210 車室内画像データ提供装置
220 向きデータ提供装置
230 向き学習装置
231 向き取得部
232 学習モデル生成部
240 学習モデル記憶装置

Claims (12)

  1. 撮像装置から取得した車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、
    前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する検知部と、
    を備え、
    前記第1の部位は、顔または頭部であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である検知装置。
  2. 第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、
    第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する学習モデル生成部と、
    を備え、
    前記第1の部位は、顔または頭部であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である学習装置。
  3. 検知装置に実行させる検知方法であって、
    撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、
    前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知するステップと、
    を備え、
    前記第1の部位は、顔または頭部であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である検知方法。
  4. 学習装置に実行させる学習方法であって、
    第1のデータ提供装置から取得した車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、
    第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成するステップと、
    を備え、
    前記第1の部位は、顔または頭部であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である、学習方法。
  5. 検知装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、
    撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、
    前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する処理と、
    を実行させ、
    前記第1の部位は、顔または頭部であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である、プログラム。
  6. 学習装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、
    第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記第1の部位の周辺にある車室内領域の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、
    第2のデータ提供装置から取得した前記乗員の前記身体の、前記第1の部位を含まない第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する処理と、
    を実行させ、
    前記第1の部位は、顔または頭部であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記車室内領域は、座席、ヘッドレスト、車窓、およびピラーの少なくとも1つであり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記車室内領域の露出部分の面積である、プログラム。
  7. 撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、
    前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の前記身体の前記第1の部位の向きを検知する検知部と、
    を備え、
    前記第1の部位は、顔または頭部であり、
    前記第2の部位は、肩、胸、または上半身であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、検知装置。
  8. 第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す画像切り出し部と、
    第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する学習モデル生成部と、
    を備え、
    前記第1の部位は、顔または頭部であり、
    前記第2の部位は、肩、胸、または上半身であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、学習装置。
  9. 検知装置に実行させる検知方法であって、
    撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、
    前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知するステップと、
    を備え、
    前記第1の部位は、顔または頭部であり、
    前記第2の部位は、肩、胸、または上半身であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、検知方法。
  10. 学習装置に実行させる学習方法であって、
    第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出すステップと、
    第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成するステップと、
    を備え、
    前記第1の部位は、顔または頭部であり、
    前記第2の部位は、肩、胸、または上半身であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、学習方法。
  11. 検知装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、
    撮像装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、
    前記第1の領域画像の特徴量と前記第2の領域画像の特徴量とに基づき、前記乗員の身体の第1の部位の向きを検知する処理と、
    を実行させ、
    前記第1の部位は、顔または頭部であり、
    前記第2の部位は、肩、胸、または上半身であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、プログラム。
  12. 学習装置が備えるコンピュータによって実行されるプログラムであって、前記コンピュータに、
    第1のデータ提供装置から取得した1つの車室内画像から、乗員の身体の第1の部位の少なくとも一部が映りこんだ第1の領域画像と、前記乗員の前記身体の、前記第1の部位を含まない第2の部位の少なくとも一部が映りこんだ第2の領域画像とを切り出す処理と、
    第2のデータ提供装置から取得した前記第2の部位の向きと、前記第1の領域画像の特徴量との相関関係、および、第2のデータ提供装置から取得した前記第2の部位の向きと、前記第2の領域画像の特徴量との相関関係を学習させた学習モデルを生成する処理と、
    を実行させ、
    前記第1の部位は、顔または頭部であり、
    前記第2の部位は、肩、胸、または上半身であり、
    前記第1の領域画像の前記特徴量は、前記第1の領域画像に含まれる前記乗員の顔部位の位置関係であり、
    前記第1の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さと、前記第2の領域画像の前記特徴量と前記第1の部位の向きとの相関の強さとは、互いに補完関係にあり、前記第2の領域画像の前記特徴量は、前記第2の領域画像における前記第2の部位の面積である、プログラム。
JP2017070739A 2017-03-31 2017-03-31 検知装置、学習装置、検知方法、学習方法、およびプログラム Active JP6982767B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017070739A JP6982767B2 (ja) 2017-03-31 2017-03-31 検知装置、学習装置、検知方法、学習方法、およびプログラム
US15/911,241 US10706301B2 (en) 2017-03-31 2018-03-05 Detection device, learning device, detection method, learning method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017070739A JP6982767B2 (ja) 2017-03-31 2017-03-31 検知装置、学習装置、検知方法、学習方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2018173757A JP2018173757A (ja) 2018-11-08
JP6982767B2 true JP6982767B2 (ja) 2021-12-17

Family

ID=63670710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017070739A Active JP6982767B2 (ja) 2017-03-31 2017-03-31 検知装置、学習装置、検知方法、学習方法、およびプログラム

Country Status (2)

Country Link
US (1) US10706301B2 (ja)
JP (1) JP6982767B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7297633B2 (ja) * 2019-10-07 2023-06-26 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
CN112115790A (zh) * 2020-08-18 2020-12-22 北京嘀嘀无限科技发展有限公司 人脸识别方法、装置、可读存储介质和电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3943367B2 (ja) * 2001-10-31 2007-07-11 株式会社デンソー 車両用乗員頭部検出装置
WO2004004320A1 (en) * 2002-07-01 2004-01-08 The Regents Of The University Of California Digital processing of video images
JP4858516B2 (ja) * 2008-09-11 2012-01-18 トヨタ自動車株式会社 顔向き検出装置
JP2013149205A (ja) * 2012-01-23 2013-08-01 Nikon Corp 電子機器
JP6350145B2 (ja) 2014-09-09 2018-07-04 株式会社デンソーアイティーラボラトリ 顔向き検出装置及び車両用警告システム
CN107428302B (zh) * 2015-04-10 2022-05-03 罗伯特·博世有限公司 利用车辆内部相机的占用者尺寸和姿势的检测
DE102015214116A1 (de) * 2015-07-27 2017-02-02 Robert Bosch Gmbh Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen
EP3481661A4 (en) * 2016-07-05 2020-03-11 Nauto, Inc. AUTOMATIC DRIVER IDENTIFICATION SYSTEM AND METHOD
US10318831B2 (en) * 2016-07-21 2019-06-11 Gestigon Gmbh Method and system for monitoring the status of the driver of a vehicle
US10246014B2 (en) * 2016-11-07 2019-04-02 Nauto, Inc. System and method for driver distraction determination
US10467488B2 (en) * 2016-11-21 2019-11-05 TeleLingo Method to analyze attention margin and to prevent inattentive and unsafe driving

Also Published As

Publication number Publication date
US20180285667A1 (en) 2018-10-04
US10706301B2 (en) 2020-07-07
JP2018173757A (ja) 2018-11-08

Similar Documents

Publication Publication Date Title
JP6695503B2 (ja) 車両の運転者の状態を監視するための方法及びシステム
US9822576B2 (en) Method for operating an activatable locking device for a door and/or a window, securing device for a vehicle, vehicle
JP6573193B2 (ja) 判定装置、判定方法、および判定プログラム
JP7118136B2 (ja) 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法
JP6584717B2 (ja) 顔向き推定装置および顔向き推定方法
JP6982767B2 (ja) 検知装置、学習装置、検知方法、学習方法、およびプログラム
JP6814977B2 (ja) 画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラム
EP3857442A1 (en) Driver attention state estimation
JP2016115120A (ja) 開閉眼判定装置および開閉眼判定方法
JP2018151930A (ja) 運転者状態推定装置、及び運転者状態推定方法
JP7134364B2 (ja) 体格判定装置および体格判定方法
WO2018168038A1 (ja) 運転者の着座判定装置
US11161470B2 (en) Occupant observation device
JP7267467B2 (ja) 注意方向判定装置および注意方向判定方法
JP2016115118A (ja) 下方視判定装置および下方視判定方法
JP6432702B1 (ja) 算出システム、指標算出方法、およびコンピュータプログラム
KR101976498B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
US11915495B2 (en) Information processing apparatus, and recording medium
KR102486161B1 (ko) 차량, 차량의 제어 방법 및 영상 탐색 장치
JP6770488B2 (ja) 注視対象物推定装置、注視対象物推定方法、およびプログラム
JP7374373B2 (ja) 体格判定装置および体格判定方法
US11077814B2 (en) Occupant eye(s) observation device
WO2023242888A1 (ja) 車室内モニタリング装置、車室内モニタリングシステム、および、車室内モニタリング方法
US11501561B2 (en) Occupant monitoring device, occupant monitoring method, and occupant monitoring program
JP7348005B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210928

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210928

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211006

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R151 Written notification of patent or utility model registration

Ref document number: 6982767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151