JP2019148865A - 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体 - Google Patents

識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体 Download PDF

Info

Publication number
JP2019148865A
JP2019148865A JP2018031789A JP2018031789A JP2019148865A JP 2019148865 A JP2019148865 A JP 2019148865A JP 2018031789 A JP2018031789 A JP 2018031789A JP 2018031789 A JP2018031789 A JP 2018031789A JP 2019148865 A JP2019148865 A JP 2019148865A
Authority
JP
Japan
Prior art keywords
feature point
distance
identification
occupant
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018031789A
Other languages
English (en)
Inventor
岩井 浩
Hiroshi Iwai
岩井  浩
新 浩治
Koji Arata
浩治 新
柴田 修
Osamu Shibata
修 柴田
哲郎 奥山
Tetsuro Okuyama
哲郎 奥山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018031789A priority Critical patent/JP2019148865A/ja
Priority to US16/283,217 priority patent/US20190266425A1/en
Publication of JP2019148865A publication Critical patent/JP2019148865A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】移動体の乗員の姿勢を精度良く識別すること。【解決手段】移動体の乗員の姿勢を識別する識別装置100であって、撮像装置200によって得られた赤外画像または距離画像に基づいて前記乗員の特徴点を決定し、光飛行時間測距法により前記特徴点までの距離を導出する測距部120と、複数の前記特徴点までの距離に基づいて、前記乗員の姿勢を識別する識別部130と、を備える識別装置100。【選択図】図3

Description

本開示は、識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体に関する。
従来、カメラで撮像した撮像画像から移動体の乗員の手、肘および肩の特徴点の位置を検出し、予め作成された関節モデルと比較することで、乗員の姿勢を識別する技術が知られている(特許文献1)。
特開2010−211705号公報
しかしながら、特許文献1では、単眼カメラによる2次元画像に基づいて乗員の姿勢を識別しているため、識別精度の向上が求められる。
本開示の目的は、移動体の乗員の姿勢を精度良く識別することである。
本開示の一形態は、移動体の乗員の姿勢を識別する識別装置であって、撮像装置によって得られた赤外画像または距離画像に基づいて前記乗員の特徴点を決定し、光飛行時間測距法により前記特徴点までの距離を導出する測距部と、複数の前記特徴点までの距離に基づいて、前記乗員の姿勢を識別する識別部と、を備える識別装置である。
なお、本開示の一形態は、方法、プログラムおよびプログラムを記録した一時的でない有形の記録媒体のいずれかであってもよい。
本開示によれば、移動体の乗員の姿勢を精度良く識別することができる。
本開示の一実施形態に係る識別装置が搭載されたドライバーモニタリングシステムの構成を示すブロック図 出射光および戻り光の状態を示す模式図 測距処理および識別処理の第一実施例を示すフローチャート 測距処理の一例を示すフローチャート 光飛行時間測距法の概要を示す模式図 測距処理の他の一例を示すフローチャート 撮像装置で撮影された車内空間の距離画像を示す模式図 ドライバーに対して部位分割が施された状態を示す図 特徴点が付与された状態を示す図 特徴点までの距離の導出について説明する模式図 特徴点までの距離の導出について説明する模式図 特徴点までの距離の導出について説明する模式図 特徴点の3次元座標を示す模式図 基本姿勢における特徴点の3次元座標を示す模式図 測距処理および識別処理の第一実施例を示すフローチャート 撮像装置で撮影された車内空間の距離画像を示す模式図 画像の切り出しが行われた状態を示す図 特徴点が付与された状態を示す図
以下、本開示の一実施形態に係る識別装置100が搭載されたドライバーモニタリングシステム(以下、「DMS」)1について、図面を参照して詳細に説明する。なお、以下に説明する実施形態は一例であり、本開示はこの実施形態により限定されるものではない。
DMS1は例えば車両に搭載される。以下、DMS1は、車両のドライバーを監視するものとして説明を続けるが、ドライバー以外(例えば、助手席や後席等に着座している乗員)を監視してもよい。
DMS1は、図1に示すように、光源210および画像センサ220を一体化した撮像装置200と、識別装置100とを備える。
撮像装置200は、車室内の画像を取得する1台の小型カメラであり、車室の天井部分に車室内を撮影可能に、特に、車室内のドライバーの体の前面を撮影可能に取り付けられている。
光源210は、撮像範囲に向けて、パルスや正弦波等の周期をもった不可視光(例えば、赤外光や近赤外光)を出射可能に取り付けられている。
画像センサ220は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサであって、光源210と概ね同じ場所に取り付けられる。
識別装置100は、例えばECU(Electronic Control Unit)であって、車室内のドライバーの姿勢や動作を識別するために、制御基板上に実装された入力端子、出力端子、プロセッサ、プログラムメモリおよびメインメモリを含む。
プロセッサは、プログラムメモリに格納されたプログラムを、メインメモリを用いて実行して、入力端子を介して受け取った各種信号を処理するとともに、出力端子を介して光源210および画像センサ220に各種制御信号を出力する。
識別装置100は、プロセッサがプログラムを実行することで、図1に示すように、撮像制御部110、測距部120、識別部130、記憶部140等として機能する。
撮像制御部110は、光源210からの出射光の諸条件(具体的には、パルス幅、パルス振幅、パルス間隔、パルス数等)を制御すべく、光源210に対して制御信号を出力する。
また、撮像制御部110は、画像センサ220における戻り光の受光の諸条件(具体的には、露光時間、露光タイミング、露光回数等)を制御すべく、画像センサ220に含まれる周辺回路に対して制御信号を出力する。
上記露光制御等により、画像センサ220は、所定周期(所定フレームレート)で、撮像範囲に関する赤外画像信号および距離画像信号を識別装置100に出力することになる。なお、画像センサ220から可視画像信号を出力するようにしてもよい。
また、本実施形態では、画像センサ220は、隣接する複数の画素の情報を加算して画像情報を生成する、いわゆる格子変換を行う。ただし、本開示において、隣接する複数の画素の情報を加算して画像情報を生成することは必須ではない。
測距部120は、画像センサ220から出力された画像から、ドライバーの特徴点を推定し、TOF方式により、特徴点までの距離を導出する。なお、図2は、ターゲットTまでの距離dtを導出する際の出射光および戻り光の状態を示す模式図である。
識別部130は、測距部120で導出された特徴点までの距離に基づいて、特徴点の座標を算出し、算出された特徴点の座標に基づいて、ドライバーの姿勢を識別する。なお、特徴点の座標の算出は、測距部120で行うようにしてもよい。
記憶部140は、測距処理や識別処理で用いられる各種情報を記憶する。
DMS1からは、ドライバーの姿勢や動作に関する情報が出力される。このような情報は、例えばADAS(Advanced Driver Assistance System) ECUに送信される。ADAS ECUは、これらの情報を用いて、車両の自動運転の実行や自動運転の解除を行う。
(第一実施例)
識別装置100の測距部120および識別部130において行われる測距処理および識別処理の第一実施例について、図3のフローチャートを参照して詳細に説明する。
ステップS1で、測距部120は、画像センサ220から受け取った赤外画像または距離画像を用いて、ドライバーに対応する領域を抽出し、クラスタ化する。ドライバーに対応する領域の抽出は、例えば、撮像部からの距離が略一定の領域を抽出することで行うことができる。
続くステップS2で、測距部120は、ステップS1でクラスタ化した画像を用いて、ドライバーの各部位(頭部、胴体部、腕部、下半身部)の部位検知を行い、各部位ごとに、予め設定されたルールにしたがって、骨格位置等の特徴点を推定する。なお、本ステップでは、部位検知を行うことなく、特徴点を推定することも可能である。
続くステップS3で、測距部120は、TOF方式により、各特徴点までの距離を導出する。ステップS3で行われる、特徴点までの距離の導出処理(測距処理)の一例について、図4のフローチャートを参照して詳細に説明する。
まず、ステップS11で、測距部120は、特徴点に対応する画素における物標までの距離を、TOF方式で導出する。
ここで、TOF方式による測距の一例について説明する。光源210からの出射光は、図5に示すように、単位周期において、第一パルスPaと、第二パルスPbとを少なくとも一組含む。これらのパルス間隔(すなわち、第一パルスPaの立ち下がりエッジから第二パルスPbの立ち上がりエッジまでの時間)は、Gaである。また、これらのパルス振幅は互いに等しくSaとし、これらのパルス幅は互いに等しくWaとする。
画像センサ220は、撮像制御部110により、第一パルスPaおよび第二パルスPbの出射タイミングに基づくタイミングで露光するように制御される。具体的には、画像センサ220は、図5に例示するように、光源210からの出射光が撮像範囲の物標Tで反射されて戻ってきた不可視光に対して、第一露光、第二露光および第三露光を行う。
第一露光は、第一パルスPaの立ち上がりと同時に始まり、光源210からの出射光との関係で予め設定される露光時間Tx後に終了する。このような第一露光は、第一パルスPaに対する戻り光成分を受光することを目的としている。
第一露光による画像センサ220の出力Oaは、斜格子状のハッチングを付した戻り光成分Sと、ドットのハッチングを付した背景成分BGとを含む。戻り光成分Sの振幅は、第一パルスPaの振幅よりも小さい。
ここで、第一パルスPaおよびその戻り光成分Sの各立ち上がりエッジの時間差をΔtとする。Δtは、撮像装置200から物標Tまでの距離dtを、不可視光が往復するのに要する時間である。
第二露光は、第二パルスPbの立ち下がりと同時に始まり、露光時間Tx後に終了する。このような第二露光は、第二パルスPbに対する戻り光成分を受光することを目的としている。
第二露光による画像センサ220の出力Obは、全ての戻り光成分ではなく部分的な戻り光成分S(斜格子状のハッチング部分を参照)と、ドットのハッチングを付した背景成分BGとを含む。
なお、上記成分Sは、次の式(1)で表せる。
=S×(Δt/Wa) …(1)
第三露光は、第一パルスPaおよび第二パルスPbの戻り光成分を含まないタイミングで始まり、露光時間Tx後に終了する。このような第三露光は、戻り光成分と無関係な不可視光成分である背景成分BGのみを受光することを目的としている。
第三露光による画像センサ220の出力Ocは、ドットのハッチングを付した背景成分BGのみを含む。
上記のような出射光と戻り光との関係から、撮像装置200から路面までの距離dtは、次の式(2)〜(4)により導出することができる。
=Oa−BG …(2)
=Ob−BG …(3)
dt=c×(Δt/2)={(c×Wa)/2}×(Δt/Wa)={(c×Wa)/2}×(S/S) …(4)
ここで、cは光速である。
図4の説明に戻って、ステップS11に続くステップS12で、測距部120は、特徴点に対応する画素の周辺に位置し、かつ、クラスタ化された領域に含まれる画素における物標までの距離を、TOF方式で導出する。なお、本実施形態で説明したTOF方式はあくまでも一例であり、直接時間領域で計測する直接TOF方式や、位相差等の物理量の変化とそれを時間的変化に換算するための時間基準を用いて計測する間接TOF方式のいずれを用いても距離情報を導出することが可能であることは言うまでもない。
ステップS12に続くステップS13で、測距部120は、ステップS11で導出した距離と、ステップS12で導出した距離とを加算平均して、特徴点までの距離として出力する。
このように、特徴点までの距離を導出する際に、特徴点に対応する画素および特徴点に対応する画素の周辺に位置する画素の情報を用いることで、特徴点までの測距精度を向上させることができる。
また、特徴点に対応する画素の周辺に位置する画素のうち、クラスタ化された領域に含まれる画素の情報のみを加算平均に用いることで、特徴点の周囲であっても人体の部位ではない領域の情報を排除することができ、特徴点までの測距精度を向上させることができる。例えば、特徴点におけるSに対して所定の範囲を超える部分的な戻り光成分は、シートや内装等、クラスタ化された領域に含まれない物標からの戻り光として排除することで、特徴点までの測距精度を向上することが期待できる。また、特徴点の2次元座標(X、Y)の過去のフレームに対する変化量が小さい場合には、過去のフレームにおける特徴点のSに対して所定の範囲を超える部分を排除することで同様の効果が期待できることはもちろんのことである。なお、所定の範囲は、好ましくは特徴点におけるSの標準偏差を設定することが望ましいが、物標までの距離や物標の反射率によって変化させてもよく、予め記憶部140に記憶しておき、物標までの距離や反射率に応じて最適な所定の範囲とすることで、特徴点までの測距精度を向上することが期待できる。
ステップS3において行われる測距処理の他の一例について、図6のフローチャートを参照して詳細に説明する。上述の例では、特徴点に対応する画素における物標までの距離および特徴点に対応する画素の周辺に位置する画素における物標までの距離を導出した後に加算平均して、特徴点までの距離を導出した。これに対して、以下に説明する例では、特徴点に対応する画素および特徴点に対応する画素の周辺の画素における戻り光成分を積算し、積算した戻り光成分を用いて、特徴点までの距離を導出する。
ステップS21で、測距部120は、距離画像信号を用いて、特徴点に対応する画素および特徴点に対応する画素の周辺に位置する画素における戻り光成分SおよびSを上述の式(2)および(3)を用いて算出する。この際、クラスタ化された領域に含まれる画素の情報のみを採用する点は、上述の例と同様である。
続くステップS22で、測距部120は、特徴点に対応する画素および特徴点に対応する画素の周辺に位置する画素における戻り光成分SおよびSを積算して、戻り光成分の積算値ΣSおよびΣSを得る。
続くステップS23で、測距部120は、次式(5)を用いて、特徴点までの距離dtを導出する。
dt={c×Wa}/2}×(ΣS/ΣS) …(5)
図3の説明に戻って、ステップS3に続くステップS4で、識別部130は、ステップS3で導出した各特徴点までの距離を用いて、各特徴点の3次元座標を算出する。なお、上述したとおり、ステップS4の処理は、測距部120が行うようにしてもよい。
ステップS4に続くステップS5で、識別部130は、各特徴点の3次元座標により、ドライバーの姿勢や動作を識別する。例えば、両手でステアリングホイールを把持する姿勢を予め基本姿勢として設定しておき、当該基本姿勢からの変化に基づいて、ドライバーの姿勢を識別するようにしてもよい。基本姿勢については、例えば、両手でステアリングホイールを把持する姿勢を検知した場合に、その姿勢を基本姿勢として設定するようにしてもよい。
また、例えば、前回の姿勢からの変化に基づいて、ドライバーの姿勢や動作を識別するようにしてもよい。さらに、例えば、予めドライバーが様々な動作を行った場合の特徴点の座標を記憶部140に記憶しておき、記憶されている座標と、算出された座標とを比較することで、ドライバーの姿勢や動作を識別するようにしてもよい。
次に、第一実施例による移動体の乗員の姿勢識別の具体例について、図7Aないし図7Hを参照して説明する。
図7Aには、撮像装置で撮影された車内空間の距離画像が模式的に示されている。距離画像では、運転席に着座しているドライバー300に対応する領域(ハッチングを付していない領域)は「撮像部からの距離が略一定の領域」となる。そこで、測距部120は、このような撮像部からの距離が略一定の領域を抽出して、クラスタ化する。本例では、図7Aに示す距離画像におけるドライバー300に対応する領域がクラスタ化される。
ドライバー300に対応する領域をクラスタ化した後、測距部120は、クラスタ化された領域を頭部301、胴体部302、右腕部303、左腕部304および下半身部305の各部位に分割する(部位分割)。
図7Bには、ドライバー300に対して部位分割が施されたものが示されている。このような部位分割は、例えば、予め記憶部140に記憶されている人体モデルとクラスタ化された領域とを比較することで行うことができる。
クラスタ化された領域を各部位に分割した後、測距部120は、頭部301、胴体部302、右腕部303、左腕部304および下半身部305の各部位に対して、予め定められたルールにしたがって特徴点を付与する(特徴点付与)。このような特徴点は、骨格位置等に対して付与されてもよい。
図7Cには、特徴点が付与されたものが示されている。図7Cに示す例では、頭部301に特徴点301aが付与されている。また、右腕部303の右肩に相当する部位に特徴点303aが付与され、右肘に相当する部位に特徴点303bが付与され、右手首に相当する部位に特徴点303cが付与されている。また、左腕部304の左肩に相当する部位に特徴点304aが付与され、左肘に相当する部位に特徴点304bが付与され、左手首に相当する部位に特徴点304cが付与されている。
また、胴体部302には、特徴点302aおよび302bが付与されている。本例では、特徴点302aは、右肩に相当する部位に付与された特徴点303aと、左肩に相当する部位に付与された特徴点304aとを結んだ直線の中点である。
特徴点302bは、特徴点302aから特徴点301aとは反対の方向に所定距離だけ離れた部分に付与されている。なお、特徴点をどのように付与するかについては、上述の例には限定されない。なお、特徴点は、関節などの動きを考慮して骨格を基準にして決めた関節部付近の骨格特徴点だけでなく、着衣の表面など、骨格を基準にしていない特徴点であってもよいことは当然のことである。
続いて、測距部120は、各特徴点までの距離を導出する。本例では、頭部301の特徴点301aまでの距離と、左腕部304の特徴点304aまでの距離の導出について詳細に説明し、他の特徴点までの距離の導出については詳細な説明を省略する。
図7Dを参照して、特徴点301aまでの距離の導出について説明する。測距部120は、頭部301の特徴点301aに対応する画素G1から所定範囲内に存在する画素群G2を決定する。
画素群G2は、すべて頭部301の領域内に存在する。そこで、測距部120は、画素G1における物標までの距離と、画素群G2に含まれる各画素における物標までの距離を導出し、それらを加算平均することで、特徴点301aまでの距離を導出する。
次に、図7Eおよび図7Fを参照して、特徴点304aまでの距離の導出について説明する。測距部120は、左腕部304の特徴点304aに対応する画素G3から所定範囲内に存在する画素群G4を決定する(図7E)。
画素群G4には、左腕部304の領域内に存在する画素に加え、左腕部304の領域外の画素が含まれる。そこで、測距部120は、画素群G4から、ドライバー300に対応する領域に存在する画素のみを抽出し、画素群G5とする(図7F)。
そして、画素G3における物標までの距離と、画素群G5に含まれる各画素における物標までの距離を導出し、それらを加算平均することで、特徴点304aまでの距離を導出する。なお、物標の反射率が高い場合や、特徴点までの距離が近い場合など、戻り光の強度が高く、十分な距離精度が得られる場合には、特徴点に対応する画素の周辺における画素の加算処理をしなくてもよいことはもちろんのことである。
続いて、識別部130は、測距部120によって導出された各特徴点までの距離に基づいて、各特徴点の3次元座標を算出する(図7G)。
図7Gに示す例では、特徴点301aの3次元座標は(X1,Y1,Z1)である。また、特徴点302aの3次元座標は(X2,Y2,Z2)である。また、特徴点302bの3次元座標は(X3,Y3,Z3)である。
また、特徴点303aの3次元座標は(X4,Y4,Z4)である。また、特徴点303bの3次元座標は(X5,Y5,Z5)である。また、特徴点303cの3次元座標は(X6,Y6,Z6)である。
また、特徴点304aの3次元座標は(X7,Y7,Z7)である。また、特徴点304bの3次元座標は(X8,Y8,Z8)である。また、特徴点304cの3次元座標は(X9,X9,Z9)である。
一方、記憶部140には、両手でステアリングホイールを把持した姿勢(図7H参照)についての各特徴点の3次元座標((X1b,Y1b,Z1b)、(X2b,Y2b,Z2b)・・・(X9b,Y9b,Z9b))が記憶されている。
識別部130は、算出された各特徴点の3次元座標と、記憶部140に記憶されている基本姿勢における各特徴点の3次元座標とを比較することで、ドライバーの姿勢や動作を識別する。
図7Gに示す例では、特徴点304cの3次元座標(X9,Y9,Z9)が、基本姿勢における特徴点304cの3次元座標(Xb9,Yb9,Zb9)と大きく異なっている。そのため、識別部130は、ドライバーが左腕をステアリングホイールから離してオーディオ機器を操作していると識別する。
以上説明したように、本実施形態によれば、撮像装置によって撮影された車内空間におけるドライバーの特徴点までの距離をTOF方式で導出する。そして、導出された特徴点までの距離に基づいて、ドライバーの姿勢を識別する。
これにより、ドライバーの姿勢を精度良く識別することができる。
また、本実施形態によれば、特徴点およびその周辺の各画素における情報を用いて、特徴点までの距離を導出しているため、測距精度が向上する。そのため、ドライバーの姿勢を精度良く推定することができる。
さらに、本実施形態によれば、特徴点およびその周辺かつクラスタ化された領域に含まれる各画素における情報を用いて、特徴点までの距離を導出しているため、測距精度が向上する。そのため、ドライバーの姿勢を精度良く推定することができる。
(第二実施例)
上述の第一実施例では、赤外画像または距離画像から、ドライバーに対応する領域を抽出して、予め定められたルールにしたがって特徴点を付与した。
これに対して、以下に示す第二実施例では、予め、特徴点が付与されたドライバーの画像を用いて特徴点に関する機械学習を行っておき、この学習結果を用いて特徴点が付与される。
識別装置100の測距部120および識別部130において行われる測距処理および識別処理の第二実施例について、図8のフローチャートを参照して詳細に説明する。
ステップS31で、測距部120は、画像センサ220から受け取った赤外画像または距離画像から、ドライバーを含む所定の領域を切り出す。
続くステップS32で、測距部120は、ステップS31で切り出した画像のリサイズ(縮小)を行う。
続くステップS33で、測距部120は、ステップS32でリサイズされた画像と、機械学習によって得られた学習結果とを比較し、リサイズされた画像に対して特徴点を付与する。なお、この時点で、特徴点に関する信頼度(詳細については後述する)も付与される。
なお、機械学習に用いられるドライバーの画像のサイズも、ステップS32でリサイズされる画像のサイズと同じである。そのため、機械学習の演算負荷を低減することができるとともに、ステップS33での演算負荷も低減することができる。
続くステップS34で、測距部120は、画像センサ220から受け取った赤外画像または距離画像を用いて、ドライバーに対応する領域を抽出し、クラスタ化する。
続くステップS35で、測距部120は、ステップS33で付与された特徴点に関する信頼度が予め定められた所定の閾値以上であるか否かを判断する。
ステップS35で、信頼度が閾値以上であると判断された場合(ステップS35:YES)、処理はステップS36に進む。
ステップS36で、測距部120は、TOF方式により、各特徴点までの距離を導出する。特徴点までの距離の導出には、リサイズされた画像(特徴点付与に用いられた画像)ではなく、画像センサ220から受け取った画像(クラスタ化に用いられた画像)がそのまま用いられる。ステップS36の処理内容は、第一実施例のステップS3の処理内容と同様であるため、詳細な説明を省略する。
一方、ステップS35で、信頼度が閾値以上でないと判断された場合(ステップS35:NO)、処理はステップS37に進む。
ステップS37で、測距部120は、ステップS34でクラスタ化された画像を用いて、第一実施例のステップS2と同様に、骨格位置等の特徴点を推定し、ステップS36に進む。
特徴点に関する信頼度が低い場合、実際には特徴点ではない位置に特徴点が付与されているおそれがある。そのため、このように信頼度の低い特徴点に基づいてその後の処理を行うと、識別処理においてドライバーの姿勢や動作を誤って識別してしまうおそれがある。
これに対して、本実施例では、特徴点に関する信頼度が低い場合、クラスタ化された画像を用いて予め設定されたルールにしたがって特徴点を付与し直すようになっている。そのため、ドライバーの姿勢や動作を誤って識別してしまうことを防止することができる。
ステップS36に続くステップS38で、識別部130は、ステップS36で導出した各特徴点までの距離を用いて、各特徴点の3次元座標を算出する。なお、3次元座標の算出は、上述の第一実施例と同様、測距部120で行うようにしてもよい。
ステップS38に続くステップS39で、識別部130は、各特徴点の3次元座標により、ドライバーの姿勢や動作を識別する。ステップS38およびS39の処理内容は、第一実施例のステップS4およびS5の処理内容と同様であるため、詳細な説明を省略する。
次に、第二実施例による特徴点の付与の具体例について、図9Aないし図9Cを参照して説明する。
図9Aには、撮像装置で撮影された車内空間の距離画像が模式的に示されている。
測距部120は、撮像範囲の距離画像から、ドライバー400を含む所定の領域を切り出す(図9B)。さらに、測距部120は、切り出した領域をリサイズする。本例では、一例として、撮像範囲の画素数が640ピクセル×480ピクセル、切り出し領域の画素数が384ピクセル×480ピクセル、リサイズ後の画素数が96ピクセル×120ピクセルであるとする。すなわち、画像が1/4にリサイズされるため、画素数は16分の1となる。
一方、この時点で、予め、撮像範囲に対して切り出しおよびリサイズが施されたサイズの画像を用いた機械学習が行われており、記憶部140にはその学習結果が記憶されている。
測距部120は、リサイズされた画像と、記憶部140に記憶されている学習結果とを比較し、リサイズされた画像に対して特徴点を付与する。この際、リサイズされた画像を用いることで、リサイズしない画像を用いるのに比べ、演算負荷を大幅に低減することが可能となる。図9Cには、このようにしてドライバーの骨格関節(頭、首、腰、右肩、右肘、右手首、左肩、左肘、左手首)が特徴点として付与された状態が示されている。
以上説明したように、第二実施例によれば、縮小された画像を用いて機械学習を行うため、機械学習での演算負荷を削減することができる。また、特徴点までの距離を導出する際には、切り出しおよびリサイズが行われていない画像を用いるため、測距精度の低下を抑制することができる。さらに、特徴点までの距離を導出する際には、特徴点に相当する画素およびその周辺の画素の情報を用いるため、測距精度を向上することができる。さらにまた、機械学習によって付与された特徴点の信頼度が低い場合には、機械学習によって付与された特徴点を用いず、撮像画像を用いて特徴点を付与し直すため、測距精度が低下することを好適に防止できる。
本開示に係る識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体によれば、移動体の乗員の姿勢を精度良く識別することができ、車載用途に好適である。
1 ドライバーモニタリングシステム(DMS)
100 識別装置
110 撮像制御部
120 測距部
130 識別部
140 記憶部
200 撮像装置
210 光源
220 画像センサ

Claims (12)

  1. 移動体の乗員の姿勢を識別する識別装置であって、
    撮像装置によって得られた赤外画像または距離画像に基づいて前記乗員の特徴点を決定し、光飛行時間測距法により前記特徴点までの距離を導出する測距部と、
    複数の前記特徴点までの距離に基づいて、前記乗員の姿勢を識別する識別部と、を備える
    識別装置。
  2. 前記測距部は、前記特徴点に対応する画素および前記特徴点の周辺領域に対応する各画素の情報に基づいて、前記特徴点までの距離を導出する、
    請求項1に記載の識別装置。
  3. 前記測距部は、
    前記特徴点に対応する画素および前記特徴点の周辺領域に対応する各画素における前記乗員までの距離を光飛行時間測距法によってそれぞれ導出し、導出された前記各画素に対応する前記乗員までの距離を加算平均して前記特徴点までの距離を算出する、
    請求項2に記載の識別装置。
  4. 前記測距部は、
    前記特徴点に対応する画素および前記特徴点の周辺領域に対応する各画素における戻り光成分を積算し、前記戻り光成分の積算値に基づいて光飛行時間測距法によって前記特徴点までの距離を導出する、
    請求項2に記載の識別装置。
  5. 前記測距部は、前記乗員が含まれる領域をクラスタ化し、前記周辺領域に対応する各画素のうち、クラスタ化された前記領域に含まれる画素を用いて、前記特徴点までの距離を導出する、
    請求項2ないし4のいずれか一項に記載の識別装置。
  6. 前記測距部は、前記乗員が含まれる領域をクラスタ化するとともに、クラスタ化された前記領域の情報に基づいて、前記特徴点を決定する、
    請求項1ないし5のいずれか一項に記載の識別装置。
  7. 前記測距部は、機械学習により得られた前記特徴点に関する情報を用いて、前記特徴点を決定する、
    請求項1ないし5のいずれか一項に記載の識別装置。
  8. 前記測距部は、前記赤外画像または前記距離画像に対して切り出しおよび縮小の少なくとも一方が行われた画像を用いて、前記特徴点を決定する、
    請求項7に記載の識別装置。
  9. 前記測距部は、前記乗員が含まれる領域をクラスタ化するとともに、前記決定された特徴点の信頼度が低い場合には、クラスタ化された前記領域の情報に基づいて、新たな特徴点を決定する、
    請求項7または8に記載の識別装置。
  10. 移動体の乗員の姿勢を識別する識別方法であって、
    撮像装置によって得られた赤外画像または距離画像に基づいて前記乗員の特徴点を決定し、光飛行時間測距法により前記特徴点までの距離を導出するステップと、
    複数の前記特徴点までの距離に基づいて、前記乗員の姿勢を識別するステップと、を備える、
    識別方法。
  11. コンピュータに、
    撮像装置によって得られた移動体の乗員の赤外画像または距離画像に基づいて前記乗員の特徴点を決定し、光飛行時間測距法により前記特徴点までの距離を導出する処理と、
    複数の前記特徴点までの距離に基づいて、前記乗員の姿勢を識別する処理と、を実行させる、
    識別プログラム。
  12. 請求項11に記載の識別プログラムを記録した一時的でない有形の記録媒体。
JP2018031789A 2018-02-26 2018-02-26 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体 Pending JP2019148865A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018031789A JP2019148865A (ja) 2018-02-26 2018-02-26 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体
US16/283,217 US20190266425A1 (en) 2018-02-26 2019-02-22 Identification apparatus, identification method, and non-transitory tangible recording medium storing identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018031789A JP2019148865A (ja) 2018-02-26 2018-02-26 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体

Publications (1)

Publication Number Publication Date
JP2019148865A true JP2019148865A (ja) 2019-09-05

Family

ID=67684576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018031789A Pending JP2019148865A (ja) 2018-02-26 2018-02-26 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体

Country Status (2)

Country Link
US (1) US20190266425A1 (ja)
JP (1) JP2019148865A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110928408A (zh) * 2019-11-11 2020-03-27 中国电子科技集团公司电子科学研究院 基于二维图像人体姿态匹配的人机交互方法及装置
WO2021172264A1 (ja) * 2020-02-28 2021-09-02 株式会社デンソー 検出器の姿勢・位置検出装置
JP2021149443A (ja) * 2020-03-18 2021-09-27 株式会社東海理化電機製作所 画像処理装置、コンピュータプログラム、および異常推定システム
KR20210136138A (ko) * 2019-12-30 2021-11-16 상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드 이미지 처리 방법, 장치, 저장 매체 및 전자 기기
US11380009B2 (en) 2019-11-15 2022-07-05 Aisin Corporation Physique estimation device and posture estimation device
WO2022241874A1 (zh) * 2021-05-18 2022-11-24 烟台艾睿光电科技有限公司 一种红外热成像单目视觉测距方法及相关组件

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI715903B (zh) * 2018-12-24 2021-01-11 財團法人工業技術研究院 動作追蹤系統及方法
JP7331483B2 (ja) * 2019-06-18 2023-08-23 株式会社アイシン 撮像制御装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008002838A (ja) * 2006-06-20 2008-01-10 Takata Corp 車両乗員検出システム、作動装置制御システム、車両
JP5136473B2 (ja) * 2009-03-12 2013-02-06 株式会社デンソー 乗員姿勢推定装置
US20110025834A1 (en) * 2009-07-31 2011-02-03 Samsung Electronics Co., Ltd. Method and apparatus of identifying human body posture
US10262429B2 (en) * 2013-09-30 2019-04-16 National Institute Of Advanced Industrial Science Marker image processing system
JP6760114B2 (ja) * 2017-01-31 2020-09-23 富士通株式会社 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110928408A (zh) * 2019-11-11 2020-03-27 中国电子科技集团公司电子科学研究院 基于二维图像人体姿态匹配的人机交互方法及装置
US11380009B2 (en) 2019-11-15 2022-07-05 Aisin Corporation Physique estimation device and posture estimation device
JP7415469B2 (ja) 2019-11-15 2024-01-17 株式会社アイシン 体格推定装置および姿勢推定装置
KR20210136138A (ko) * 2019-12-30 2021-11-16 상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드 이미지 처리 방법, 장치, 저장 매체 및 전자 기기
KR102432204B1 (ko) * 2019-12-30 2022-08-12 상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드 이미지 처리 방법, 장치, 저장 매체 및 전자 기기
WO2021172264A1 (ja) * 2020-02-28 2021-09-02 株式会社デンソー 検出器の姿勢・位置検出装置
JP2021135224A (ja) * 2020-02-28 2021-09-13 株式会社デンソー 検出器の姿勢・位置検出装置
JP7215448B2 (ja) 2020-02-28 2023-01-31 株式会社デンソー 検出器の姿勢・位置検出装置
JP2021149443A (ja) * 2020-03-18 2021-09-27 株式会社東海理化電機製作所 画像処理装置、コンピュータプログラム、および異常推定システム
JP7402719B2 (ja) 2020-03-18 2023-12-21 株式会社東海理化電機製作所 画像処理装置、コンピュータプログラム、および異常推定システム
WO2022241874A1 (zh) * 2021-05-18 2022-11-24 烟台艾睿光电科技有限公司 一种红外热成像单目视觉测距方法及相关组件

Also Published As

Publication number Publication date
US20190266425A1 (en) 2019-08-29

Similar Documents

Publication Publication Date Title
JP2019148865A (ja) 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体
JP4355341B2 (ja) 深度データを用いたビジュアルトラッキング
JP4899424B2 (ja) 物体検出装置
JP6237876B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6328327B2 (ja) 画像処理装置及び画像処理方法
JP6237875B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6583734B2 (ja) 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
JP6187671B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6743882B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
JPWO2018110183A1 (ja) 撮像制御装置、撮像制御方法、プログラムおよび記録媒体
WO2020196513A1 (ja) 物体検出装置
JP2006072495A (ja) 立体物監視装置
JP2020006780A (ja) 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体
US9384576B2 (en) Method and device for computing a change in an image scale of an object
JP2006090957A (ja) 移動体の周囲物体検出装置及び移動体の周囲物体検出方法
JP3633469B2 (ja) 車間距離設定装置
JP2020118575A (ja) 車間距離測定装置、誤差モデル生成装置および学習モデル生成装置とこれらの方法およびプログラム
JP6398218B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6988873B2 (ja) 位置推定装置および位置推定用コンピュータプログラム
JP2011209070A (ja) 画像処理装置
JP2019179289A (ja) 処理装置、及びプログラム
US20190118823A1 (en) Road surface detection apparatus, road surface detection method, and recording medium including road surface detection program recorded therein
WO2022195954A1 (ja) センシングシステム
JP7375806B2 (ja) 画像処理装置、及び画像処理方法
JP2003099784A (ja) 移動物体の認識方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191021