JP2010211705A - 乗員姿勢推定装置 - Google Patents

乗員姿勢推定装置 Download PDF

Info

Publication number
JP2010211705A
JP2010211705A JP2009059529A JP2009059529A JP2010211705A JP 2010211705 A JP2010211705 A JP 2010211705A JP 2009059529 A JP2009059529 A JP 2009059529A JP 2009059529 A JP2009059529 A JP 2009059529A JP 2010211705 A JP2010211705 A JP 2010211705A
Authority
JP
Japan
Prior art keywords
seat belt
feature point
occupant
area
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009059529A
Other languages
English (en)
Other versions
JP5136473B2 (ja
Inventor
Tomonori Saito
友則 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2009059529A priority Critical patent/JP5136473B2/ja
Publication of JP2010211705A publication Critical patent/JP2010211705A/ja
Application granted granted Critical
Publication of JP5136473B2 publication Critical patent/JP5136473B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】簡易な構成で車室内の乗員の姿勢推定精度を向上させることができる乗員姿勢推定装置を提供する。
【解決手段】乗員姿勢推定装置において、乗員の上半身部分と手、肘及び肩の特徴点により形成される関節モデルを作成(S105)し、車室カメラ10で取得した画像から車室内の乗員を抽出し、抽出した画像から乗員の手の特徴点を検出し、検出した手の特徴点の位置から関節モデルの手の特徴点位置を設定する(S110)。同様に、関節モデルの肘及び肩の特徴点の位置を設定する(S115,S120)。また、車室カメラ10で取得した画像から乗員に重なるシートベルト領域を検出(S125)し、検出した領域の画素値変化を検出し、検出した画素値変化に基づいて乗員の腕がシートベルト領域に重なった際のシートベルト領域における腕の位置を検出し、その腕の位置に、手、肘及び肩の特徴点位置が適合するように手、肘及び肩の特徴点位置を補正する。
【選択図】図2

Description

本発明は、車両の乗員の姿勢を推定するための装置に関する。
従来、人体を撮影した画像から肩、肘、手といった人体特徴点を検出することで、人体の姿勢を推定する方法が知られている。このような方法を利用して、車室内の乗員の人体特徴点を検出し操作行動を推定する方法も存在する。
ここで、車室内の乗員の動作空間は三次元であるため、二次元で撮影した単眼画像から車室内の乗員の人体特徴点の検出を行うと、腕が自身の上半身前面にある場合や頭の背後にある場合には、腕の部分が頭や胴の部分に隠れてしまう、いわゆる自己遮蔽が発生する。自己遮蔽が発生した場合には、画像から腕領域の識別ができなくなり、検出に失敗する場合がある。
このような問題に対し、車室内に複数のカメラを設置し、車室内の乗員の三次元の映像を取得し、取得した三次元画像から腕部分の検出を行う方法(例えば、特許文献1参照)や、車室内に3Dカメラを設置し車室内の乗員の三次元画像から腕部分の検出を行う方法(例えば、特許文献2参照)で対策が可能である。
特開2008−84141号公報 特開2008−2838号公報
ところが、上記検出方法では車室内の乗員の姿勢を推定する際に自己遮蔽が生じた場合でも姿勢推定を可能とするために、車室内に複数のカメラを配置したり、従来車両に装着されていない特殊な3Dカメラが必要となったりする。また、三次元映像から乗員の腕部分を検出するため画像処理が複雑となる。つまり、上記検出方法では、乗員に姿勢推定装置の構成が複雑で、コストが増加するという問題があった。
本発明は、こうした問題に鑑みなされたもので、簡易な構成で車室内の乗員の姿勢推定精度を向上させることができる乗員姿勢推定装置を提供することを目的とする。
かかる問題を解決するためになされた請求項1に記載の乗員姿勢推定装置(1:この欄においては、発明に対する理解を容易にするため、必要に応じて「発明を実施するための形態」欄において用いた符号を付すが、この符号によって請求の範囲を限定することを意味するものではない。)は、画像取得手段(10)、モデル作成手段(S105)、手検出手段(S110)、肘検出手段(S115)、肩検出手段(S120)、シートベルト検出手段(S125)及び補正手段(S135)を備えている。
画像取得手段(10)は、車室内の画像を取得し、モデル作成手段(S105)は、車室内の乗員の上半身部分と手、肘及び肩の特徴点により形成される関節モデルを作成し、手検出手段(S110)は、画像取得手段(10)で取得した画像から車室内の乗員を抽出し、抽出した乗員の画像から乗員の手の特徴点を検出し、検出した手の特徴点の位置からモデル作成手段(S105)で作成した関節モデルの手の特徴点位置を設定する。
肘検出手段(S115)は、画像取得手段(10)で取得した画像から車室内の乗員を抽出し、抽出した乗員の画像から乗員の肘の特徴点を検出し、検出した肘の特徴点の位置からモデル作成手段(S105)で作成した関節モデルの肘の特徴点位置を設定する。
肩検出手段(S120)は、画像取得手段(10)で取得した画像から車室内の乗員を抽出し、抽出した乗員の画像から乗員の肩の特徴点を検出し、検出した肩の特徴点の位置からモデル作成手段(S105)で作成した関節モデルの肩の特徴点位置を設定する。
シートベルト検出手段(S125)は、画像取得手段(10)で取得した画像から乗員に重なるシートベルト領域を検出する。
補正手段(S135)は、シートベルト検出手段(S125)で検出したシートベルト領域の画素値変化を検出し、検出した画素値変化に基づいて乗員の腕がシートベルト領域に重なっている部分の位置を検出し、検出した腕の位置に、手検出手段(S110)、肘検出手段(S115)及び肩検出手段(S120)で設定した関節モデルの手、肘及び肩の特徴点位置が適合するように、関節モデルの手、肘及び肩の特徴点位置を補正する。
このような乗員姿勢推定装置(1)では、上半身部分と手、肘及び肩の特徴点により形成される関節モデルが作成され、画像取得手段(10)で取得された画像から抽出された乗員の手、肘及び肩の特徴点が検出され、検出された各特徴点の位置から関節モデルの手、肘及び肩の特徴点の位置が設定される。また、車室内の画像から乗員に重なるシートベルト領域が検出される。
そして、シートベルト領域の画素値変化に基づいて、乗員の腕がシートベルト領域に重なる部分が検出され、検出された乗員の腕がシートベルト領域に重なる領域に、関節モデルの手、肘及び肩の特徴点位置が適合するように、関節モデルの手、肘及び肩の特徴点位置が補正される。
つまり、車室内の乗員には、シートベルト(60)の着用が義務付けられているので、乗員の腕が自身の上半身前面にある場合の自己遮蔽が生じた場合には、腕がシートベルト領域に重なることになる。
腕がシートベルト領域に重なると、シートベルト領域の画素値が変化するので、シートベルト領域の画素値変化を検出すれば、腕がシートベルト領域に重なっている部分の位置を検出できる。
そして、車室内画像から抽出した画像から作成された関節モデルの腕の位置が、自己遮蔽により本来あるべき位置からずれていても、シートベルト領域における腕の位置に対応するように関節モデルの手、肘及び肩の特徴点の位置を補正すれば、自己遮蔽が生じている際の手特徴点検出、肘特徴点検出と肩特徴点検出の精度を向上させることができる。
つまり、1つの画像取得手段(10)を用いるだけの簡易な構成で車室内の乗員の姿勢推定精度を向上させることができる乗員姿勢推定装置(1)とすることができる。
ところで、シートベルト検出手段(S125)で検出したシートベルト領域の画素値変化を検出するには、オプティカルフローを利用する方法がある。オプティカルフローを利用する方法として、関節モデルの身体部位を一つの領域とみなしてオプティカルフローを算出するといった、関節モデルを中心に算出を行う方法と、処理対象画像を小領域に分けて各領域すべてに対してオプティカルフローを算出するという方法(空間的局所最適化法)に大別される。
関節モデルを中心にオプティカルフローを算出した場合、手が上半身前面に移動し自己遮蔽が発生した場合に、正確にオプティカルフローを算出できない。また、画像全体を小領域に分けてオプティカルフローを算出した場合、乗員の動作とは関係ない無駄な計算処理が増加しかつ、手が上半身前面に移動し自己遮蔽が発生した場合、画素値の差が現れず、正確にオプティカルフローを算出できない。
そこで、請求項2に記載のように、シートベルト検出手段(S125)で検出したシートベルト領域を小領域に分割し、分割した小領域ごとのオプティカルフローを算出することにより、小領域の速度ベクトルの算出を行う速度算出手段(S130)を備え、補正手段(S135)は、さらに、関節モデルの腕がシートベルト領域内を通過する際に、速度算出手段(S130)により算出した速度ベクトルに基づき、関節モデルの特徴点位置を補正するようにするとよい。
このようにすると、オプティカルフローの算出をシートベルト領域に限定し、シートベルト領域を小領域に分割してオプティカルフローを算出することで、無駄な計算処理を排除することができる。また、腕がシートベルト(60)上を通過した際には明瞭な画素値変化があらわれることを利用して、腕の正確なオプティカルフローを算出し、算出した値で腕の動作(腕の関節モデルの動作)の補正を行うことができる。
また、乗員がシートベルト(60)を着用しているときに腕が乗員の胴体部分に隠れるという自己遮蔽が発生する場合には、乗員の腕がシートベルト領域に重なって、腕がシートベルト領域を切断することになる。
そこで、請求項3に記載のように、シートベルト検出手段(S125)で検出したシートベルト領域を腕が切断する領域を検出するシートベルト切断領域検出手段(S220)を備え、補正手段(S135)は、シートベルト切断領域検出手段(S220)で検出したシートベルト領域における腕の位置に、関節モデルの手、肘及び肩の特徴点が適合するように、関節モデルの特徴点位置を補正するようにしてもよい。
このようにすると、例えば、シートベルト領域を二値化処理して得られるエッジ量や画素値の変化、あるいは、シートベルト領域の前画像との比較などによりシートベルト領域を腕が切断する領域を容易に検出することができる。したがって、検出した腕の位置に、関節モデルの手、肘及び肩の特徴点が適合するように、関節モデルの特徴点位置を補正することにより、特徴点位置の補正精度を向上させることができる。
また、シートベルト切断領域検出手段(S220)で検出したシートベルト切断領域における腕の位置に、関節モデルの手、肘及び肩の特徴点が適合するように、関節モデルの特徴点位置を補正する方法としては、請求項4に記載のように、シートベルト切断領域検出手段(S220)で検出したシートベルト切断領域と関節モデルの腕領域との被覆領域を算出し、算出した被覆領域が最大となるように、関節モデルの特徴点位置を補正するとよい。
このようにすると、腕がシートベルトを切断する際に、腕がシートベルト(60)を覆う被覆領域が最大となるように、関節モデルの特徴点が補正されるので、関節モデルにおける手、肘及び肩の特徴点の位置精度が向上する。なお、シートベルト切断領域と関節モデルの腕の被覆領域は、両領域の画素の論理積をとれば算出することができる。
また、関節モデルの特徴点位置の補正においてシートベルト被覆領域が最大となった場合であっても、シートベルト(60)の方向に腕が少しずれたり、腕の傾きが多少異なっていたりしている場合がある。
そこで、より正確な補正を可能とするため、請求項5に記載のように、補正手段(S135)は、シートベルト切断領域検出手段(S220)で検出したシートベルト切断領域の、シートベルト(60)を横断する方向の両端部、換言すれば、腕の長さ方向の両側端部が形成する2本の線分の位置と傾きを算出し、算出した2本の線分の位置を傾きとに適合するように、関節モデルの特徴点位置をさらに補正する。
このようにすると、さらに正確な関節モデルの特徴点の補正が可能となる。つまり、腕がシートベルト(60)に重なると、腕の両端部分によって、シートベルト(60)を横切るように2本の線分が形成される。
したがって、その2本の線分の位置と傾きを算出し、関節モデルの腕の位置と傾きとが、算出した2本の線分の位置と傾きとに適合するように関節モデルの特徴点位置を補正すれば、関節モデルの特徴点をより正確に補正できる。
なお、2本の線分の位置と傾きとは、入力画像のエッジの解析、画素値の解析や算出済みのシートベルト領域との比較等により算出すればよい。
ところで、シートベルト(60)が乗員の腕以外、例えばネクタイなどにより切断される場合や腕の前回推定位置が本来の腕の位置から大きくずれている場合がある。そのような場合には、シートベルト切断領域の重心と関節モデルの腕の重心位置との間の距離が大きくなる。
そこで、請求項6に記載のように、重心距離判定手段(S235,S240)、被覆領域算出手段(S230)、上半身矩形算出手段(S260)及び補正手段(S135)を備えるようにするとよい。
ここで、重心距離判定手段(S235,S240)は、シートベルト切断領域検出手段(S220)で検出したシートベルト切断領域の重心と関節モデルの腕領域の重心間距離を算出し、算出した重心間距離が所定の閾値以上か否かを判定する。
被覆領域算出手段(S230)は、画像取得手段(10)で取得した画像から乗員の領域のみを抽出し、抽出した乗員の領域と関節モデルの腕との被覆領域を算出し、上半身矩形算出手段(S260)は、シートベルト領域を一つの対角線として乗員の上半身を囲む矩形である上半身矩形を算出する。
また、補正手段(S135)は、重心距離判定手段(S235,S240)により重心距離が所定の閾値以上と判定された場合には、被覆領域算出手段(S230)で算出された被覆領域が最大となるように、関節モデルの特徴点位置を補正し、さらに、関節モデルの腕の位置と傾きとが、切断線分算出手段(S225)で算出した2本の線分の位置と傾きとに適合するように、関節モデルの特徴点位置を補正する。
一方、所定の閾値より低いと判定された場合には、被覆領域算出手段(S230)で算出された被覆領域が最大となるように、関節モデルの特徴点位置を補正する。
さらに、被覆領域が最大となるように補正された特徴点のうち手の特徴点位置が上半身矩形算出手段(S260)で算出された上半身矩形内となった場合には、シートベルト切断領域検出手段(S220)で検出したシートベルト切断領域と関節モデルの腕領域との被覆領域(シートベルト被覆領域)を算出し、算出した被覆領域が最大となるように、関節モデルの特徴点位置を補正し、さらに、関節モデルの腕の位置と傾きとが、切断線分算出手段(S225)で算出した2本の線分の位置と傾きとに適合するように、関節モデルの特徴点位置を補正する。
このようにすれば、重心間距離が所定の閾値以上の場合、つまり、シートベルト切断領域が乗員の腕以外により発生したり、腕の前回推定位置が大幅にずれたりして、シートベルト切断領域の重心と関節モデルの腕の重心間距離が長くなった場合には、乗員の領域と関節モデルの腕との被覆領域が最大となるように各特徴点位置が補正され、補正された手の特徴点位置が上半身矩形内にあれば、補正は終了され、上半身矩形内になければ、シートベルト被覆領域が最大となるように補正された後、さらに、腕の位置と傾きが補正される。
一方、重心間距離が短い場合には、シートベルト被覆領域が最大となるように補正された後、さらに、腕の位置と傾きが補正される。
つまり、関節モデルの腕の位置が乗員のシートベルトから大きく外れていたり、他の物体がシートベルトに重なっていたりする場合と関節モデルの腕の位置がシートベルトに近い位置にある場合と特徴点の補正方法を変えているので、何れの場合でも、正確に特徴点の位置を補正することができる。したがって、乗員の姿勢を正確に推定することができる。
ところで、画像取得手段(10)で取得した画像の画像処理を行う場合、取得する画像のコントラストが高い方が正確な画像処理結果が得られる。そこで、請求項7に記載のように、画像取得手段(10)で車室内の画像を取得する際に車室内を照らす照明手段(50)を備えようにするとよい。
このようにすると、車室内の画像を取得する際に車室内が照明で照らされるので、乗員やシートベルト(60)のコントラストが高くなる。したがって、画像処理結果がより正確になる。
さらに、請求項8に記載のように、照明手段(50)を、赤外線を照射する赤外線照明とし、照明手段(50)が照射する波長領域の赤外線の吸収率が所定の値以上の素材を用いたシートベルト(60)を備えるようにすると、夜間やトンネル内など車室内の照度が低い場合であっても所定のコントラストを有する画像が得られるので、正確な画像処理結果が得られる。
乗員姿勢推定装置1の概略の構成を示すブロック図である。 第1実施形態における制御処理の流れを示すフローチャートである。 車室カメラ10で取得される乗員の前面画像と関節モデルの例である。 関節モデルの例及び手の特徴点を検出する方法を示す図である。 特徴点を検出する方法を示す図である。 乗員の上半身前面部分にシートベルトが重なっている画像とエッジ抽出によりシートベルト領域を検出した例を示す図である。 シートベルト領域を小領域に分割した例と分割した小領域部分のオプティカルフローを算出して得られた速度ベクトルの例を示す図である。 第2実施形態における制御処理の流れを示すフローチャートである。 第2実施形態における制御処理の流れを示すフローチャートである。 シートベルト切断領域検出処理(S220)における処理の例を示す図である。 切断線分算出処理(S225)における処理の例を示す図である。 被覆領域算出処理(S230)における処理の例を示す図である。 重心距離判定処理(S235,S240)における処理の例を示す図である。 重心距離判定処理(S235,S240)における処理の例を示す図である。 被覆領域算出処理(S230)で算出された被覆領域が最大となるように、関節モデルの特徴点位置を補正する補正処理の例を示す図である。
以下、本発明が適用された実施形態について図面を用いて説明する。なお、本発明の実施の形態は、下記の実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。
[第1実施形態]
図1は、本発明が適用された乗員姿勢推定装置1の概略の構成を示すブロック図である。乗員姿勢推定装置1は、図1に示すように、車室カメラ10、照明装置50及び制御装置20を備えている。
車室カメラ10は、車室内の画像を取得する1台の小型CCDカメラであり、車室の天井部分に車室内を撮影可能に、特に、車室内の乗員の体の前面を撮影可能に取り付けられている。なお、車室カメラ10は、CCDカメラ以外にもCOMSなどの他の撮像素子を用いたものや撮像管を用いたカメラであってもよい。
照明装置50は、車室カメラ10で車室内の画像を取得する際に車室内を赤外線で照らす赤外線照明である。また、乗員が着座する車室内のシートに取り付けられたシートベルト60(図6参照)は、照明装置50が照射する波長領域の赤外線の吸収率が所定の値以上の素材を用いて作られている。
制御装置20は、CPU、GPU(Graphic Processing Unitの略)、ROM、RAM及びI/Oを備えており、ROMに内蔵されたプログラムにより以下の(ア)〜(キ)に示す処理を実行する。
(ア)車室内の乗員の上半身部分と手、肘及び肩の特徴点により形成される関節モデルを作成する(以下、この処理をモデル作成処理と呼ぶ)。
(イ)車室カメラ10で取得した画像から車室内の乗員を抽出し、抽出した乗員の画像から乗員の手の特徴点を検出し、検出した手の特徴点の位置からモデル作成処理で作成した関節モデルの手の特徴点位置を設定する(以下、この処理を手検出処理と呼ぶ)。
(ウ)車室カメラ10で取得した画像から車室内の乗員を抽出し、抽出した乗員の画像から乗員の肘の特徴点を検出し、検出した肘の特徴点の位置からモデル作成処理で作成した関節モデルの肘の特徴点位置を設定する(以下、この処理を肘検出処理と呼ぶ)。
(エ)車室カメラ10で取得した画像から車室内の乗員を抽出し、抽出した乗員の画像から乗員の肩の特徴点を検出し、検出した肩の特徴点の位置からモデル作成処理で作成した関節モデルの肩の特徴点位置を設定する(以下、この処理を肩検出処理と呼ぶ)。
(オ)車室カメラ10で取得した画像から乗員に重なるシートベルト領域を検出する(以下、この処理をシートベルト検出処理と呼ぶ)。
(カ)シートベルト検出処理で検出したシートベルト領域を小領域に分割し、分割した小領域ごとのオプティカルフローを算出することにより、小領域の速度ベクトルの算出を行う(以下、この処理を速度算出処理と呼ぶ)。
(キ)シートベルト検出処理で検出したシートベルト領域の画素値変化を検出し、検出した画素値変化に基づいて乗員の腕がシートベルト領域に重なった際のシートベルト領域における腕の位置を検出し、検出した腕の位置に、手検出処理、肘検出処理及び肩検出処理で設定した手、肘及び肩の特徴点位置が適合するように、手、肘及び肩の特徴点位置を補正する。
さらに、補正した特徴点の位置を、関節モデルの腕がシートベルト領域内を通過する際に、速度算出処理により算出した速度ベクトルに基づき補正する(以下、この処理を補正処理と呼ぶ)。
(制御処理)
次に、図2に基づき、制御装置20で実行される制御処理について説明する。図2は、制御処理の流れを示すフローチャートである。
制御処理では、図2に示すように、S100において車室カメラ10から車室内の画像が取得される。このとき、車室カメラ10は、車室内の乗員の体の前面を撮影可能に取り付けられているので、車室カメラ10からは、乗員の前面画像が取得される。取得された画像の例を図3(a)に示す。
続くS105では、乗員の上半身部分と手、肘及び肩の特徴点により形成される関節モデルが作成される。作成される関節モデルの例を図3(b)及び図4(a)に示す。
続くS110では、S100において取得された車室内の画像から車室内の乗員が抽出され、抽出された乗員の画像から乗員の手の特徴点が検出され、さらに、検出された手の特徴点の位置から、S105において作成された関節モデルの手の特徴点位置が設定される。
手の特徴点を検出する方法としては、図4(b)に示すように、画像からエッジを抽出しその曲率を解析し特徴点位置を検出する方法 、図4(c)に示すように、人物のシルエットを領域分割し特徴点位置を検出する方法 、図5(a)に示すように、HOGやshape context といった局所特徴量を算出し特徴点位置を検出する方法、図5(b)に示すように、現フレームと前フレーム間の特徴点位置の移動量の逐次推定・追跡を行い、特徴点位置を検出する方法(関節モデルの腕領域のオプティカルフローを算出し特徴点位置を検出する方法)や図5(c)に示すようにパーティクルフィルタにより特徴点位置を検出する方法など複数の方法がある。
続くS115では、S100において取得された車室内の画像から車室内の乗員が抽出され、抽出された乗員の画像から乗員の肘の特徴点が検出され、さらに、検出された肘の特徴点の位置から、S105において作成された関節モデルの肘の特徴点位置が設定される。肘の特徴点位置の検出方法は、手の検出方法と同じであるので説明は省略する。
続くS120では、S100において取得された車室内の画像から車室内の乗員が抽出され、抽出された乗員の画像から乗員の肩の特徴点が検出され、さらに、検出された肩の特徴点の位置から、S105において作成された関節モデルの肩の特徴点位置が設定される。肩の特徴点位置の検出方法は、肩の検出方法と同じであるので説明は省略する。
続くS125では、車室カメラ10で取得した画像から乗員に重なるシートベルト領域が検出される。図6にシートベルト領域検出の例を示す。
図6(a)に示すような乗員の上半身前面部分にシートベルトが重なっている画像のエッジを抽出することによりシートベルト領域(図6(a)中「A」で示す部分)が検出される。エッジ抽出によりシートベルト領域を検出した例を図6(b)に示す。
エッジ抽出以外にも、画素値の解析やシートベルト未装着時の画像との差分を算出するなどの方法でもシートベルト領域を検出することができる。
続くS130では、S125において検出したシートベルト領域を小領域に分割し、分割した小領域ごとのオプティカルフローを算出することにより、小領域の速度ベクトルの算出を行う。
図7にオプティカルフローの例を示す。図7(a)にシートベルト領域を小領域に分割した例を示す。図7(a)に示すように分割した小領域部分(図7(a)中「B」に示す部分)のオプティカルフローを算出すると、乗員の腕がシートベルト領域を通過した場合には、図7(b)に示すように小領域には、速度ベクトル(図7(b)中矢印で示す)が現れる。
続くS135では、S125において検出したシートベルト領域の画素値変化を検出し、検出した画素値変化に基づいて乗員の腕がシートベルト領域に重なった際のシートベルト領域における腕の位置を検出する。
そして、検出した腕の位置に、S110、S115、S120において設定された関節モデルの手、肘及び肩の特徴点位置が適合するように、手、肘及び肩の特徴点位置を補正する。
さらに、補正した関節モデルの手、肘及び肩の特徴点位置を、腕がシートベルト領域内を通過する際に、S130において算出された速度ベクトルに基づき、補正する。このように補正した関節モデル(図7(b)中「C」で示す)結果を図7(b)に示す。
(乗員姿勢推定装置1の特徴)
このような乗員姿勢推定装置1では、上半身部分と手、肘及び肩の特徴点により形成される関節モデルが作成され、車室カメラ10で取得された画像から抽出された乗員の手、肘及び肩の特徴点が検出され、検出された各特徴点の位置から関節モデルの手、肘及び肩の特徴点の位置が設定される。また、車室内の画像から乗員に重なるシートベルト領域が検出される。
そして、シートベルト領域の画素値変化に基づいて、乗員の腕がシートベルト領域に重なる領域が検出され、検出された乗員の腕がシートベルト領域に重なる領域に、関節モデルの手、肘及び肩の特徴点位置が適合するように、関節モデルの手、肘及び肩の特徴点位置が補正される。
つまり、車室内の乗員には、シートベルト60の着用が義務付けられているので、乗員の腕が自身の上半身前面にある場合の自己遮蔽が生じた場合には、腕がシートベルト領域に重なることになる。
腕がシートベルト領域に重なると、シートベルト領域の画素値が変化するので、シートベルト領域の画素値変化を検出すれば、腕がシートベルト領域に重なった際のシートベルト領域における腕の位置を検出できる。
そして、車室内画像から抽出した画像から作成された関節モデルの腕の位置が、自己遮蔽により本来あるべき位置からずれていても、シートベルト領域における腕の位置に対応するように関節モデルの手、肘及び肩の特徴点の位置を補正すれば、自己遮蔽が生じている際の手特徴点検出、肘特徴点検出と肩特徴点検出の精度を向上させることができる。
つまり、1台の車室カメラ10を用いるだけの簡易な構成で車室内の乗員の姿勢推定精度を向上させることができる乗員姿勢推定装置1とすることができる。
また、シートベルト領域を小領域に分割し、分割した小領域ごとのオプティカルフローを算出することにより、小領域の速度ベクトルの算出し、関節モデルの腕がシートベルト領域内を通過する際に、速度ベクトルに基づき、関節モデルの特徴点位置を補正している。
このように、オプティカルフローの算出をシートベルト領域に限定し、シートベルト領域を小領域に分割してオプティカルフローを算出することで、無駄な計算処理を排除し、腕がシートベルト60上を通過した際には明瞭な画素値変化があらわれることを利用して、腕の正確なオプティカルフローを算出し、その値で腕の動作(腕の関節モデルの動作)の補正を行うことができる。
車室カメラ10で車室内の画像を取得する際に照明装置50で車室内を照らしているので、乗員やシートベルト60のコントラストが高くなる。したがって、画像処理結果がより正確になる。
さらに、照明装置50が、赤外線を照射する赤外線照明であり、かつ、照明装置50が照射する波長領域の赤外線の吸収率が所定の値以上の素材を用いたシートベルト60を備えているので、夜間やトンネル内など車室内の照度が低い場合であっても所定のコントラストを有する画像が得られる。したがって、正確な画像処理結果が得られる。
[第2実施形態]
次に、第1実施形態における関節モデルの補正方法を変更した第2実施形態について説明する。なお、第2実施形態の乗員姿勢推定装置1の構成は第1実施形態のものと同じであるので、構成の説明は省略し、制御装置20で実行される制御処理の内容が異なるのみであるので、制御処理について説明する。
第2実施形態の制御処理では、以下の(ク)〜(チ)の処理が実行される。
(ク)シートベルト検出処理が検出したシートベルト領域を腕が切断する領域を検出する(以下、この処理をシートベルト切断領域検出処理と呼ぶ)。
(ケ)シートベルト切断領域検出処理が検出したシートベルト切断領域の、シートベルト60を横断する方向の両端部が形成する2本の線分の位置と傾きを算出する(以下、この処理を切断線分算出処理と呼ぶ)。
(コ)シートベルト切断領域検出処理で検出したシートベルト切断領域の重心と関節モデルの腕領域の重心間距離を算出し、算出した重心間距離が所定の閾値以上か否かを判定する(以下、この処理を重心距離判定処理と呼ぶ)。
(サ)車室カメラ10で取得した画像から乗員の領域のみを抽出し、抽出した乗員の領域と関節モデルの腕との被覆領域を算出する(以下、この処理を被覆領域算出処理と呼ぶ)。
(シ)シートベルト領域を一つの対角線として乗員の上半身を囲む矩形である上半身矩形を算出する(以下、この処理を上半身矩形算出処理と呼ぶ)。
(ス)重心距離判定処理により重心距離が所定の閾値以上と判定された場合には、シートベルト切断領域検出処理で検出されたシートベルト切断領域と関節モデルの腕領域との被覆領域を算出し、算出した被覆領域が最大となるように、関節モデルの特徴点位置を補正する。
(セ)さらに、関節モデルの腕の位置と傾きとが、切断線分算出処理で算出した2本の線分の位置と傾きとに適合するように、関節モデルの特徴点位置を補正する。
(ソ)重心距離が所定の閾値より低いと判定された場合には、被覆領域算出処理で算出された被覆領域が最大となるように、関節モデルの特徴点位置を補正する。
(タ)さらに、被覆領域が最大となるように補正された特徴点のうち手の特徴点位置が上半身矩形算出処理で算出された上半身矩形内となった場合には、シートベルト切断領域検出処理で検出したシートベルト切断領域と関節モデルの腕領域との被覆領域を算出し、算出した被覆領域が最大となるように、関節モデルの特徴点位置を補正する。
(チ)さらに、関節モデルの腕の位置と傾きとが、切断線分算出処理で算出した2本の線分の位置と傾きとに適合するように、関節モデルの特徴点位置を補正する。
(制御処理)
次に、図8に基づき第2実施形態における制御装置20で実行される制御処理について説明する。図8は、第2実施形態における制御処理の流れを示すフローチャートである。
第2実施形態における制御処理では、図8に示すようにS200において、S100と同様にして車室カメラ10から車室内の画像が取得され、続くS205では、S105と同様にして乗員の上半身部分と手、肘及び肩の特徴点により形成される関節モデルが作成される。
続くS210では、S110〜120と同様にして、S200において取得された車室内の画像から車室内の乗員が抽出され、抽出された乗員の画像から乗員の手、肘及び肩の特徴点が検出される。
さらに、検出された手、肘及び肩の特徴点の位置から、S205において作成された関節モデルの手、肘及び肩の特徴点位置が設定される。手、肘及び肩の特徴点を検出する方法は、S110〜120に記載の方法と同じであるので説明は省略する。
続くS215では、S125と同様に、車室カメラ10から取得された画像から乗員に重なるシートベルト領域が検出され、続くS220では、S215において検出されたシートベルト領域を腕が切断する領域が検出される。
S220における処理の例を図10に示す。S200において取得された車室内画像の例を図10(a)に示す。この図10(a)において四角で囲んだ部分(図10(a)中「D]で示す部分)がシートベルト切断領域である。
図10(a)の画像を二値化したものを図10(b)に示す。図10(b)において四角で囲んだ部分(図10(b)中「D」で示す部分)がシートベルト切断領域である。図10(b)に示す二値化画像からエッジ解析により腕がシートベルトを切断する領域を検出する。
シートベルト切断領域の処理結果の例を図10(c)に示す。図10(c)において四角で囲んだ部分(図10(c)中「D」で示す部分)がシートベルト切断領域となる。
なお、シートベルト切断領域は、エッジ解析以外にも、画素値の解析や検出済みのシートベルト領域の前画像と現画像との比較によってもよい。
続くS225では、S220において検出されたシートベルト切断領域の、シートベルト60を横断する方向の両端部が形成する2本の線分の位置と傾きが算出される。
S225における処理の例を図11に示す。S200において取得された車室内画像を二値化した例を図11(a)に示す。この図11(a)の画像のエッジ解析によりシートベルト領域を切断する2本の線分(図11(a)中「E」で示す部分)が算出される。そして、図11(b)に示すように、2本の線分(図11(b)中「F」で示す部分)の画像中の位置と傾きが算出される。
なお、「傾き」は、画像中の基準線に対する傾きであればよく、例えば、仮想の水平線に対する傾きであってもよいし、シートベルト領域のシートベルトの長さ方向に対する傾きであってもよい。
続くS230では、車室カメラ10で取得した画像から乗員の領域のみが抽出され、抽出された乗員の領域と関節モデルの腕との被覆領域が算出される。
S230における処理の例を図12に示す。S200において取得された車室内画像から乗員の領域のみの背景差分により抽出した例を図12(a)に示す。この抽出画像と関節モデルの腕との被覆領域、換言すれば、抽出した乗員の画像と関節モデルの腕とが重なった部分(図12(b)中「G」で示す部分)を算出した例を図12(b)に示す。
続くS235では、S220において検出されたシートベルト切断領域の重心と関節モデルの腕領域の重心間距離が算出される。
S235における処理の例を図13に示す。図13(a)及び図13(b)に、S220において検出されたシートベルト切断領域の例を示す。図13(a)では、シートベルト60を切断しているのは、乗員の腕ではなくネクタイ62となっている。また、図13(b)では、前回の画像に基づき作成された関節モデルの腕の位置(図中「H]で示す位置)が、今回の腕の位置と大きくずれている場合を示している。
図13(a)の場合には、ネクタイ62がシートベルト60を切断している領域の重心位置α、肩と肘の特徴点間の重心位置β及び肘と手の重心位置γが算出され、重心位置αと重心位置βの重心間距離及び重心位置αと重心位置γの重心間距離が算出される。
図13(b)の場合には、現在の腕がシートベルト60を切断している領域の重心位置p、肩と肘の特徴点間の重心位置q及び肘と手の重心位置rが算出され、重心位置pと重心位置qの重心間距離及び重心位置pと重心位置rの重心間距離が算出される。
続くS240では、S235において算出された重心間距離が所定の閾値以上か否かが判定される。
S240における処理の例を図14に示す。図14(a)に示すように、腕以外のネクタイ62などがシートベルト60を切断している場合、図14(c)に示すように、前回の画像に基づき作成された関節モデルの腕の位置(図中「D]で示される位置)が、今回の腕の位置と大きくずれている場合、或いは、図14(b)に示すように、腕以外のものによるシートベルトの切断及び関節モデルと今回の腕の位置が大きくずれている状態が同時に発生している場合には、重心間距離が所定の閾値以上となる。
そして、重心距離が閾値以上と判定された場合(S240:Yes)、処理がS255へ移行され、閾値より低いと判定された場合(S240:No)、処理がS245へ移行される。
S245では、S220において算出されたシートベルト切断領域と関節モデルの腕領域との被覆領域(シートベルト被覆領域)、つまり、シートベルト切断領域と関節モデルの腕領域とが重なる部分が最大となるように、S205において作成した関節モデルの手、肘及び肩の特徴点の位置が移動されて補正される。
図15にその例を示す。図15(a)では、図中「J」で示す部分がシートベルト切断領域であり、図中「K」で示す部分が関節モデルの腕を示し、図中「L」で示す部分がシートベルト切断領域と関節モデルが重なる部分であるシートベルト被覆領域を示している。
図15(a)中で「L」で示されるシートベルト被覆領域が最大となるように、図15(b)に矢印で示すように、関節モデルの肩、肘及び手の特徴点位置を移動させて特徴点の位置を補正する。
なお、シートベルト切断領域と関節モデルの腕の被覆領域は、両領域の画素の論理積をとれば算出することができる。
S250では、S245で補正した手、肘及び肩の特徴点の位置をさらに、S225において算出された切断線分の位置と傾きとに関節モデルの腕の両端が一致するように腕の位置と傾きとが移動され、補正される(図11(b)参照)。補正後、処理が終了される。
S255では、S230において算出された被覆領域が最大となるように、S205において作成した関節モデルの手、肘及び肩の特徴点の位置が移動されて補正される。図14に補正の例を示す。
前述のように、図14(a)に示した腕以外のネクタイ62などがシートベルト60を切断している場合に被覆領域が最大となるように、関節モデルの各特徴点の位置を移動させ補正した結果を図14(d)に示す。
また、図14(c)に示した前回の画像に基づき作成された関節モデルの腕の位置が、今回の腕の位置と大きくずれている場合に被覆領域が最大となるように、関節モデルの各特徴点の位置を移動させ補正した結果を図14(f)に示す。
さらに、図14(b)に示した腕以外のものによるシートベルトの切断及び関節モデルと今回の腕の位置が大きくずれている状態が同時に発生している場合に被覆領域が最大となるように、関節モデルの各特徴点の位置を移動させ補正した結果を図14(e)に示す。
続くS260では、シートベルト領域を一つの対角線として乗員の上半身を囲む矩形である上半身矩形が算出される。算出した上半身矩形の例を図14(f)に示す。図14(f)中「M]で示した矩形が、図14(c)に示す画像に対して上半身矩形を算出した例を示している。この例の場合、上半身矩形内に手の特徴点が存在する。
続くS265では、S255において補正された手の特徴点の位置がS260において算出された上半身矩形の内側にあるか否かが判定される。そして、手の特徴点の位置が上半身矩形の内側にあると判定された場合(S265:Yes)、処理がS270へ移行され。内側にないと判定された場合(S265:No)、処理が終了される。
S270では、S245と同様に、S220において算出されたシートベルト切断領域と関節モデルの腕領域との被覆領域(シートベルト被覆領域)、つまり、シートベルト切断領域と関節モデルの腕領域とが重なる部分が最大となるように、関節モデルの手、肘及び肩の特徴点の位置が移動されて補正される。
S275では、S250と同様に、S270で補正した手、肘及び肩の特徴点の位置をさらに、S225において算出された切断線分の位置と傾きとに関節モデルの腕の両端が一致するように腕の位置と傾きとが移動され、補正される(図11(b)参照)。補正後、処理が終了される。
このような、第2実施形態における乗員姿勢推定装置1では、シートベルト領域を二値化処理して得られるエッジ量や画素値の変化、あるいは、シートベルト領域の前画像との比較などによりシートベルト領域を腕が切断する領域を検出することができる。したがって、検出した腕の位置に基づいて、関節モデルの特徴点位置を補正することができる。
また、腕がシートベルト60を覆う被覆領域が最大となるように、関節モデルの特徴点が補正されるので、関節モデルにおける手、肘及び肩の特徴点の位置精度が向上する。
さらに、腕がシートベルト60に重なったときに腕の両端部分によって、シートベルト60を横切るように形成される2本の線分の位置と傾きを算出し、関節モデルの腕の位置と傾きとが、算出した2本の線分の位置と傾きとに適合するように関節モデルの特徴点位置を補正しているので、関節モデルの特徴点をより正確に補正できる。
また、重心間距離が所定の閾値以上の場合、つまり、シートベルト切断領域が乗員の腕以外により発生したり、腕の前回推定位置が大幅にずれたりして、シートベルト切断領域の重心と関節モデルの腕の重心間距離が長くなった場合には、乗員の領域と関節モデルの腕との被覆領域が最大となるように各特徴点位置が補正され、補正された手の特徴点位置が上半身矩形内にあれば、補正は終了され、上半身矩形内になければ、シートベルト被覆領域が最大となるように補正された後、さらに、腕の位置と傾きが補正される。
一方、重心間距離が短い場合には、シートベルト被覆領域が最大となるように補正された後、さらに、腕の位置と傾きが補正される。
つまり、関節モデルの腕の位置が乗員のシートベルトから大きく外れていたり、他の物体がシートベルトに重なっていたりする場合と関節モデルの腕の位置がシートベルトに近い位置にある場合と特徴点の補正方法を変えているので、何れの場合でも、正確に特徴点の位置を補正することができる。したがって、乗員の姿勢を正確に推定することができる。
[その他の実施形態]
上記実施形態では、乗員の左腕のみを示しているが、右手でも同様である。また、上記実施形態では、ROMに格納したプログラムを1つのCPUによって実行させることにより各処理を行っていたが、CPUの代わりに複数のDSPを用い、各処理の内容を各のDSPに割り当てて実行するようにしてもよい。
1…乗員姿勢推定装置、10…車室カメラ、20…制御装置、50…照明装置、60…シートベルト、62…ネクタイ。

Claims (8)

  1. 車室内の画像を取得する1つの画像取得手段と、
    前記車室内の乗員の上半身部分と手、肘及び肩の特徴点により形成される関節モデルを作成するモデル作成手段と、
    前記画像取得手段で取得した画像から車室内の乗員を抽出し、該抽出した乗員の画像から乗員の手の特徴点を検出し、該検出した手の特徴点の位置から前記モデル作成手段で作成した前記関節モデルの手の特徴点位置を設定する手検出手段と、
    前記画像取得手段で取得した画像から車室内の乗員を抽出し、該抽出した乗員の画像から乗員の肘の特徴点を検出し、該検出した肘の特徴点の位置から前記モデル作成手段で作成した前記関節モデルの肘の特徴点位置を設定する肘検出手段と、
    前記画像取得手段で取得した画像から車室内の乗員を抽出し、該抽出した乗員の画像から乗員の肩の特徴点を検出し、検出した肩の特徴点の位置から前記モデル作成手段で作成した前記関節モデルの肩の特徴点位置を設定する肩検出手段と、
    前記画像取得手段で取得した画像から前記乗員に重なるシートベルト領域を検出するシートベルト検出手段と、
    前記シートベルト検出手段で検出したシートベルト領域の画素値変化を検出し、該検出した画素値変化に基づいて前記乗員の腕が前記シートベルト領域に重なった際の前記シートベルト領域における腕の位置を検出し、該検出した腕の位置に、前記手検出手段、前記肘検出手段及び前記肩検出手段で設定した前記関節モデルの手、肘及び肩の特徴点位置が適合するように、前記関節モデルの手、肘及び肩の特徴点位置を補正する補正手段と、
    を備えたことを特徴とする乗員姿勢推定装置。
  2. 請求項1に記載の乗員姿勢推定装置において、
    前記シートベルト検出手段で検出したシートベルト領域を小領域に分割し、該分割した小領域ごとのオプティカルフローを算出することにより、前記小領域の速度ベクトルの算出を行う速度算出手段を備え、
    前記補正手段は、
    さらに、前記関節モデルの腕がシートベルト領域内を通過する際に、前記速度算出手段により算出した速度ベクトルに基づき、前記関節モデルの特徴点位置を補正することを特徴とする乗員姿勢推定装置。
  3. 請求項1に記載の乗員姿勢推定装置において、
    前記シートベルト検出手段で検出したシートベルト領域を腕が切断する領域を検出するシートベルト切断領域検出手段を備え、
    補正手段は、
    前記シートベルト切断領域検出手段で検出したシートベルト領域における腕の位置に、前記関節モデルの手、肘及び肩の特徴点が適合するように、前記関節モデルの特徴点位置を補正することを特徴とする乗員姿勢推定装置。
  4. 請求項3に記載の乗員姿勢推定装置において、
    前記補正手段は、
    前記シートベルト切断領域検出手段で検出したシートベルト切断領域と前記関節モデルの腕との被覆領域を算出し、該算出した被覆領域が最大となるように、前記関節モデルの特徴点位置を補正することを特徴とする乗員姿勢推定装置。
  5. 請求項4に記載の乗員姿勢推定装置において、
    前記シートベルト切断領域検出手段で検出したシートベルト切断領域の、前記シートベルトを横断する方向の両端部が形成する2本の線分の位置と傾きを算出する切断線分算出手段を備え、
    前記補正手段は、
    前記関節モデルの腕の位置と傾きとが、前記切断線分算出手段で算出した2本の線分の位置と傾きとに適合するように、前記関節モデルの特徴点位置をさらに補正することを特徴とする乗員姿勢推定装置。
  6. 請求項5に記載の乗員姿勢推定装置において、
    前記シートベルト切断領域検出手段で検出したシートベルト切断領域の重心と関節モデルの腕領域の重心間距離を算出し、該算出した重心間距離が所定の閾値以上か否かを判定する重心距離判定手段と、
    前記画像取得手段で取得した画像から乗員の領域のみを抽出し、該抽出した乗員の領域と前記関節モデルの腕との被覆領域を算出する被覆領域算出手段と、
    前記シートベルト領域を一つの対角線として前記乗員の上半身を囲む矩形である上半身矩形を算出する上半身矩形算出手段と、
    を備え、
    前記補正手段は、
    前記重心距離判定手段により前記重心距離が前記所定の閾値以上と判定された場合には、前記被覆領域算出手段で算出された被覆領域が最大となるように、前記関節モデルの特徴点位置を補正し、
    さらに、前記関節モデルの腕の位置と傾きとが、前記切断線分算出手段で算出した2本の線分の位置と傾きとに適合するように、前記関節モデルの特徴点位置を補正し、
    前記所定の閾値より低いと判定された場合には、前記被覆領域算出手段で算出された被覆領域が最大となるように、前記関節モデルの特徴点位置を補正し、
    さらに、前記被覆領域が最大となるように補正された特徴点のうち手の特徴点位置が前記上半身矩形算出手段で算出された上半身矩形内となった場合には、
    前記シートベルト切断領域検出手段で検出したシートベルト切断領域と前記関節モデルの腕領域との被覆領域を算出し、該算出した被覆領域が最大となるように、前記関節モデルの特徴点位置を補正し、
    さらに、前記関節モデルの腕の位置と傾きとが、前記切断線分算出手段で算出した2本の線分の位置と傾きとに適合するように、前記関節モデルの特徴点位置を補正することを特徴とする乗員姿勢推定装置。
  7. 請求項1〜請求項6の何れかに記載の乗員姿勢推定装置において、
    前記画像取得手段で車室内の画像を取得する際に前記車室内を照らす照明手段を備えていることを特徴とする乗員姿勢推定装置。
  8. 請求項7に記載の乗員姿勢推定装置において、
    前記照明手段は、赤外線を照射する赤外線照明であり、
    前記照明手段が照射する波長領域の赤外線の吸収率が所定の値以上の素材を用いたシートベルトを備えていることを特徴とする乗員姿勢推定装置。
JP2009059529A 2009-03-12 2009-03-12 乗員姿勢推定装置 Expired - Fee Related JP5136473B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009059529A JP5136473B2 (ja) 2009-03-12 2009-03-12 乗員姿勢推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009059529A JP5136473B2 (ja) 2009-03-12 2009-03-12 乗員姿勢推定装置

Publications (2)

Publication Number Publication Date
JP2010211705A true JP2010211705A (ja) 2010-09-24
JP5136473B2 JP5136473B2 (ja) 2013-02-06

Family

ID=42971756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009059529A Expired - Fee Related JP5136473B2 (ja) 2009-03-12 2009-03-12 乗員姿勢推定装置

Country Status (1)

Country Link
JP (1) JP5136473B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012101962A1 (ja) * 2011-01-24 2012-08-02 パナソニック株式会社 姿勢状態推定装置および姿勢状態推定方法
EP3239900A1 (en) 2016-04-28 2017-11-01 Panasonic Intellectual Property Management Co., Ltd. Identification device, identification method, and recording medium recording identification program
JP2019096212A (ja) * 2017-11-27 2019-06-20 富士通株式会社 手位置検出方法、手位置検出装置、及び手位置検出プログラム
US20190266425A1 (en) * 2018-02-26 2019-08-29 Panasonic Intellectual Property Management Co., Ltd. Identification apparatus, identification method, and non-transitory tangible recording medium storing identification program
JP2022528847A (ja) * 2019-03-28 2022-06-16 アークソフト コーポレイション リミテッド 手によるハンドルの把握状態の検出方法及び装置
JP2022548460A (ja) * 2020-08-07 2022-11-21 上▲海▼商▲湯▼▲臨▼▲港▼智能科技有限公司 シートベルト装着検知方法、装置、電子デバイス、記憶媒体並びにプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008068742A (ja) * 2006-09-14 2008-03-27 Honda Motor Co Ltd 車両のシートベルト装置
JP2009015671A (ja) * 2007-07-06 2009-01-22 Sony Corp 情報処理装置および方法、並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008068742A (ja) * 2006-09-14 2008-03-27 Honda Motor Co Ltd 車両のシートベルト装置
JP2009015671A (ja) * 2007-07-06 2009-01-22 Sony Corp 情報処理装置および方法、並びにプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600207B2 (en) 2011-01-24 2020-03-24 Panasonic Corporation Posture state estimation apparatus and posture state estimation method
JP2012155391A (ja) * 2011-01-24 2012-08-16 Panasonic Corp 姿勢状態推定装置および姿勢状態推定方法
CN102971768A (zh) * 2011-01-24 2013-03-13 松下电器产业株式会社 姿势状态估计装置及姿势状态估计方法
US9646381B2 (en) 2011-01-24 2017-05-09 Panasonic Corporation State-of-posture estimation device and state-of-posture estimation method
WO2012101962A1 (ja) * 2011-01-24 2012-08-02 パナソニック株式会社 姿勢状態推定装置および姿勢状態推定方法
EP3731141A1 (en) 2016-04-28 2020-10-28 Panasonic Intellectual Property Management Co., Ltd. Identification device, identification method, and recording medium recording identification program
US10255485B2 (en) 2016-04-28 2019-04-09 Panasonic Intellectual Property Management Co., Ltd. Identification device, identification method, and recording medium recording identification program
EP3239900A1 (en) 2016-04-28 2017-11-01 Panasonic Intellectual Property Management Co., Ltd. Identification device, identification method, and recording medium recording identification program
JP2019096212A (ja) * 2017-11-27 2019-06-20 富士通株式会社 手位置検出方法、手位置検出装置、及び手位置検出プログラム
US20190266425A1 (en) * 2018-02-26 2019-08-29 Panasonic Intellectual Property Management Co., Ltd. Identification apparatus, identification method, and non-transitory tangible recording medium storing identification program
JP2022528847A (ja) * 2019-03-28 2022-06-16 アークソフト コーポレイション リミテッド 手によるハンドルの把握状態の検出方法及び装置
JP7253639B2 (ja) 2019-03-28 2023-04-06 アークソフト コーポレイション リミテッド 手によるハンドルの把握状態の検出方法及び装置
JP2022548460A (ja) * 2020-08-07 2022-11-21 上▲海▼商▲湯▼▲臨▼▲港▼智能科技有限公司 シートベルト装着検知方法、装置、電子デバイス、記憶媒体並びにプログラム
JP7288097B2 (ja) 2020-08-07 2023-06-06 上▲海▼商▲湯▼▲臨▼▲港▼智能科技有限公司 シートベルト装着検知方法、装置、電子デバイス、記憶媒体並びにプログラム

Also Published As

Publication number Publication date
JP5136473B2 (ja) 2013-02-06

Similar Documents

Publication Publication Date Title
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
JP5136473B2 (ja) 乗員姿勢推定装置
JP7052174B2 (ja) 将来経路を推定するシステム及び方法
JP5592441B2 (ja) 配光制御装置
CN106663193B (zh) 用于路缘检测和行人危险评估的系统和方法
JP4899424B2 (ja) 物体検出装置
JP6398347B2 (ja) 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
JP5949861B2 (ja) 車両の接近物体検出装置及び車両の接近物体検出方法
JP2009169510A (ja) 車線認識装置、車線認識方法および車線認識プログラム
JP2008230296A (ja) 車両用運転支援システム
JP6377970B2 (ja) 視差画像生成装置及び視差画像生成方法
JP2004145660A (ja) 障害物検出装置
JP4645433B2 (ja) 図形中心検出方法、楕円検出方法、画像認識装置、制御装置
JP3888055B2 (ja) オプティカルフローを利用した列車前方異常検出装置
JP2006099611A (ja) 人物検出装置及び方法
JP6708152B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP2009140305A (ja) 車両用情報提示装置
JP2008042759A (ja) 画像処理装置
KR20150067679A (ko) 차량용 제스처 인식 시스템 및 그 방법
JP6172474B2 (ja) 車両用歩行者検出装置
WO2018167997A1 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP7356372B2 (ja) 立体物検出装置、車載システム、及び立体物検出方法
JP2015108941A (ja) 車両用の画像認識装置
JP7053342B2 (ja) 処理装置、及びプログラム
JP7356371B2 (ja) 立体物検出装置、車載システム、及び立体物検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121029

R151 Written notification of patent or utility model registration

Ref document number: 5136473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees