JP2018156212A - 体格判定装置、体格判定方法およびプログラム - Google Patents

体格判定装置、体格判定方法およびプログラム Download PDF

Info

Publication number
JP2018156212A
JP2018156212A JP2017050666A JP2017050666A JP2018156212A JP 2018156212 A JP2018156212 A JP 2018156212A JP 2017050666 A JP2017050666 A JP 2017050666A JP 2017050666 A JP2017050666 A JP 2017050666A JP 2018156212 A JP2018156212 A JP 2018156212A
Authority
JP
Japan
Prior art keywords
head
physique
seat
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017050666A
Other languages
English (en)
Inventor
能久 浅山
Yoshihisa Asayama
能久 浅山
村下 君孝
Kimitaka Murashita
君孝 村下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017050666A priority Critical patent/JP2018156212A/ja
Publication of JP2018156212A publication Critical patent/JP2018156212A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】人の体格をより高精度に判定することができる体格判定装置、体格判定方法およびプログラムを提供すること。【解決手段】体格判定装置は、シートに着座している人を含む複数の画像を取得する取得部と、前記複数の画像から、前記人の頭部が最も小さく写っている画像における前記頭部の位置を特定する頭部位置特定部と、前記頭部の位置と前記シートとの位置関係に基づいて、前記人の体格を判定する体格判定部と、を備える。【選択図】図1

Description

本発明は、体格判定装置、体格判定方法およびプログラムに関する。
近年では、自動車の乗員の体の大きさ、すなわち体格に応じてエアバッグの膨張力を調節する技術が広く利用されており、この技術を採用しているエアバッグはスマートエアバッグと呼ばれている。スマートエアバッグによれば、エアバッグが作動したときに、膨らんだエアバッグによって乗員が怪我をしたり窒息したりする事故が発生するのを防ぐことができる。エアバッグの膨張力を調節するために、例えば各シートに荷重センサなどのセンサを取り付け、センサから得られた情報に基づいて体格を判定する方法が用いられている。
特開2002−8021号公報 特開2010−203836号公報 特開2007−22401号公報 特開2008−230366号公報
乗員の体格を判定した結果が実際の体格と異なった場合には、エアバッグの膨張力の調節が適切に行われないかもしれない。乗員の体格を判定した結果と実際の体格が大きく異なる場合、上述の怪我や窒息などの事故を防ぐことが困難となるかもしれない。このため、スマートエアバッグを利用する際には、乗員である人の体格をより高精度に判定できることが望ましい。
本発明の1つの側面では、人の体格をより高精度に判定することができる体格判定装置、体格判定方法およびプログラムを提供することを目的とする。
発明の一観点によれば、シートに着座している人の前方から撮影された複数の画像を取得する取得部と、前記複数の画像の中で、少なくとも前記人の頭部が最も小さく写っている画像における前記頭部の位置を特定する頭部位置特定部と、前記頭部の位置と前記シートとの位置関係に基づいて、前記人の体格を判定する体格判定部と、を有する体格判定装置が提供される。
一実施態様によれば、人の体格をより高精度に判定することができる体格判定装置、体格判定方法およびプログラムを提供することができる。
図1は、システムの一例を示す図である。 図2は、体格判定装置のハードウェア構成の一例を示す図である。 図3は、システムによって実行される処理の一例を示すフローチャート(その1)である。 図4は、S102の処理の一例を示すフローチャートである。 図5は、車室内の画像の一例を示す図である。 図6は、複数の領域の設定方法を説明するための図である。 図7は、S107の処理の一例を示すフローチャートである。 図8は、S107の処理の別の一例を示すフローチャートである。 図9は、シート背面部の左端に接する直線および右端に接する直線の一例を示す図である。 図10は、システムによって実行される処理の一例を示すフローチャート(その2)である。 図11は、乗員の姿勢の一例を示す図である。 図12は、S117の処理の一例を示すフローチャートである。
以下、本発明の実施形態について、図1乃至図12を参照して具体的に説明する。
図1は、システムの一例を示す図である。図1に示すように、システム1は、体格判定装置10と、カメラ30と、エアバッグ装置40とを含み、本実施形態では、自動車の中に備えられている。体格判定装置10は、カメラ30およびエアバッグ装置40と接続されている。
体格判定装置10は、人の体格を判定する処理を実行するためのコンピュータである。
カメラ30は、車室内の画像を撮影するための車載カメラである。カメラ30は、例えばルームミラー付近など、車室内の全ての着座位置を見渡せる前方の位置に設置される。カメラ30は、車室内の画像を撮影すると、撮影した画像を体格判定装置10に送信することができる。カメラ30は、例えばCMOS(complementary metal oxide semiconductor)カメラまたはCCD(charge coupled device)カメラである。
エアバッグ装置40は、自動車が物体に衝突したときに、エアバッグを作動させるための装置である。エアバッグ装置40は、衝突を感知したときに、エアバッグ装置40に備えられているインフレータ(ガス供給装置)内のガス発生剤を着火させ、着火によって起こる化学反応によってガスを発生させる。そして、エアバッグ装置40は、発生したガスが燃焼して膨張することによって、エアバッグを膨らませることができる。
次に、体格判定装置10の機能ブロックについて説明する。図1に示すように、体格判定装置10は、第1記憶部11と、第2記憶部12と、画像取得部13と、シート位置特定部14と、領域設定部15と、頭部検出部16と、判定部17と、頭部位置特定部18と、体格判定部19と、エアバッグ制御部20とを備えている。以下、各部の機能について説明する。
第1記憶部11は、体格判定装置10が実行するプログラムを記憶する。
第2記憶部12は、体格判定装置10が実行する処理に用いられる情報を格納する。例えば、第2記憶部12は、車室内に設置されている各シートおよびカメラの寸法情報を格納する。寸法情報は、例えばシートの外形寸法、シートを前後にスライドさせた場合、またはリクライニングさせた場合における、シートの可動範囲、カメラの各種パラメータ(内部パラメータおよび外部パラメータ)、カメラの設置位置に関する情報、ヘッドレスト分離型か、あるいはヘッドレスト一体型かを示すシートの種別情報、画像内のシート座面部の下端が写る領域に関する情報などである。第2記憶部12は、記憶部の一例である。
画像取得部13は、カメラ30から、カメラ30が撮影した車室内の画像を取得する。
シート位置特定部14は、画像取得部13が取得した車室内の画像から、シート背面部の位置を特定する。シート背面部は、シートの背もたれに相当する部位であり、シートバックあるいはバックレストなどと呼ばれることがある。
領域設定部15は、シート位置特定部14によって特定されたシート背面部の上端および下端の位置に基づいて、画像上のシート背面部の領域を、シート背面部の高さ方向に沿った複数の領域に区分する。区分方法の詳細については後述する。
頭部検出部16は、画像取得部13が取得した画像から、乗員の頭部を検出する。
判定部17は、体格判定装置10によって行われる各種の判定処理を実行する。
頭部位置特定部18は、画像取得部13が取得した複数の画像から、乗員の頭部が最も小さく写っている画像における、頭部の位置を特定する。
体格判定部19は、領域設定部15によって設定された複数の領域と、頭部位置特定部18によって特定された頭部の位置とに基づいて、乗員の体格を判定する。
エアバッグ制御部20は、乗員の体格の判定結果に基づいて、エアバッグ装置40を制御する。
次に、体格判定装置10のハードウェア構成について説明する。
図2は、体格判定装置のハードウェア構成の一例を示す図である。図2に示すように、体格判定装置10は、CPU(Central Processing Unit)61、ROM(Read Only Memory)62、RAM(Random Access Memory)63およびストレージ装置64等を備えている。
CPU61は、体格判定装置10の処理を管理または実行するハードウェアであり、プロセッサの一例である。プロセッサとして、MPU(Micro Processing Unit)若しくはDSP(Digital Signal Processor)などの他の処理回路が使用されてもよい。CPU61は、図1に示す画像取得部13、シート位置特定部14、領域設定部15、頭部検出部16、判定部17、頭部位置特定部18、体格判定部19およびエアバッグ制御部20の一例である。
ROM62、RAM63およびストレージ装置64は、CPU61が実行する処理に用いられるデータおよびプログラムを格納するハードウェアである。ストレージ装置64は、例えばHDD(Hard Disk Drive)である。ROM62およびストレージ装置64は、図1に示す第1記憶部11の一例である。RAM63およびストレージ装置64は、図1に示す第2記憶部12の一例である。
体格判定装置10の構成各部は、バス65を介して相互にデータ通信可能なようにバス65に接続されている。体格判定装置10では、ROM62あるいはストレージ装置64に格納されているプログラムをCPU61等のプロセッサが実行することにより、体格判定装置10の機能が実現される。なお、当該プログラムは、RAM63にロードされ、CPU61等のプロセッサによって実行されてもよい。なお、体格判定装置10は、可搬型記憶媒体用ドライブを備えていてもよい。この場合、可搬型記憶媒体用ドライブが可搬型記憶媒体から読み取ったプログラムをCPU61等のプロセッサが実行することにより、体格判定装置10の機能を実現することができる。また、体格判定装置10は、他の機器又はコンピュータと通信するためのネットワークインタフェースを備えていてもよい。
次に、体格判定装置10によって実行される処理について説明する。
図3は、体格判定装置によって実行される処理の一例を示すフローチャート(その1)である。まず、カメラ30が車室内の画像を撮影する。そして、体格判定装置10の画像取得部13は、カメラ30から車室内の画像を取得する(S101)。
続いて、シート位置特定部14は、取得した車室内の画像から、図5に例示するシート背面部55の上端および下端の位置を特定する(S102)。ここで、S102の処理の一例について説明する。
図4は、S102の処理の一例を示すフローチャートである。
まず、シート位置特定部14は、S101で取得した画像内に、シート背面部55の上端を包含する第1の領域と、図5に例示するシート座面部53の下端を包含する第2の領域を設定する(S201)。S201では、シートの寸法情報に含まれるシートの可動範囲に基づいて設定する。S201の処理によれば、画像認識処理の対象範囲を限定させることができるため、処理時間の短縮化を図ることができる。
S201の処理の後、シート位置特定部14は、第1の領域および第2の領域の各々について、領域内の画像からエッジ画像を生成する(S202)。エッジ画像は、物体のエッジによって構成される像であり、元画像から公知の方法を用いて生成することができる。
続いて、シート位置特定部14は、エッジ画像を二値化する(S203)。
続いて、シート位置特定部14は、第1の領域および第2の領域の各々について、二値化されたエッジ画像から複数の直線成分(直線エッジ)を抽出する(S204)。直線エッジは、公知の方法を用いて抽出することができる。抽出方法としては、例えば、Hough変換を用いることができる。
続いて、シート位置特定部14は、第1の領域および第2の領域の各々について、S204で抽出された複数の直線エッジから、画像の中で水平方向に延在する複数の直線成分(水平直線エッジ)を抽出する(S205)。
続いて、シート位置特定部14は、第1の領域および第2の領域の各々について、複数の水平直線エッジから、シートを構成する水平直線エッジを特定する(S206)。シートを構成する水平直線エッジを抽出する方法としては、例えば、複数の水平直線エッジの中から、水平直線エッジの上側における所定の面積の画素値の総和と、エッジの下側における所定の面積の画素値の総和との差分が最も大きい水平直線エッジを選択する方法を用いることができる。例えば、シート背面部55の上端の上側の領域は、下側の領域に相当するシート背面部55よりも暗く写るため、上述の差分が顕著になる。また、シート座面部53の下端の下側の領域は、上側の領域に相当するシート座面部53よりも暗く写るため、上述の差分が顕著になる。シートを構成する水平直線エッジを抽出する他の方法としては、例えば、複数の水平直線エッジの各々に基づいて、エッジの端部の位置座標および傾きの平均値を算出し算出した平均値に基づいて1本の仮想的な水平直線エッジを生成する方法を用いることもできる。あるいは、複数の水平直線エッジの中から、エッジ強度が最大の水平直線エッジを選択する方法を用いることもできる。あるいは、複数の水平直線エッジの中から、傾きが最も水平の水平直線エッジを選択する方法を用いることもできる。
S206の処理の後、シート位置特定部14は、第1の領域における水平直線エッジをシート背面部55の上端の線分として特定する(S207)。
続いて、シート位置特定部14は、第2の領域における水平直線エッジと、前述のシートの寸法情報とに基づいて、シート背面部55の下端の線分を特定する(S208)。S208では、第2の領域における水平直線エッジの位置をシート座面部53の下端の位置と仮定した上で、シートの寸法情報から、シート背面部55の下端の線分を特定する。S208の処理の後、S103に移る。
以上のようにして、S102の処理が実行される。
図5は、車室内の画像の一例を示す図である。図5に示すように、左側の運転席のシート座面部51には、乗員52が座っている。また、右側の助手席のシート座面部53には、乗員54が座っている。図5の例では、乗員54は、背中をシート背面部55に接触させ、且つ頭部をヘッドレスト56に接触させている。運転席および助手席の後ろには後部座席が設置されていることがあるが、図5では省略されている。本発明によれば、乗員が、運転席、助手席または後部座席のいずれの席に着座していても、体格を判定することができる。以降では、助手席のシート座面部53に着座している乗員54の体格を判定する方法について説明する。図5には、3本の破線が示されており、3本の破線は、上から助手席のシート背面部55の上端、シート背面部55の下端およびシート座面部53の下端を示している。
図3に戻り、S102の処理の後、領域設定部15は、シート背面部55の上端および下端の位置に基づいて、画像内に複数の領域を設定する(S103)。S103では、まず領域設定部15は、画像内でのシート背面部55の上端の高さおよび下端の高さの差分を算出する。以降では、この差分を「画像内でのシート背面部55の長さ」と定義して説明する。続いて、領域設定部15は、第2記憶部12に予め格納しておいたシートの寸法情報から、シート背面部55の実際の長さの値を取得する。続いて、領域設定部15は、画像内でのシート背面部55の長さL1に対する、シート背面部55の実際の長さL2の比率R(L2/L1)を算出する。例えば、画像内でのシート背面部55の長さL1が180pixelであり、実際の長さL2が60cmとすると、比率Rは、R=L2/L1=180/60=3pixel/cmと算出される。続いて、領域設定部15は、算出した比率Rに基づいて、画像内に複数の領域を設定する。
図6は、複数の領域の設定方法を説明するための図である。図6では、説明の便宜上、乗員の図示を省略している。ここでは、上述の数値例を用いて、画像内に3つの領域を設定する場合について説明する。乗員の座高に基づいて、座高62cm以上、座高50〜62cm、および座高50cm以下、の各範囲に対応する3つの領域を設定する場合、領域設定部15は、領域を区分するための2本の境界線のうちの1本目の境界線を、シート背面部55の上端から2cm上の位置に設定する。この場合、領域設定部15は、比率Rを用いて、画像内における、シート背面部55の上端から6pixel(=3pixel/cm×2cm)上の位置に境界線を設定する。図6中のラインAは、1本目の境界線を示している。さらに、2本目の境界線を、シート背面部55の上端から10cm下の位置に設定する。この場合、領域設定部15は、比率Rを用いて、画像内における、シート背面部55の上端から30pixel(=3pixel/cm×10cm)下の位置に境界線を設定する。図6中のラインBは、2本目の境界線を示している。続いて、領域設定部15は、2本の境界線を用いて、3つの領域を設定する。図6に示すように、領域設定部15は、画像内における、ラインAよりも上の領域を領域Lとして設定する。そして、画像内における、ラインAとラインBとの間の領域を領域Mとして設定する。そして、画像内における、ラインBよりも下の領域を領域Sとして設定する。以上のようにして、領域設定部15は、シート背面部55の高さ方向に沿った複数の領域(領域L、領域Mおよび領域S)を画像内に設定する。
図3に戻り、S103の処理の後、頭部検出部16は、画像から乗員の頭部を検出する(S104)。頭部の検出方法としては、S102の処理と同様に、画像から抽出した特徴点に基づいて物体のエッジや輪郭を特定し、物体を認識する公知の方法を用いることができる。
続いて、判定部17は、画像から乗員の頭部が検出されたか判定する(S105)。例えば、助手席を対象にS105の処理を実行する場合、車内に運転手しか乗っていない場合には、助手席には乗員は存在しない。この場合、画像から乗員の頭部は検出されないと判定される。S105において、乗員の頭部が検出されなかったと判定された場合(S105:No)、体格の判定対象が存在しないため、一連の処理を終了する。
一方、乗員の頭部が検出されたと判定された場合(S105:Yes)、頭部位置特定部18は、検出した頭部に基づいて、頭部の位置およびサイズを特定する(S106)。頭部の位置は、例えば画像上の頭部の中心座標である。頭部の位置を画像上の頭部の中心座標とすることによって、乗員の髪型に起因して位置の誤認識が生じる可能性を最小限に抑えることができる。頭部のサイズは、例えば画像上の頭部に相当する領域を構成する画素数、または画像上の頭部の面積である。
続いて、判定部17は、特定された頭部の位置に基づいて、頭部がシート背面部55の横幅の中央に位置するか判定する(S107)。ここで、S107の処理の一例について説明する。
図7は、S107の処理の一例を示すフローチャートである。まず、シート位置特定部14は、S102の処理の中で特定されたシート背面部55の上端の線分に基づいて、シート背面部55の上端の線分の中点を通り、シートの高さ方向に沿って延びる中心線を算出する(S301)。ここで算出された中心線が、シートの横幅の中央の位置に相当する。実世界においては、特定された線分と中心線とは垂直に交わる。
続いて、シート位置特定部14は、S106で特定した頭部の中心座標と、S301で算出した中心線との最短距離を算出する(S302)。
続いて、判定部17は、算出された最短距離が所定の閾値以下であるか判定する(S303)。算出された最短距離が所定の閾値以下であると判定された場合(S303:Yes)、判定部17は、頭部がシート背面部55の横幅の中央に位置すると判定する(S304)。一方、算出した最短距離が所定の閾値よりも長いと判定された場合(S303:No)、判定部17は、頭部がシート背面部55の横幅の中央に位置しないと判定する(S305)。
以上のようにして、S107の処理が実行される。
次に、S107の処理の別の一例について説明する。
図8は、S107の処理の別の一例を示すフローチャートである。まず、シート位置特定部14は、公知の画像認識方法により、画像からシート背面部55の左端および右端の輪郭をそれぞれ特定する(S401)。なお、S401では、必ずしも左端および右端の各々の全体の輪郭を特定する必要はなく、特定する輪郭は一部の輪郭であってもよい。
続いて、シート位置特定部14は、シート背面部55の左端および右端のそれぞれの輪郭に基づいて、左端に接する直線および右端に接する直線を算出する(S402)。
図9は、シート背面部の左端に接する直線および右端に接する直線の一例を示す図である。図9では、説明の便宜上、運転席の乗員の図示を省略している。図9では、シート背面部55の左端に接する直線および右端に接する直線を、それぞれ破線で示している。なお、図9では、2本の破線は平行に描かれているが、必ずしも平行でなくてもよい。
図8に戻り、S402の処理の後、シート位置特定部14は、シート背面部55の左端に接する直線および右端に接する直線に基づいて、両直線の中心に位置する中心線を算出する(S403)。図9では、算出された中心線を一点鎖線で示している。
図8に戻り、S403の処理の後、シート位置特定部14は、S106で特定した頭部の中心座標と、S403で算出した中心線との最短距離を算出する(S404)。
続いて、判定部17は、算出された最短距離が所定の閾値以下であるか判定する(S405)。算出された最短距離が所定の閾値以下であると判定された場合(S405:Yes)、判定部17は、頭部がシート背面部55の横幅の中央に位置すると判定する(S406)。一方、算出した最短距離が所定の閾値よりも長いと判定された場合(S405:No)、判定部17は、頭部がシート背面部55の横幅の中央に位置しないと判定する(S407)。
以上のようにして、S107の処理が実行される。
図3に戻り、S107において、頭部がシート背面部55の横幅の中央に位置しないと判定された場合(S107:No)、S101に戻り、S101以降の処理を再び実行する。一方、頭部がシート背面部55の横幅の中央に位置すると判定された場合(S107:Yes)、頭部位置特定部18は、S106で特定された頭部の位置およびサイズの情報を、頭部情報の初期値として格納する(S108)。この頭部情報は、例えば第2記憶部12に格納され、複数の画像の中から体格の判定に用いる画像を抽出するのに用いられる。このサイズの情報は、第1のサイズの一例である。頭部位置特定部18は、初期値を格納したときに時間の計測を開始する。その後、図10のS109に移る。
図10は、システムによって実行される処理の一例を示すフローチャート(その2)である。
S108の処理の後、画像取得部13は、カメラ30から車室内の画像を取得する(S109)。S109の処理は、図3に示すS101の処理と同様である。
続いて、頭部検出部16は、画像から乗員の頭部を検出する(S110)。S110の処理は、図3に示すS104の処理と同様である。
続いて、判定部17は、取得した画像から、乗員の頭部が検出されたか判定する(S111)。S111において、乗員の頭部が検出されなかったと判定された場合(S111:No)、体格を判定する対象の乗員が存在しないことになるため、一連の処理を終了する。一方、乗員の頭部が検出されたと判定された場合(S111:Yes)、頭部位置特定部18は、検出した頭部に基づいて、頭部の位置およびサイズを特定する(S112)。S112の処理は、図3に示すS106の処理と同様である。S112の処理で特定されたサイズは、第2のサイズの一例である。
続いて、判定部17は、特定された頭部の位置に基づいて、頭部がシート背面部55の横幅の中央に位置するか判定する(S113)。S113の処理は、図3に示すS107の処理と同様である。
S113において、頭部がシート背面部55の横幅の中央に位置すると判定されなかった場合(S113:No)、S116に移る。S116の処理については後述する。一方、頭部がシート背面部55の横幅の中央に位置すると判定された場合(S113:Yes)、判定部17は、頭部のサイズが最小か判定する(S114)。ここで、S113およびS114の処理の背景について説明する。
図11は、乗員の姿勢の一例を示す図である。図11では、説明の便宜上、運転席の乗員の図示を省略している。図11(a)は、シートに深く座っている乗員54が写った画像の例を示している。図11(a)の例では、乗員54は背中をシート背面部55に接触させ、且つ頭部をヘッドレスト56に接触させている。図11(b)は、シートに浅く座っている乗員54が写った画像の例を示している。図11(b)の例では、乗員54は、背中をシート背面部55に接触させていない。
図11(a)および図11(b)に示すように、シートに浅く座っているときよりも、シートに深く座っているときの方が、頭部がより小さく写っていることがわかる。これは、カメラ30がシートの前方に配置されている場合、シートに浅く座っているときよりも、シートに深く座っているときの方が、乗員の頭部とカメラとの距離が長くなるからである。
この知見を踏まえ、本実施形態では、体格判定装置10は、体格をより正確に判定するため、シートに着座している人を含む複数の画像を取得し、複数の画像の中から、乗員の頭部が最も小さく写っている画像を抽出する。このとき、頭部がシート背面部55の横幅の中央に位置していることが望ましい。S113およびS114の処理は、乗員の頭部が最も小さく、且つ頭部がシート背面部55の横幅の中央に位置しているときの画像を抽出するために実行される処理である。体格判定装置10は、抽出した画像から特定した頭部の位置情報を体格の判定に用いることによって、体格をより正確に判定することができる。
図10に戻り、S114では、S112で特定された頭部のサイズを、第2記憶部12に格納されている頭部情報に含まれる頭部のサイズと比較する。頭部情報に含まれる頭部のサイズは、S114の処理を実行する時点で、暫定的に最小であると判定されている頭部のサイズである。判定部17は、S112で特定された頭部のサイズが、第2記憶部12に格納されている頭部情報に含まれる頭部のサイズよりも小さい場合に、S112で特定された頭部のサイズが最小であると判定する。
S112で特定された頭部のサイズが最小であると判定された場合(S114:Yes)、頭部位置特定部18は、第2記憶部12に格納されている頭部情報を更新する(S115)。S115では、第2記憶部12に格納されている頭部情報を、S112で特定された頭部の位置およびサイズを含む頭部情報で置き換えることによって更新する。その後、S116に移る。一方、S112で特定された頭部のサイズが最小であると判定されなかった場合(S114:No)、S116に移る。
その後、判定部17は、S108で時間の計測が開始されてから、所定の時間が経過したかを判定する(S116)。所定の時間は、例えば2〜3分程度である。所定の時間が経過したと判定されなかった場合(S116:No)、S109に戻り、S109以降の処理を再び実行する。一方、所定の時間が経過したと判定された場合(S116:Yes)、判定部17は、画像を取得するために設定した所定の時間帯が終了したと判定する。そして、体格判定部19は、第2記憶部12に格納されている頭部情報に含まれる頭部の位置情報に基づいて、乗員の体格を判定する(S117)。ここで、S117の処理の一例について説明する。
図12は、S117の処理の一例を示すフローチャートである。
図10に示すS116の処理でYesと判定された場合、体格判定部19は、第2記憶部12に格納されている頭部情報に含まれる頭部の位置情報を読み出す(S501)。この頭部の位置情報は、サイズが最小と判定された頭部の、画像における位置情報を示している。
続いて、体格判定部19は、読み出された頭部の位置情報に基づいて、頭部の位置が領域Mに位置するかを判定する(S502)。S502では、例えば頭部の位置情報が頭部の中心座標を示す場合、中心座標が図6において定義した領域Mに含まれるかを判定する。
頭部の位置が領域Mに位置すると判定された場合(S502:Yes)、体格判定部19は、乗員54の体格がミドルサイズであると判定する(S503)。そして、S118に移る。S118の処理については後述する。一方、頭部の位置が領域Mに位置すると判定されなかった場合(S502:No)、体格判定部19は、頭部の位置が領域Lに位置するかを判定する(S504)。
頭部の位置が領域Lに位置すると判定された場合(S504:Yes)、体格判定部19は、乗員54の体格がラージサイズであると判定する(S505)。そして、S118に移る。一方、頭部の位置が領域Lに位置すると判定されなかった場合(S504:No)、体格判定部19は、頭部の位置が領域Sに位置するかを判定する(S506)。
頭部の位置が領域Sに位置すると判定された場合(S506:Yes)、体格判定部19は、乗員54の体格がスモールサイズであると判定する(S507)。そして、S118に移る。一方、頭部の位置が領域Sに位置すると判定されなかった場合(S506:No)、体格判定部19は、上述のいずれのサイズにも該当しないと判定し、処理を終了する。
以上のようにして、S117の処理が実行される。
なお、上述の判定処理で、頭部の位置が領域LまたはSに位置するかを判定する処理よりも前に、頭部の位置が領域Mに位置するかを判定する処理を実行しているのは、一般的に、乗員54の体格がラージサイズまたはスモールサイズであると判定される確率よりも、ミドルサイズであると判定される確率の方が高いからである。この実行順序によれば、頭部の位置が領域LまたはSに位置するかを判定する処理を省略できる確率が高くなるため、処理時間の短縮化を図ることができる。
図10に戻り、S117の処理の後、エアバッグ制御部20は、判定結果に基づいて、エアバッグ装置を制御する(S118)。具体的には、例えばエアバッグ制御部20は、判定結果に基づいてエアバッグの爆発量を決定する。そして、エアバッグ制御部20は、決定した爆発量を指示するための制御信号を、エアバッグ装置40に送信する。
その後、エアバッグ装置40は、エアバッグ制御部20から制御信号を受信し、制御信号に含まれる情報に応じて、エアバッグの爆発量を調節する。具体的には、体格毎に、エアバッグに注入される空気の圧力の値を設定し、判定された体格に応じた圧力の値を選択することによって、エアバッグの膨張力(展開速度)を調整する。例えば、体格が大きいほど圧力が高くなるように、空気の圧力の値を設定する。
以上のようにして、体格判定装置10は、乗員の体格を判定することができる。
本実施形態によれば、シートに着座している乗員の前方から撮影された複数の画像を取得し、複数の画像の中で、少なくとも該乗員の頭部が最も小さく写っている画像における該頭部の位置を特定し、該位置と該シートとの位置関係に基づいて、該乗員の体格を判定する。この方法によれば、シートの中央に深く座っている乗員の画像を用いて体格を判定することができるため、乗員の体格をより高精度に判定することができる。そして、判定結果に基づいて、乗員の体格に適したエアバッグの動作を行うことができる。
また、自動車の各シートに取り付けられた荷重センサを用いて乗員の体格を判定する方法によれば、乗員と荷物を区別して認識するのが困難であり、荷重センサを複数個設けることによってコストが上昇する恐れもある。一方、本実施形態によれば、1台のカメラを用いることで、乗員と荷物とを区別して認識することが容易となり、コストの上昇を抑える効果も奏する。
また、特許文献1では、画像データ内における、座席の表面に設けられた目標線に対応する線の有無に基づいて乗員の存否を判定することが開示されている。しかし、例えばシートにカバーをつけて座席の表面のデザインを変更させたりした場合には、表面の模様が隠れるため、目標線を検出できなくなる。また、シートをリクライニングさせた場合においても、シートの角度によっては目標線を検出できなくなる恐れがある。一方、本実施形態によれば、頭部の位置と、画像上のシート背面部に設定した複数の領域との関係に基づいて該乗員の体格を判定するため、上述の場合においても乗員の体格の判定を行うことができる。
また、特許文献2では、シートと乗員との外形を画像上で比較することにより、乗員の体格を判定することが開示されている。しかし、例えば乗員がシートに浅く座っている場合には、乗員の画像の高さが低くなるため、乗員の体格を正確に判定できなくなる恐れがある。一方、本実施形態によれば、乗員の頭部が最も小さく写っている画像を抽出し、当該画像における頭部の位置を用いて乗員の体格を判定する。この方法によれば、乗員がシートの中央に深く座っているときの乗員の頭部を用いることができるため、乗員の体格を正確に判定することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は特定の実施形態に限定されるものではなく、種々の変形や変更が可能である。例えば、本実施形態では、自動車の乗員の体格を判定する例を取り上げたが、屋根を持たない若しくは屋根の解放が可能な自動車(コンバーチブル、カブリオレまたはオープンカーと呼ばれることがある)、または背もたれを有するバイク等の乗員の体格を判定することもできる。また、例えば遊園地、床屋、映画館などの建物内や屋外など、車室内以外の場所に設置されているシートに座っている人の体格(または身長)を判定し、判定結果に基づいてシートの高さを調整する装置を制御する場合においても、本発明を適用することが可能である。
なお、前述した体格判定装置および体格判定方法をコンピュータに実行させるコンピュータプログラム、およびそのプログラムを記録した、非一時的なコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、非一時的なコンピュータ読み取り可能な記録媒体は、例えばSDメモリカードなどのメモリカードである。なお、前記コンピュータプログラムは、前記記録媒体に記録されたものに限られず、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されてもよい。
1:システム
10:体格判定装置
11:第1記憶部
12:第2記憶部
13:画像取得部
14:シート位置特定部
15:領域設定部
16:頭部検出部
17:判定部
18:頭部位置特定部
19:体格判定部
20:エアバッグ制御部
30:カメラ
40:エアバッグ装置
51:シート座面部
52:乗員
53:シート座面部
54:乗員
55:シート背面部
56:ヘッドレスト
61:CPU
62:ROM
63:RAM
64:ストレージ装置
65:バス

Claims (7)

  1. シートに着座している人の前方から撮影された複数の画像を取得する取得部と、
    前記複数の画像の中で、少なくとも前記人の頭部が最も小さく写っている画像における前記頭部の位置を特定する頭部位置特定部と、
    前記頭部の位置と前記シートとの位置関係に基づいて、前記人の体格を判定する体格判定部と、
    を有する体格判定装置。
  2. 前記人の頭部が最も小さく写っている画像は、前記人の頭部が前記シートの横幅の中央に位置しているときに撮影された画像である、請求項1記載の体格判定装置。
  3. 前記シートに着座している人を含む画像を取得したときに、前記取得した画像における前記シートの背面部の上端および下端の位置を特定するシート位置特定部と、
    前記上端および下端の位置に基づいて、前記背面部の領域を、前記背面部の高さ方向に沿った複数の領域に区分する領域設定部と、
    を更に有し、
    前記体格判定部は、前記複数の領域の中から、前記頭部の位置に対応する領域を特定することによって、前記人の体格を判定する、請求項1又は2に記載の体格判定装置。
  4. 前記領域設定部は、
    前記上端の位置と前記下端の位置との差分を算出し、
    前記差分と前記シートの寸法情報とに基づいて、前記取得した画像内での前記背面部の長さに対する、前記背面部の実際の長さの比率を算出し、
    前記算出した比率に基づいて、前記背面部の領域を前記複数の領域に区分するための境界線を前記取得した画像内に設定することによって、前記複数の領域を設定する、請求項3記載の体格判定装置。
  5. 前記頭部の第1のサイズと前記頭部の位置とを含む頭部情報を格納する記憶部と、
    前記取得部によって画像が取得された場合、前記取得された画像に含まれる前記頭部の第2のサイズが前記第1のサイズよりも小さいか否かを判定する判定部と、
    を更に有し、
    前記頭部位置特定部は、
    前記頭部情報が初期値として格納されたときに時間の計測を開始し、
    前記判定部によって前記第2のサイズが前記第1のサイズよりも小さいと判定された場合、前記第1のサイズを前記第2のサイズで置き換えることによって、前記記憶部に格納されている前記頭部情報を更新し、
    前記体格判定部は、
    前記時間の計測が開始されてから所定の時間が経過した場合に、前記頭部情報に含まれる頭部の位置情報に基づいて、前記人の体格を判定する、
    請求項1〜4のいずれか1項に記載の体格判定装置。
  6. 体格判定装置によって、
    シートに着座している人の前方から撮影された複数の画像を取得し、
    前記複数の画像の中で、少なくとも前記人の頭部が最も小さく写っている画像における前記頭部の位置を特定し、
    前記頭部の位置と前記シートとの位置関係に基づいて、前記人の体格を判定する、
    体格判定方法。
  7. 体格判定装置に、
    シートに着座している人の前方から撮影された複数の画像を取得する処理と、
    前記複数の画像の中で、少なくとも前記人の頭部が最も小さく写っている画像における前記頭部の位置を特定する処理と、
    前記頭部の位置と前記シートとの位置関係に基づいて、前記人の体格を判定する処理と、
    を実行させるためのプログラム。
JP2017050666A 2017-03-15 2017-03-15 体格判定装置、体格判定方法およびプログラム Pending JP2018156212A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017050666A JP2018156212A (ja) 2017-03-15 2017-03-15 体格判定装置、体格判定方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017050666A JP2018156212A (ja) 2017-03-15 2017-03-15 体格判定装置、体格判定方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2018156212A true JP2018156212A (ja) 2018-10-04

Family

ID=63718122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017050666A Pending JP2018156212A (ja) 2017-03-15 2017-03-15 体格判定装置、体格判定方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2018156212A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281737A1 (ja) * 2021-07-09 2023-01-12 三菱電機株式会社 体格推定装置および体格推定方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281737A1 (ja) * 2021-07-09 2023-01-12 三菱電機株式会社 体格推定装置および体格推定方法
JP7479575B2 (ja) 2021-07-09 2024-05-08 三菱電機株式会社 体格推定装置および体格推定方法

Similar Documents

Publication Publication Date Title
US6757009B1 (en) Apparatus for detecting the presence of an occupant in a motor vehicle
JP2007022401A (ja) 乗員情報検出システム、乗員拘束装置、車両
CN107428302B (zh) 利用车辆内部相机的占用者尺寸和姿势的检测
US6493620B2 (en) Motor vehicle occupant detection system employing ellipse shape models and bayesian classification
US11919465B2 (en) Apparatus for determining build of occupant sitting in seat within vehicle cabin
US8135511B2 (en) Electronic control system, electronic control unit and associated methodology of adapting a vehicle system based on visually detected vehicle occupant information
US20070055427A1 (en) Vision-based occupant classification method and system for controlling airbag deployment in a vehicle restraint system
CN113459982B (zh) 用于乘员分类和基于此调节气囊展开的系统和方法
US20210001796A1 (en) Physique estimation device and physique estimation method
US8897969B2 (en) Collision safety control apparatus and method for vehicle
US20150158447A1 (en) Vehicle emergency call apparatus
EP3560770A1 (en) Occupant information determination apparatus
US20060149426A1 (en) Detecting an eye of a user and determining location and blinking state of the user
CN111601736A (zh) 乘客检测装置、乘客检测系统以及乘客检测方法
US20050151053A1 (en) Infrared proximity sensor for air bag safety
JP2004053324A (ja) 自動車用衝突安全制御装置
JP2018156212A (ja) 体格判定装置、体格判定方法およびプログラム
JP6725392B2 (ja) 乗員影響度推定システム
JP3781021B2 (ja) 乗員位置検出装置
JP3751467B2 (ja) 車載機器制御装置および方法
JP2001331790A (ja) 乗員検知システム
KR102537668B1 (ko) 차량용 승객 보호장치 및 그 제어방법
CN115416547B (zh) 车辆座椅调整方法、装置、设备及存储介质
CN113879243A (zh) 车辆气囊控制方法、存储介质、控制装置和车辆
JP2021024434A (ja) 物体検出装置