JP5302730B2 - 運転者監視装置 - Google Patents

運転者監視装置 Download PDF

Info

Publication number
JP5302730B2
JP5302730B2 JP2009074314A JP2009074314A JP5302730B2 JP 5302730 B2 JP5302730 B2 JP 5302730B2 JP 2009074314 A JP2009074314 A JP 2009074314A JP 2009074314 A JP2009074314 A JP 2009074314A JP 5302730 B2 JP5302730 B2 JP 5302730B2
Authority
JP
Japan
Prior art keywords
driver
tracking
shielding
template
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009074314A
Other languages
English (en)
Other versions
JP2010225089A (ja
Inventor
嘉修 竹前
拓寛 大見
真一 小島
貴志 内藤
悟 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Denso Corp
Priority to JP2009074314A priority Critical patent/JP5302730B2/ja
Publication of JP2010225089A publication Critical patent/JP2010225089A/ja
Application granted granted Critical
Publication of JP5302730B2 publication Critical patent/JP5302730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、運転者を監視する装置に関するものである。
従来、運転者を監視する装置として、画像を用いて監視するものが知られている(例えば、特許文献1参照)。特許文献1記載の装置は、運転者の顔画像を撮像し、撮像した画像領域を探索して目の位置を検出するものである。この装置の撮像部は、ハンドルからオフセットした位置に配置されている。
特開2006−209442号公報
しかしながら、従来の装置にあっては、運転者を十分監視することができないおそれがある。例えば、ハンドル等の遮蔽物によって運転者の顔が遮られないように、運転者の正面以外から運転者の顔画像を撮像した場合、角度によっては正確な特徴量を抽出することが困難な場合がある。すなわち、運転者の監視を十分行うためには、運転者の正面を撮像方向とすることが好ましい。
そこで、本発明はこのような技術課題を解決するためになされたものであって、撮像部を遮る遮蔽物が存在する状態であっても画像を用いて運転者を監視することができる運転者監視装置を提供することを目的とする。
すなわち本発明に係る運転者監視装置は、画像を用いて運転者を監視する運転者監視装置であって、運転者の画像を撮像する撮像手段と、運転者と撮像手段との間に介在する遮蔽物の動きに基づいて、撮像手段により撮像された画像のうち遮蔽物が撮像された遮蔽領域を検出する遮蔽領域検出手段と、撮像手段により撮像された画像のうち遮蔽領域を除いた画像領域内を探索して運転者の特徴点を追跡する監視手段と、を備え、遮蔽領域検出手段は、遮蔽物として、運転者に操作されるハンドル又はハンドルを操作する手を対象とし、遮蔽領域とハンドルの動作角度との関係を予め取得し、監視中におけるハンドルの動作角度に基づいて遮蔽領域を検出する
この発明によれば、運転者を撮像した画像において、運転者と撮像手段との間に介在し可動する遮蔽物を追跡して遮蔽物が遮る遮蔽領域を検出し、撮像した画像のうち遮蔽領域を除く画像領域内を探索して運転者の特徴点を追跡することができる。このため、遮蔽領域を含む領域内を探索することで特徴点の追跡結果に誤差が生じることを回避することが可能となる。よって、撮像した画像に遮蔽領域が含まれる場合、すなわち撮像手段を遮る遮蔽物が存在する状態であっても、画像を用いて精度良く運転者を監視することができる。なお、ここでいう運転者の特徴点とは、体の比較的小さい部分(例えば目、鼻、口等)のみならず、体の比較的大きな部分(例えば顔や手等)を含むものである。また、遮蔽領域検出手段は、遮蔽物として、運転者に操作されるハンドル又はハンドルを操作する手を対象とするため、例えば撮像手段をハンドル後方に配置して運転者を正面から撮像することができるので、画像を用いて精度良く運転者を監視することが可能となる。さらに、遮蔽領域検出手段は、遮蔽領域とハンドルの動作角度との関係を予め取得し、監視中におけるハンドルの動作角度に基づいて遮蔽領域を検出するので、遮蔽領域を的確に追跡して精度良く運転者を監視することができる。
また、監視手段は、撮像手段により撮像された画像の一部を切り出した切出領域の画素情報と運転者の特徴点を反映させた追跡用テンプレートとをマッチング処理して運転者の特徴点を追跡し、切出領域に遮蔽領域が含まれる場合には、切出領域のうち遮蔽領域を除いた画像領域をマッチング処理の対象とすることが好適である。このように構成することにより、遮蔽領域と重なる領域を除いた領域のみをマッチング処理の対象とすることができるので、精度の高いテンプレートマッチングを行うことが可能となる。
また、監視手段は、マッチング処理が成功した切出領域の画素情報を、次回の処理で用いる追跡用テンプレートとすることが好適である。このように構成することで、遮蔽領域を含めて追跡用のテンプレートを更新することができるので、遮蔽物が存在した場合であっても運転者の特徴点を精度良く追跡することが可能となる。
さらに、監視手段は、追跡用テンプレートに遮蔽領域が含まれる場合には、追跡用テンプレートのうち遮蔽領域を除いた画素情報を用いてマッチング処理を行うことが好適である。このように構成することで、精度の高いテンプレートマッチングを行うことが可能となる。
実施形態に係る運転者監視装置を備える車両の構成概要を示すブロック図である。 実施形態に係る運転者監視装置の学習動作を示すフローチャートである。 実施形態に係る運転者監視装置の遮蔽領域検出動作を説明する概要図である。 実施形態に係る運転者監視装置の監視動作を示すフローチャートである。 実施形態に係る運転者監視装置の初期発見モードの実行動作を示すフローチャートである。 実施形態に係る運転者監視装置のトラッキングモードの実行動作を示すフローチャートである。 実施形態に係る運転者監視装置の再探索モードの実行動作を示すフローチャートである。 実施形態に係る運転者監視装置のエッジ処理、平滑化処理を説明する概要図である。 実施形態に係る運転者監視装置のテンプレート作成処理を説明する概要図である。 実施形態に係る運転者監視装置のテンプレートマッチング処理を説明する概要図である。 実施形態に係る運転者監視装置のテンプレートマッチング処理を説明する概要図である。 実施形態に係る運転者監視装置のテンプレートマッチング処理を説明する概要図である。 実施形態に係る運転者監視装置の更新テンプレートを示す概要図である。
以下、添付図面を参照して本発明の実施形態について説明する。なお、各図において同一又は相当部分には同一の符号を付し、重複する説明を省略する。
本実施形態に係る運転者監視装置は、例えば走行支援機能や運転支援機能を有する車両に好適に採用されるものである。
最初に、本実施形態に係る運転者監視装置を備える車両の概要から説明する。図1は、本実施形態に係る運転者監視装置1を備える車両の概要図である。図1に示す車両3は、ハンドル角検出センサ30、画像センサ(撮像手段)31及びECU(Electronic Control Unit)2を備えている。ECUは、電子制御する自動車デバイスのコンピュータであり、CPU(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random AccessMemory)等のメモリ、及び入出力インターフェイスなどを備えて構成されている。
ハンドル角検出センサ30は、運転者が操作したハンドルのハンドル角θを検出するセンサである。ハンドル角θは、例えば、操舵していない状態を基準としたハンドル回転角である。ハンドル角検出センサ30として、例えばホール素子やフォトインタラプタ等の位置検出センサが用いられる。また、ハンドル角検出センサ30は、検出したハンドル角θをECU2に出力する機能を有している。
画像センサ31は、運転者の画像を撮像するセンサである。画像センサ31として、例えばCCDカメラ等が用いられる。また、画像センサ31は、撮像した画像情報をECU2へ出力する機能を有している。
ECU2は、遮蔽領域検出部20、遮蔽領域記録部21、探索範囲設定部22、顔初期テンプレート生成部23、特徴点初期テンプレート生成部24、顔追跡処理部25及び特徴点追跡処理部26を有している。
遮蔽領域検出部20は、画像センサ31が撮像した画像においてハンドルが撮像された領域(遮蔽領域)を検出する機能を有している。遮蔽領域検出部20は、例えばハンドル検出用のテンプレートを、画像センサ31が撮像した画像とマッチングさせることにより遮蔽領域を検出する機能を有している。また、遮蔽領域検出部20は、検出した遮蔽領域に関する情報を、遮蔽領域記録部21へ出力する機能を有している。
遮蔽領域記録部21は、ハンドル角検出センサ30が出力したハンドル角θ及び遮蔽領域検出部20が出力した遮蔽領域に関する情報に基づいてハンドル角θと遮蔽領域との関係を記録する手段である。例えば、ECU2に備わるメモリ記録する。
探索範囲設定部22は、画像センサ31が撮像した画像の探索範囲を設定する機能を有している。探索範囲設定部22は、画像センサ31が撮像した画像のうち遮蔽領域を除いた領域を探索範囲として設定する機能を有している。例えば、探索範囲設定部22は、ハンドル角検出センサ30が出力した所定のハンドル角θ及び遮蔽領域記録部21が記録したハンドル角θと遮蔽領域との関係に基づいて、所定のハンドル角θでの遮蔽領域を特定して探索範囲を設定する機能を有している。また、設定した探索範囲を必要に応じて顔初期テンプレート生成部23、特徴点初期テンプレート生成部24、顔追跡処理部25及び特徴点追跡処理部26へ出力する機能を有している。
顔初期テンプレート生成部23は、画像内の運転者の顔を探索するために用いるテンプレートを生成する機能を有している。顔初期テンプレート生成部23は、例えばニューラルネットワーク等の統計手法を用いて運転者の顔位置を画像の中から発見し、運転者の顔の初期テンプレートを作成する機能を有している。顔初期テンプレートは、更新されることがないテンプレートである。
特徴点初期テンプレート生成部24は、画像内の運転者の特徴点を探索するために用いられるテンプレートを作成する機能を有している。特徴点初期テンプレート生成部24は、例えばニューラルネットワークなどにより、運転者の顔の特徴点を画像の中から発見し、顔の特徴点の初期テンプレートを作成する機能を有している。顔の特徴点として、例えば目、鼻、口等が用いられる。特徴点初期テンプレートは、更新されることがないテンプレートである。
顔追跡処理部25は、画像センサ31が出力する画像内の運転者の顔を追跡する機能を有している。顔追跡処理部25は、例えば、顔トラッキングテンプレートを、画像センサ31が撮像した画像とマッチングさせることにより運転者の顔を検出して追跡する機能を有している。顔トラッキングテンプレートは、顔初期テンプレート生成部23が生成した顔初期テンプレートと同一のものを初期値とし、テンプレートマッチング処理が成功するたびに更新されるテンプレートである。
特徴点追跡処理部26は、画像センサ31が出力する画像内における運転者の顔の特徴点を追跡する機能を有している。特徴点追跡処理部26は、例えば、特徴点トラッキングテンプレートを、画像センサ31が撮像した画像とマッチングさせることにより運転者の顔の特徴点を検出して追跡する機能を有している。特徴点トラッキングテンプレートは、特徴点初期テンプレート生成部24が生成した特徴点初期テンプレートと同一のものを初期値とし、テンプレートマッチング処理が成功するたびに更新されるテンプレートである。
運転者監視装置1は、上述した画像センサ31及びECU2を備えて構成され、画像センサ31は撮像手段として機能し、ECU2は遮蔽領域検出手段及び監視手段として機能する。また、運転者監視装置1は、例えば警報システム等に監視結果を提供可能に構成されていてもよい。
次に、本実施形態に係る運転者監視装置1の動作について説明する。まず、監視動作の前処理となる学習動作から説明する。図2は、本実施形態に係る運転者監視装置1の学習動作を示すフローチャートである。図2に示す制御処理は、監視動作を行う前に、所定のタイミングで繰り返し実行される。監視動作とは後述する図4に示す動作のことであり、本実施形態においては一例として図2に示す処理を車両出荷前に実行する場合を説明する。なお、説明理解の容易性を考慮して、画像センサ31は、ハンドル後方に配置されている例を説明する。
図2に示す制御処理が開始されると、ハンドル角の検出処理及び記録処理から実行する(S10)。S10の処理は、ハンドル角検出センサ30が実行し、運転者により操作されたハンドルのハンドル角θを検出しECU2のメモリに記録する処理である。S10の処理が終了すると、遮蔽領域抽出処理及び記録処理へ移行する(S12)。
S12の処理は、遮蔽領域検出部20及び遮蔽領域記録部21が実行し、遮蔽領域の抽出及び記録を行う処理である。遮蔽領域検出部20は、S10の処理で検出したハンドル角θの時に画像センサ31により撮像された画像の中から遮蔽領域を検出する。例えば、ハンドルの模様等を反映したテンプレート(ハンドル検出用テンプレート)を事前に作成し、画像センサ31により撮像された画像全体を探索範囲としてテンプレートマッチング処理を行う。テンプレートマッチング処理の詳細について、図3を用いて説明する。図3は、遮蔽領域を検出するテンプレートマッチング処理を説明するための概要図である。図3(a)は、画像センサ31が運転者を正面から撮像した画像であって、遮蔽領域を検出する対象となる画像である。図3(a)に示す画像において、ハンドルが撮像された領域を遮蔽領域Rとする。また、図3(b)は、図3(a)に示す画像の一部を切り出した切出領域Rを示すものである。また、図3(c)画像は、図3(a)に示す画像から遮蔽領域Rを検出するためのハンドル検出用テンプレートTであり、事前にハンドルの画像情報を反映させて作成したものである。遮蔽領域検出部20は、図3(a)に示す画像から、ハンドル検出用テンプレートTと同一サイズの切出領域Rを切り出して、ハンドル検出用テンプレートTと切出領域Rとをマッチングする。テンプレートマッチングの方式として、例えば、類似度(SSD:Sum of Square Difference)に基づく方式、相違度(SAD:Sum of AbsoluteDifference)に基づく方式、正規化相関に基づく方式等が用いられる。例えばSADに基づく方式を用いた場合、遮蔽領域検出部20は、SADの結果により相違度が一定閾値以下である場合には、マッチング処理に用いた切出領域Rは遮蔽領域Rであると判定する。あるいは、切出領域Rを複数の領域に分割し、その各領域の輝度ヒストグラムとハンドル検出用テンプレートTの輝度ヒストグラムとの類似度を算出し、類似度が所定の閾値以上の場合には、マッチング処理に用いた切出領域Rは遮蔽領域Rであると判定してもよい。遮蔽領域検出部20は、切出領域Rを図3(a)に示す方向Hに沿って順次切り出してテンプレートマッチング処理をそれぞれ行う。そして、遮蔽領域記録部21は、テンプレートマッチング処理の結果を例えばECU2のメモリに記録する。遮蔽領域記録部21は、画像をxy平面とし、S10の処理で検出したハンドル角θと対応させて遮蔽領域Rを2次元配列H(x,y)として記録する。すなわち、ハンドル角θと遮蔽領域Rとの関係が記録される。遮蔽領域記録部21は、例えば、2次元配列H(x,y)において、遮蔽領域Rであれば1、それ以外の領域であれば0として記録する。S12の処理が終了すると、図3に示す制御処理を終了する。
図3に示す制御処理を全てのハンドル角θに対して繰り返し実行することにより、ハンドル角θに依存した遮蔽領域R(2次元配列H(x,y))を記録することができる。
次に、本実施形態に係る運転者監視装置1の監視動作について説明する。図4〜7は、本実施形態に係る運転者監視装置1の監視動作を示すフローチャートである。図4に示す制御処理は、例えばイグニッションオンされた時から所定のタイミングで繰り返し実行される。なお、説明理解の容易性を考慮して、画像センサ31は、ハンドル後方に配置されている例を説明する。
図4に示すように、運転者監視装置1は、処理モード分岐判定処理から開始する(S20)。S20の処理は、初期発見モード、トラッキングモード及び再探索モードの3つのモードから制御モードを選択する処理である。初期発見モードは、画像内の運転者を発見しテンプレートの初期作成等を行う制御モードである。また、トラッキングモードは、画像内の運転者を追跡して監視する制御モードである。また、再探索モードは、画像内の運転者の発見を再度行う制御モードである。各モードの詳細は後述する。S20の処理として、ECU2は、例えば、ECU2のメモリに作成された初期発見モードフラグ、トラッキングモードフラグ、再探索モードフラグの値を判定してモードを選択する。例えば、フラグが1となっているモードを実行する。なお、以下では説明理解の容易性を考慮して、初期発見モードフラグの初期値として1、トラッキングモードフラグ及び再探索モードフラグの初期値として0が設定されているものとし、図4に示す制御処理をイグニッションONされてから最初に実行する場合を説明する。この場合、初期発見モードが選択され、初期発見制御モードの実行処理へ移行する(S22)。
S22の処理は、初期発見モードを実行する処理である。S22の処理の詳細を、図5を用いて説明する。図5は、初期発見モードの実行動作を示すフローチャートである。図5に示すように、最初にハンドル角の検出処理及び記録処理から開始する(S30)。
S30の処理は、ハンドル角検出センサ30が実行し、運転者により操作されたハンドルのハンドル角θを検出しECU2のメモリに記録する処理である。S30の処理が終了すると、処理範囲限定処理へ移行する(S32)。
S32の処理は、探索範囲設定部22が実行し、処理範囲を限定する処理である。探索範囲設定部22は、画像センサ31により撮像した画像を入力し、入力した画像の中で運転者の顔の発見(探索)を行う領域を設定する。例えば、探索範囲設定部22は、S30の処理で検知したハンドル角θに対応した2次元配列H(x,y)を、図2に示す制御処理によって記録されたメモリから入力し、入力した2次元配列H(x,y)の中で、値が0となる領域を探索範囲と設定する。すなわち遮蔽領域R以外の領域を探索範囲と設定する。S32の処理が終了すると、顔の初期発見処理へ移行する(S34)。
S34の処理は、顔初期テンプレート生成部23が実行し、顔の初期発見を行う処理である。顔初期テンプレート生成部23は、S32の処理により限定した探索範囲を対象としてニューラルネットワーク等を用いて顔の中心位置及び存在範囲Rを検出する。S34の処理が終了すると、特徴点の初期発見処理へ移行する(S36)。
S36の処理は、特徴点初期テンプレート生成部24が実行し、特徴点の初期発見を行う処理である。特徴点初期テンプレート生成部24は、S34の処理により検出した顔の存在範囲Rを対象としてニューラルネットワーク等を用いて顔の特徴点の位置を検出する。特徴点として、例えば、右目頭、右目尻、左目頭、左目尻、鼻腔中心、左右口端などが用いられる。S36の処理が終了すると、検出終了判定処理へ移行する(S38)。
S38の処理は、特徴点初期テンプレート生成部24が実行し、全ての特徴点の位置を検出したか否かを判定する処理である。例えば、検出すべき特徴点は予め設定されている。S38の処理において、全ての特徴点の位置を検出していない場合には、ハンドル角検出処理へ再度移行する(S30)。このように、全ての特徴点の位置を検出するまで、S30からS38に示す処理を繰り返し実行する。
一方、S38の処理において、全ての特徴点の位置を検出した場合には、テンプレート作成処理へ移行する(S40)。S40の処理は、顔初期テンプレート生成部23及び特徴点初期テンプレート生成部24が実行し、顔の初期テンプレート、顔のトラッキングテンプレート、特徴点の初期テンプレート、及び特徴点のトラッキングテンプレートを作成する処理である。まず、トラッキングに適したテンプレートを作成すべく、画像センサ31から入力した画像を編集する。この処理について、図8を用いて説明する。図8(a)は、エッジを強調する処理過程を示す説明図であり、図8(b)は、平滑化処理過程を示す説明図である。図8(a)に示すように、画像センサ31から入力した濃淡画像Gに対して横ソーベルフィルタFをかけて横方向のエッジを強調した横ソーベルフィルタ画像Gとする。その後、横ソーベルフィルタ画像Gに対して3×3の平滑化フィルタFをかけて平滑化した横ソーベルフィルタ平滑化画像Gとする。横ソーベルフィルタ平滑化画像Gは、エッジが強調されているため光環境の変化に対する頑健性が高く、平滑化されていることでノイズが少ないという特徴がある。このため、横ソーベルフィルタ平滑化画像Gからテンプレートを作成することにより、最適なトラッキングを実現することができる。
次に、テンプレートの作成の詳細を、図9を用いて説明する。図9(a)は、顔初期テンプレート及び顔トラッキングテンプレートの作成を説明する概要図、図9(b)は、特徴点初期テンプレート及び特徴点トラッキングテンプレートの作成を説明する概要図である。顔初期テンプレート生成部23は、図9(a)に示すように、S34の処理で検出した顔の存在範囲Rを切り出し顔初期テンプレートTIKとして記録する。同様に、顔初期テンプレートTIKと同一の顔トラッキングテンプレートTTKを作成し記録する。また、特徴点初期テンプレート生成部24は、図9(b)に示すように、S36の処理で検出した各特長点の位置を基準に、縦横一定の幅の領域を切り出し特徴点初期テンプレートTITとして記録する。切り出す領域の大きさは、対象とする特徴点に応じて変化させる。同様に、特徴点初期テンプレートTITと同一の特徴点トラッキングテンプレートTTTを作成し記録する。上述した顔初期テンプレートTIK及び特徴点初期テンプレートTITは、一度記録された後に更新されることがないものである。反対に、顔トラッキングテンプレートTTK及び特徴点トラッキングテンプレートTTTは、トラッキングが成功するたびに更新されるものである。各テンプレートを作成すると、フラグ更新処理へ移行する(S42)。
S42の処理は、ECU2が実行し、フラグの更新を行う処理である。ECU2は、初期発見モードフラグ、トラッキングモードフラグ、再探索モードフラグを0にリセットした後に、トラッキングモードフラグを0から1に変更する。これにより、初期発見モードからトラッキングモードへ移行することができる。S42の処理が終了すると、図5に示す制御処理を終了する。
図4のS22の処理に戻り、図4に示す制御処理を終了する。次に、S42の処理で設定したフラグ状態、すなわち、初期発見モードフラグ及び再探索モードフラグが0、トラッキングモードフラグが1の場合について説明する。この場合、図4のS20の処理においてトラッキングモードが選択され、トラッキングモード実行処理へ移行する(S24)。
S24の処理は、トラッキングモードを実行する処理である。S24の処理の詳細を、図6を用いて説明する。図6は、トラッキングモードの実行動作を示すフローチャートである。図6に示すように、最初にハンドル角の検出処理及び記録処理から開始する(S50)。
S50の処理は、ハンドル角検出センサ30が実行し、ハンドルのハンドル角θを検出して記録する処理である。S50の処理は、図5のS30の処理と同様である。S50の処理が終了すると、処理範囲限定処理へ移行する(S52)。
S52の処理は、探索範囲設定部22が実行し、処理範囲を限定する処理である。S52の処理は、図5のS32の処理と同様である。S52の処理が終了すると、顔位置トラッキング処理へ移行する(S54)。
S54の処理は、探索範囲設定部22及び顔追跡処理部25が実行し、顔の発見を行う処理である。最初に、探索範囲設定部22が探索範囲をさらに限定する処理を行う。例えば、探索範囲設定部22は、顔初期テンプレート生成部23が図5のS34の処理で発見した顔の位置を中心に探索範囲(探索領域)を設定する。この設定について図10、11を用いて説明する。図10、11は、顔の探索処理を説明するための概要図である。探索範囲設定部22は、例えば図10に示すように、画像センサ31から入力した画像Zにおいて、縦横一定幅の探索領域Uを設定する。また、既に一度トラッキングモードを実行済みであって後述するトラッキング処理が成功している場合には、それ以降のフレームに対しては前回フレームでの顔位置を中心に縦横一定幅の探索範囲を設定する。
ここで、図11に示すように、画像センサ31から入力した画像Zにおいて縦横一定幅の探索領域を設定すると、遮蔽領域Rと探索領域とが重なる場合がある。この場合には、探索範囲設定部22は、縦横一定幅の探索領域に含まれる遮蔽領域Rを除いた探索領域Uを設定する。このように設定することで、処理負荷を軽減することができる。
次に、顔追跡処理部25は、設定した探索領域内で顔を探索する。顔追跡処理部25は、例えば図10に示すように、縦横一定幅の探索領域U内を探索する場合には、画像Zから図5のS40の処理で生成した顔トラッキングテンプレートTTKと同一サイズの切出領域RK1を切り出して、顔トラッキングテンプレートTTKと切出領域RK1とをマッチングする。テンプレートマッチングの方式としては、図2のS20の処理と同様に、類似度に基づく方式、相違度に基づく方式、正規化相関に基づく方式等が用いられる。また、顔追跡処理部25は、切出領域RK1を画像Zに示された方向Hに沿って順次切り出してテンプレートマッチング処理をそれぞれ行う。一方、図11に示す探索領域U内を探索する場合も、同様である。ここで、図11において、切出領域RK2の切り出す位置によっては、切出領域RK2に遮蔽領域Rが含まれる。この場合には、遮蔽領域R以外の切出領域RK2の画素を用いて顔トラッキングテンプレートTTKとマッチング処理を行う。このようにマッチングの対象とする領域を限定することにより、精度の高いマッチング処理を行うことができる。さらに、切出領域RK2に含まれる遮蔽領域Rの割合が所定値以上となる場合には、マッチング処理に利用できる画素数が少ないため、マッチング処理を実行しないこととする。あるいは、遮蔽領域Rの画素数が所定値以上である場合には、マッチング処理を実行しないこととする。このように動作することで、精度の低いマッチング処理を実行することを回避することができる。探索領域の全てにおいてマッチング処理が終了すると、トラッキング判定処理へ移行する(S56)。
S56の処理は、顔追跡処理部25が実行し、顔のトラッキングが成功したか否かを判定する処理である。顔追跡処理部25は、例えば、S54の処理におけるテンプレートマッチングの最大の相関値が所定値以上であって、かつ、最大の相関値が得られる位置における切出領域Rと遮蔽領域Rとの重複領域の画素数が所定値以下であることを満たす場合には、顔のトラッキングが成功したと判定する。あるいは、S54の処理におけるテンプレートマッチングの最大の相関値が所定値以上であって、かつ、最大の相関値が得られる位置における切出領域Rに含まれる遮蔽領域Rの切出領域Rに対する割合が一定値以下であることを満たす場合には、顔のトラッキングが成功したと判定してもよい。S56の処理において、顔のトラッキングが成功したと判定した場合には、テンプレート更新処理へ移行する(S58)。
S58の処理は、顔追跡処理部25が実行し、顔トラッキングテンプレートTTKを更新する処理である。顔追跡処理部25は、トラッキングに成功した顔の位置を中心に縦横一定の幅の領域を切り出して、顔トラッキングテンプレートTTKとする。次回のフレームにおいて顔位置をトラッキングする際には、更新された顔トラッキングテンプレートTTKが用いられる。これにより、顔の表情変化や光環境の変化等へのロバスト性を向上することができる。ここで、例えば図13(a)に示すように、顔トラッキングテンプレートTTKが遮蔽領域Rを含む場合には、次回のフレームにおいてS54の処理(顔位置をトラッキングする処理)を行う際に、顔トラッキングテンプレートTTKのうち当該遮蔽領域Rを除いた領域を用いてマッチング処理を行う。これにより、マッチングの精度を向上させることができる。S58の処理が終了すると、特徴点位置トラッキング処理へ移行する(S60)。
S60の処理は、探索範囲設定部22及び特徴点追跡処理部26が実行し、特徴点の位置をトラッキングする処理である。特徴点追跡処理部26は、テンプレートマッチングにより各特徴点のトラッキングを行う。図12を用いて処理の詳細を説明する。図12は、特徴点のトラッキングを説明するための概要図である。まず、探索範囲設定部22は、前回のフレームの顔位置(存在範囲RS−1)と今回のフレームの顔位置(存在範囲R)との差分を算出する。そして、前回の各特徴点Pの探索中心を、矢印Yに示すように、算出した差分に応じてシフトさせる。次に、シフトさせた各特徴点の探索中心を基準に縦横一定幅の探索範囲を設定する。この探索範囲の大きさは、各特徴点に応じて変更する。そして、この探索範囲において、S54の処理と同様にテンプレートマッチング処理を行う。探索領域の全てにおいてマッチング処理が終了すると、トラッキング判定処理へ移行する(S62)。
S62の処理は、特徴点追跡処理部26が実行し、特徴点のトラッキングが成功したか否かを判定する処理である。特徴点追跡処理部26は、例えば、S60の処理におけるテンプレートマッチングの最大の相関値が所定値以上であって、かつ、最大の相関値が得られる位置における切出領域Rと遮蔽領域Rとの重複領域の画素数が所定値以下であることを満たす場合には、特徴点のトラッキングが成功したと判定する。あるいは、S60の処理におけるテンプレートマッチングの最大の相関値が所定値以上であって、かつ、最大の相関値が得られる位置における切出領域Rに含まれる遮蔽領域Rの切出領域Rに対する割合が一定値以下であることを満たす場合には、特徴点のトラッキングが成功したと判定してもよい。S62の処理において、特徴点のトラッキングが成功したと判定した場合には、テンプレート更新処理へ移行する(S64)。
S64の処理は、特徴点追跡処理部26が実行し、特徴点トラッキングテンプレートTTTを更新する処理である。顔追跡処理部25は、トラッキングに成功した顔の位置を中心に縦横一定の幅の領域を切り出して、特徴点トラッキングテンプレートTTTとする。次回のフレームにおいて顔位置をトラッキングする際には、更新された特徴点トラッキングテンプレートTTTが用いられる。これにより、顔の表情変化や光環境の変化等へのロバスト性を向上することができる。また、S58の処理と同様に、図13(b)に示すように、特徴点トラッキングテンプレートTTTが遮蔽領域Rを含む場合には、次回のフレームにおいてS60の処理(顔位置をトラッキングする処理)を行う際に、特徴点トラッキングテンプレートTTTのうち当該遮蔽領域Rを除いた領域を用いてマッチング処理を行う。これにより、マッチングの精度を向上させることができる。S64の処理が終了すると、フラグ更新処理へ移行する(S66)。
S66の処理は、ECU2が実行し、フラグの更新を行う処理である。ECU2は、初期発見モードフラグ、トラッキングモードフラグ、再探索モードフラグを0にリセットした後に、トラッキングモードフラグを0から1に変更する。これにより、トラッキングモードを継続することができる。S66の処理が終了すると、図6に示す制御処理を終了する。
一方、S56の処理で顔のトラッキングが成功しなかった場合、又は、S62の処理で特徴点のトラッキングが成功しなかった場合には、フラグ更新処理へ移行する(S68)。S68の処理は、ECU2が実行し、フラグの更新を行う処理である。ECU2は、初期発見モードフラグ、トラッキングモードフラグ、再探索モードフラグを0にリセットした後に、再探索モードフラグを0から1に変更する。これにより、トラッキングモードから再探索モードへ変更することができる。S68の処理が終了すると、図6に示す制御処理を終了する。
以上で図6に示す制御処理を終了する。図6に示す制御処理を終了すると、図4のS24の処理に戻り、図4に示す制御処理を終了する。次に、S68の処理で設定したフラグ状態、すなわち、初期発見モードフラグ及びトラッキングモードフラグが0、再探索モードフラグが1の場合について説明する。この場合、図4のS20の処理において再探索モードが選択され、再探索モード実行処理へ移行する(S26)。
S26の処理は、再探索モードを実行する処理である。S26の処理の詳細を、図7を用いて説明する。図7は、再探索モードの実行動作を示すフローチャートである。図7に示すように、最初にハンドル角の検出処理及び記録処理から開始する(S70)。
S70の処理は、ハンドル角検出センサ30が実行し、ハンドルのハンドル角θを検出して記録する処理である。S70の処理は、図5のS30の処理と同様である。S50の処理が終了すると、処理範囲限定処理へ移行する(S72)。
S72の処理は、探索範囲設定部22が実行し、処理範囲を限定する処理である。S72の処理は、図5のS32の処理と同様である。S72の処理が終了すると、顔位置トラッキング処理へ移行する(S74)。
S74の処理は、探索範囲設定部22及び顔追跡処理部25が実行し、顔の発見を行う処理である。S74の処理は、図6のS54の処理とほぼ同様である。S74の処理とS54の処理とを比較すると、S74の処理では探索処理を実行する場合に顔初期テンプレートTIKを用いる点が相違する。その他の点は図6のS54の処理と同様である。S74の処理が終了すると、トラッキング判定処理へ移行する(S76)。
S76の処理は、顔追跡処理部25が実行し、顔のトラッキングが成功したか否かを判定する処理である。S76の処理は、図6のS56の処理と同様である。S76の処理において、顔のトラッキングが成功したと判定した場合には、テンプレート更新処理へ移行する(S78)。
S78の処理は、顔追跡処理部25が実行し、顔トラッキングテンプレートTTKを更新する処理である。S78の処理は、図6のS58の処理と同様である。S78の処理が終了すると、特徴点位置トラッキング処理へ移行する(S80)。
S80の処理は、探索範囲設定部22及び特徴点追跡処理部26が実行し、特徴点の位置をトラッキングする処理である。S80の処理は、図6のS60の処理とほぼ同様である。S80の処理とS60の処理とを比較すると、S80の処理では、特徴点初期テンプレートTITを用いる点が相違する。その他の点は図6のS60の処理と同様である。S80の処理が終了すると、トラッキング判定処理へ移行する(S82)。
S82の処理は、特徴点追跡処理部26が実行し、特徴点のトラッキングが成功したか否かを判定する処理である。S82の処理は、図6のS62の処理と同様である。S82の処理において、特徴点のトラッキングが成功したと判定した場合には、テンプレート更新処理へ移行する(S84)。
S84の処理は、特徴点追跡処理部26が実行し、特徴点トラッキングテンプレートTTTを更新する処理である。S84の処理は、図6のS64の処理と同様である。S84の処理が終了すると、フラグ更新処理へ移行する(S86)。
S86の処理は、ECU2が実行し、フラグの更新を行う処理である。S86の処理は、図6のS66の処理と同様である。S86の処理が終了すると、図7に示す制御処理を終了する。
一方、S76の処理で顔のトラッキングが成功しなかった場合、又は、S82の処理で特徴点のトラッキングが成功しなかった場合には、フラグ更新処理へ移行する(S88)。S88の処理は、ECU2が実行し、フラグの更新を行う処理である。ECU2は、初期発見モードフラグ、トラッキングモードフラグ、再探索モードフラグを0にリセットした後に、再探索モードフラグを0から1に変更する。これにより、再探索モードを継続することができる。S88の処理が終了すると、図7に示す制御処理を終了する。
以上で図7に示す制御処理を終了する。図7に示す制御処理を終了すると、図4のS26の処理に戻り、図4に示す制御処理を終了する。
以上で図4に示す制御処理を終了する。図4に示す制御処理を実行することで、初期テンプレートとトラッキングテンプレートを登録する初期発見モード、運転者の顔移動に追従して顔特徴点の位置をトラッキングするとともにトラッキングに成功した場合にはトラッキングテンプレートを更新するトラッキングモード、顔位置あるいは顔特徴点のトラッキングに失敗した場合に初期テンプレートを用いて再探索する再探索モードの3つのモードを、条件によって遷移させて実行することが可能となる。ここで、初期発見モードでは、ニューラルネットワーク等の統計手法が用いられるため、検出精度は高いが処理負荷が大きい。このため、例えば運転者の顔が大きく移動してトラッキングに失敗した場合には、登録した初期テンプレートを用いて再探索する再探索モードに遷移させ、再発見した場合にトラッキングモードに遷移させることにより、処理負荷の軽減を図ることができる。
上述したように、本実施形態に係る運転者監視装置1によれば、運転者を撮像した画像において、運転者と画像センサ31との間に介在し可動するハンドルを追跡してハンドルが遮る遮蔽領域Rを検出し、撮像した画像のうち遮蔽領域Rを除く画像領域内を探索して運転者の顔や顔特徴点を追跡することができる。このため、遮蔽領域Rを含む領域内を探索することで顔や顔特徴点の追跡結果に誤差が生じることを回避することが可能となる。よって、撮像した画像に遮蔽領域Rが含まれる場合、すなわち画像センサ31を遮るハンドルが存在する状態であっても、画像を用いて精度良く運転者を監視することができる。また、精度良く運転者を監視することができるので、監視結果を用いるシステム、例えば顔向き角度の算出や警報システム等の精度も向上させることができる。
また、本実施形態に係る運転者監視装置1によれば、遮蔽領域Rとハンドル角θとの関係を予め取得し、監視中におけるハンドル角θに基づいて遮蔽領域Rを検出することで、遮蔽領域Rを的確に追跡して精度良く運転者を監視することができる。
また、本実施形態に係る運転者監視装置1によれば、遮蔽領域Rを除いた画像領域内において、画像センサ31により撮像された画像の一部を切り出した切出領域RK1、RK2の画素情報と運転者の特徴点を反映させたトラッキングテンプレートとをマッチング処理して運転者の特徴点を追跡し、切出領域RK1、RK2に遮蔽領域Rが含まれる場合には、切出領域RK1、RK2のうち遮蔽領域Rを除いた画像領域をマッチング処理の対象とすることにより、精度の高いテンプレートマッチングを行うことが可能となる。
また、本実施形態に係る運転者監視装置1によれば、マッチング処理が成功した切出領域RK1、RK2の画素情報を、次回の処理で用いるトラッキングテンプレートとすることで、遮蔽領域Rを含めて追跡用のテンプレートを更新することができるので、遮蔽物が存在した場合であっても運転者の特徴点を精度良く追跡することが可能となる。
さらに、本実施形態に係る運転者監視装置1によれば、トラッキングテンプレートに遮蔽領域Rが含まれる場合には、トラッキングテンプレートのうち遮蔽領域Rを除いた画素情報を用いてマッチング処理を行うことが好適である。このように構成することで、精度の高いテンプレートマッチングを行うことが可能となる。
なお、上述した実施形態は本発明に係る運転者監視装置の一例を示すものである。本発明に係る運転者監視装置は、実施形態に係る運転者監視装置1に限られるものではなく、各請求項に記載した要旨を変更しない範囲で、実施形態に係る運転者監視装置を変形し、又は他のものに適用したものであってもよい。
例えば、上述した実施形態では、遮蔽物をハンドルとして説明したが、ハンドルに限られるものではない。例えば、遮蔽物として、ハンドルのコラム部分(ステアリングコラム)、当該コラム部分に備わる灯火操作レバー、ワイパー操作レバー、ウィンカ操作レバー、ギアシフトレバー等、差し込まれたイグニッションキー及び付属物等、さらにはハンドルや上記レバーを操作する手であってもよい。この場合、各種レバーの操作については操作方向に応じた手の動き、ハンドルの操作においてはハンドルの操舵速度や回転角に応じた手の動きに基づいて、遮蔽される領域を学習して探索範囲から除外することもできる。また、遮蔽物として、運転者が眼鏡をしている場合にその眼鏡を直す手や、運転者が飲む飲料水の缶等であってもよい。上述した遮蔽物を処理対象とする場合には、実施形態に示すハンドルの例と同様に、事前に遮蔽物のテンプレートのパターンを学習し、図5のS32、図6のS52、図7のS72の処理においてテンプレートを用いて遮蔽物の領域を検出し探索範囲から除外すればよい。この場合、テンプレートでなく色ヒストグラム等を用いても良い。一方、上記の遮蔽物を事前に学習をすることが困難な場合もある。例えば、飲料水の缶等にあっては、全てのパターンを学習できない場合もある。このような場合には、図5のS32、図6のS52、図7のS72の処理において、ニューラルネットワークの学習(適合)により生成される初期テンプレートと、トラッキングパターンの数フレーム分の平均とをマッチングさせて、類似度が所定値未満である場合、すなわち急激に変化したと判定できる場合には、それらの領域を演算処理や探索範囲から除外することで、精度の高い監視処理を実行することができる。
また、上述した実施形態では、ハンドルの動作を回転角で検出する例を説明したが、遮蔽物の動作は回転動作に限られるものではなく、前後方向に動く場合には前後方向の角度も取得して学習することで、本実施形態に示す運転者監視装置1と同様に精度の高い監視処理を実行することができる。
また、上述した実施形態では、図2の処理を車両出荷前に行う例を説明したが、運転中に学習するものであってもよい。
また、上述した実施形態では、ハンドル角を検出し遮蔽領域Rを探索範囲から除外することで監視精度を向上させる例を説明したが、ハンドル角が所定角度以上の場合には、追跡を中断するように構成してもよい。このように構成することで、特徴点の誤差を含んだまま追跡して監視対象物を見失うことを回避できるので、顔の向きを利用した警報システム等の誤作動を防止することが可能となる。
1…運転者監視装置、2…ECU、30…ハンドル角度検出センサ、31…画像センサ(撮像手段)、20…遮蔽領域検出部(遮蔽領域検出手段)、21…遮蔽領域記録部(遮蔽領域検出手段)、22…探索範囲設定部(遮蔽領域検出手段)、23…顔初期テンプレート生成部、24…特徴点初期テンプレート生成部、25…顔追跡処理部(監視手段)、26…特徴点追跡処理部(監視手段)。

Claims (4)

  1. 運転者の画像を撮像する撮像手段と、
    前記運転者と前記撮像手段との間に介在する遮蔽物の動きに基づいて、前記撮像手段により撮像された画像のうち前記遮蔽物が撮像された遮蔽領域を検出する遮蔽領域検出手段と、
    前記撮像手段により撮像された画像のうち前記遮蔽領域を除いた画像領域内を探索して運転者の特徴点を追跡する監視手段と、
    を備え
    前記遮蔽領域検出手段は、前記遮蔽物として、運転者に操作されるハンドル又はハンドルを操作する手を対象とし、前記遮蔽領域と前記ハンドルの動作角度との関係を予め取得し、監視中における前記ハンドルの動作角度に基づいて前記遮蔽領域を検出する運転者監視装置。
  2. 前記監視手段は、前記撮像手段により撮像された画像の一部を切り出した切出領域の画素情報と前記運転者の特徴点を反映させた追跡用テンプレートとをマッチング処理して前記運転者の特徴点を追跡し、前記切出領域に前記遮蔽領域が含まれる場合には、前記切出領域のうち前記遮蔽領域を除いた画像領域を前記マッチング処理の対象とする請求項に記載の運転者監視装置。
  3. 前記監視手段は、前記マッチング処理が成功した前記切出領域の画素情報を、次回の処理で用いる前記追跡用テンプレートとする請求項に記載の運転者監視装置。
  4. 前記監視手段は、前記追跡用テンプレートに遮蔽領域が含まれる場合には、前記追跡用テンプレートのうち前記遮蔽領域を除いた画素情報を用いて前記マッチング処理を行う請求項又はに記載の運転者監視装置。
JP2009074314A 2009-03-25 2009-03-25 運転者監視装置 Active JP5302730B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009074314A JP5302730B2 (ja) 2009-03-25 2009-03-25 運転者監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009074314A JP5302730B2 (ja) 2009-03-25 2009-03-25 運転者監視装置

Publications (2)

Publication Number Publication Date
JP2010225089A JP2010225089A (ja) 2010-10-07
JP5302730B2 true JP5302730B2 (ja) 2013-10-02

Family

ID=43042177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009074314A Active JP5302730B2 (ja) 2009-03-25 2009-03-25 運転者監視装置

Country Status (1)

Country Link
JP (1) JP5302730B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6350145B2 (ja) * 2014-09-09 2018-07-04 株式会社デンソーアイティーラボラトリ 顔向き検出装置及び車両用警告システム
JP2018151683A (ja) * 2017-03-09 2018-09-27 オムロン株式会社 監視装置、方法、及びプログラム
KR101994439B1 (ko) 2017-09-12 2019-06-28 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
JP7187918B2 (ja) * 2018-09-20 2022-12-13 いすゞ自動車株式会社 車両用監視装置
CN112183173B (zh) * 2019-07-05 2024-04-09 北京字节跳动网络技术有限公司 一种图像处理方法、装置及存储介质
JP7345435B2 (ja) * 2020-06-19 2023-09-15 京セラ株式会社 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム
WO2024023889A1 (ja) * 2022-07-25 2024-02-01 株式会社コーセー シミュレーションシステム及びシミュレーション方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4316936B2 (ja) * 2003-06-06 2009-08-19 財団法人ソフトピアジャパン アクティブセンサの動物体検出装置及び動物体検出方法、並びに動物体検出プログラム
JP4397719B2 (ja) * 2004-03-30 2010-01-13 本田技研工業株式会社 視線検出装置
US8107679B2 (en) * 2005-09-29 2012-01-31 Yamaguchi Cinema Co., Ltd. Horse position information analyzing and displaying method

Also Published As

Publication number Publication date
JP2010225089A (ja) 2010-10-07

Similar Documents

Publication Publication Date Title
JP5302730B2 (ja) 運転者監視装置
US8055016B2 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
KR102011230B1 (ko) 화상 처리 장치 및 화상 처리 방법
KR102569437B1 (ko) 3차원 영상정보 기반 객체 추적 장치 및 방법
JP6188592B2 (ja) 物体検出装置、物体検出方法、および物体検出プログラム
JP2020067698A (ja) 区画線検出装置及び区画線検出方法
JP5107154B2 (ja) 運動推定装置
JP7164172B2 (ja) 駐車枠構築装置及び駐車枠構築方法
US11458892B2 (en) Image generation device and image generation method for generating a composite image
JP5020920B2 (ja) 歩行者検出装置及びプログラム
JP5270319B2 (ja) 画像監視装置
JP2008003696A (ja) 画像処理装置及び画像処理方法
JP6935690B2 (ja) 検出プログラム、方法、及び装置
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
JP2007141167A (ja) 車線検出装置、車線検出方法、及び車線検出プログラム
JP2019020171A (ja) 車幅検出装置、車幅検出方法、およびプログラム
JP2010009234A (ja) 眼画像処理装置
JP2017211765A (ja) 物体認識装置
JP4239834B2 (ja) 物体検出装置
JP2009003644A (ja) 開眼度判定装置
JP6869672B2 (ja) 物体追従システム、物体追従装置、物体追従方法、及び物体追従プログラム
JP2015215235A (ja) 物体検出装置及び物体検出方法
JP2007004829A (ja) 画像処理装置
JP2009252094A (ja) 顔画像検出装置
JP7291505B2 (ja) 車外環境検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130621

R151 Written notification of patent or utility model registration

Ref document number: 5302730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250