JP4756044B2 - 自動車シート上の対象物を検出するための装置 - Google Patents

自動車シート上の対象物を検出するための装置 Download PDF

Info

Publication number
JP4756044B2
JP4756044B2 JP2007529322A JP2007529322A JP4756044B2 JP 4756044 B2 JP4756044 B2 JP 4756044B2 JP 2007529322 A JP2007529322 A JP 2007529322A JP 2007529322 A JP2007529322 A JP 2007529322A JP 4756044 B2 JP4756044 B2 JP 4756044B2
Authority
JP
Japan
Prior art keywords
processing unit
illumination
dimensional
classes
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007529322A
Other languages
English (en)
Other versions
JP2008516301A (ja
Inventor
ジェイソン ヨンスク ヨーン
シュテファン ヴァイトハース
ミヒャエル バウアー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Publication of JP2008516301A publication Critical patent/JP2008516301A/ja
Application granted granted Critical
Publication of JP4756044B2 publication Critical patent/JP4756044B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01556Child-seat detection systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Air Bags (AREA)

Description

本発明は、対象物の2次元表現を生成するための1つのカメラ及び処理ユニットを有する、自動車シート上の対象物を検出するための装置に関する。
電動自動車の乗員の検出、識別又は分類を実現するための様々な技術や装置がある。さらに、自動車乗員の頭の位置を認識するための様々な技術がある。このような技術からの情報は、乗員制限装置を乗員のタイプ、大きさ又はシート位置に適用するためのデータとして働く。
米国の全国高速道路安全局(NHSTA)により発表された連邦自動車安全基準(FMVSS)208によれば、米国で販売された全ての自動車のほぼ100パーセントが、衝突強度、乗員、サイズ及びシートベルトの着用に基づいてエアバッグの展開力を自動的に制御する能力を有しなければならない。これは2006モデル年度から始まる。製造業者が様々な乗員検出システムを開発し始めるにつれ、映像技術は、他のメカトロニクス方法に比べて様々な自動車運転席へのより優れた適応性のためにより多くの注目を集めている。
近年、エアバッグ抑圧判断問題を解決するために多数の光学的アプローチが研究されてきた。これらの研究は、システムにおいて使用されるカメラの数に依存して2つのカテゴリーに分類できる。初期のバージョンの乗員検出システムでは、イメージングセンサが高コストのために単純なカメラの解決法が必要だった。しかしながら、このような一眼システムは、乗客の位置/姿勢に従うリスクの低い展開を保証する補助タスクであるアウトオブポジションの検出などの機能に必要な十分な3D情報を提供しなかった。結局、乗員検出システムは2つのカメラを使用する立体視技術に益々依存した。様々な映像ベースの車内アプリケーションの増加する需要に直面して、使用されるカメラの数は厳しい試験の下で増大してきている。
以下では、乗員検出に対する既存の光学的アプローチの最も重要な欠点を列挙する。
−立体カメラシステムは1つ又は複数のカメラを使用する。複数のカメラはハードウェアコストを著しく増加させる。
−多数のアプローチが自動車内部を照明するための補助光源を使用する。これもハードウェアコストを増加させる。
−立体視の理論上の制限により、2つのカメラは互いに隣接しなければならない。これは、コンパクトなシステムモジュールの設計を困難にする。
−立体視システム(ステレオビジョンシステム)は、含まれるカメラの配置を歪める全ての物理的衝撃に極めて敏感である。
−たいていの立体視技術の3D再構成は基本的に組織対応適合に基づくので、たいていの立体視アプローチは、対象物がその表面に組織を有しない場合ターゲット対象物の形状を再構成することができない。
−満足のいく深さ解像度を得るために、たいていの立体視技術は、より幅広いデータ帯域幅とより速い計算力を要することで全体のシステムコストを増加させるサブピクセル空間解決法を使用する。
−立体視に不可欠な、徹底的な探索・三角測量プロセスがシステムコストに影響する。
−たいていの立体視技術は複雑なカメラ補正を要する。
WO2004/040515A1 C. Koch, S. Park, T. J. Ellis, and A. Georgiadis: "Illumination technique for optical dynamic range compression and offset reduction." In British Machine Vision Conference (BMVC01), pages 293-302, Manchester, England, September 2001, BMVA Press R. Klette, K. Schluens, and A. Koschan: "Computer Vision, Three-Dimensional Data from Images." Springer, 1998 R.T. Frankot and R. Chellappa: "A method for enforcing integrability in shape from shading problem." IEEE Trans, on PAMI, 10(4): 439-451, July 1988 M.I. Jordan: "Attractor dynamics and parallelism in a connectionist sequential machine", Proc. of the 8th annual conference of cognitive science society, pages 531- 546, Amherst, MA
本発明の目的は、自動車シート乗員の3D情報を生成することのできるシングルカメラシステムを提供することである。好ましくはこの目的は最小の補助アクティブ照明を使用することで達成される。
本発明の目的は、対象物の2次元表現の生成のための1つのカメラ及び処理ユニットを有する、自動車シート上の対象物を検出する装置により達成される。装置がさらに少なくとも2つの照明源を有し、照明源は対象物が異なる方向から照明されるように位置決めされ、処理ユニットが、それぞれ異なる照明条件下で生成される2つの2次元表現から対象物の3次元表現を生成するのに適しており、対象物の表面垂線ベクトルの評価とこれらの表面垂線ベクトルからの対象物表面の積分とに基づいて、3次元表現は2つの2次元表現から生成され、立体照明が使用されないことを特徴とする。
一般に、本発明に従う装置は、動画像(イメージシーケンス)を捕らえる単一のカメラを有する。照明源の調光、切換又は移動(ずらすこと及び/又は回転)により、異なる照明条件が作られる。単純化のために、本発明の好ましい実施形態によれば、照明源をオン・オフに切り換えることで異なる照明条件が作られる、すなわち、アクティブな照明源の異なる組み合わせ、特に異なる数のアクティブな照明源によって異なる照明条件が作られる。
本発明の好ましい実施形態は、それぞれ異なる照明条件下で生成される、2つの2次元表現から対象物の3次元表現を生成するのに適し、異なる数のアクティブな照明源によって異なる照明条件が作られることを特徴とする。2つの2次元表現から対象物の3次元表現の当該生成は、2つの2次元表現以上からの生成のケースを有する。
本発明に従う乗員検出システムは、エアバッグ制御モジュールを促進するために自動車内の対象物を分類するように設計される。分類は、オリジナル画像及び/又は3次元の対象物表現及び/又は中間結果から抽出される対象物特徴に基づいて実行される。分類の一般的な目的は対象物をターゲット乗員クラスに割り当てることである。
本発明の好ましい実施形態によれば、このような分類におけるターゲット乗員クラスの数は制限される。ターゲット乗員クラスは、前向きチャイルドシート、後向きチャイルドシート及び大人である、3つのクラスに減じられる。
ゆえに、本発明の好ましい実施形態は、処理ユニットが検出された対象物に少なくとも2つの対象物クラスから1を割り当てるのに適し、
ここで、少なくとも2つの対象物クラスは3つの以下の対象物クラス、
−前方の運転方向に配置されたチャイルドシート、
−後方の運転方向に配置されたチャイルドシート、
−大人
を有する複数の対象物クラスから選択される。
対象物分類の結果は一般に、他のタスクを支持(例えば、単純化)するために使用される。この目的のために、結果が別なタスクに伝えられる。
本発明の好ましい実施形態によれば、処理ユニットは、自動車シート上の装置が割り当てられた対象物クラスの信号を、処理ユニット自体又は別な装置により実行されるタスクに送る。ここで、このタスクの実行の事実及び/又は様式は自動車シート上の装置が割り当てられた対象物クラスに依存する。特に、本発明の好ましい実施形態によれば、対象物が大人と分類される場合、アウトオブポジション検出だけが作動する。
本発明に従う方法では、1つの画像シーケンス内で様々な照明条件が少なくとも2つの光源を用いて生成される。周囲の照明揺らぎ及び/又は影は取り除かれる。
本発明の好ましい実施形態によれば、画像シーケンスにおける周囲照明揺らぎは、いわゆるダブルフラッシュ技術により取り除かれる。
影のない画像は、無限の範囲を有するバーチャルな光源をシミュレートすることにより画像シーケンスから構成されると好ましい。これは、いわゆるシャドーフラッシュ技術により実現されると適切である。
好ましくは、結果として得られた影のない画像における対象物の境界情報が抽出され、対象物の3D表面が再構成される。
最後に、本発明の好ましい実施形態によれば、多次元特徴ベクトルが画定され、分類のために利用される。好ましくは特徴ベクトルは2D及び/又は3D情報を使用する。
本発明により、自動車乗員検出システムのための新規な構成が発案される。本発明に従う装置の性能は立体視システムに匹敵する。したがって、本発明による装置は別な解決法として働き、幾つかの重要な利点を提供する両眼視システムになる。
−1つのカメラしか必要としないので、本発明に係る装置は立体視技術に比べて経済的である。必要とされる切換可能な照明源の市場価格は通常カメラのそれより安い。
−立体視アプローチに比べて、本発明による装置及び/又は方法では小さいコンピューティングパワーがあればよい。発案システムで使用されるアルゴリズムの複雑性は通常、どんな立体視アルゴリズムの複雑性よりも小さい。
−発案システムは組織対応マッチングに基づいていないので、3D再構成の性能はターゲット対象物の組織特性から完全に独立している。
−カメラ及び光源を位置づけるための自由度が、たいていの立体視技術によるそれよりもかなり大きい。
−本発明による方法では、深さ解像度がカメラの空間解像度の関数のみである。ゆえに、サブピクセルイメージングは必要ない。
−本発明のシステムの複雑性、特にハードウェア複雑性は通常、立体視に基づくシステムの複雑性より低い。
本発明のさらなる情報、詳細及び好ましい実施形態を図及び以下の説明により開示する。
図1aは、本発明に従うシステムの基本的構成、すなわちアウトオブポジション検出システムに結合した発案システムの構造を示す。2つのシステム間の状態遷移を示す状態遷移図である図1bに示されるように、分類結果はアウトオブポジション(OOP)検出システムにより共有される。OOP検出は、対象物が大人と分類される場合のみ作動する。クラス「大人」は分類後に連続的に観察される唯一のクラスである。図1bにおける遷移「イベント」は、クラスの急な変化などの劇的な変化が視野で起きたときに生じる。
先ず、適用される画像獲得・前処理技術を説明する。
15Hzで256×256の解像度を有する12ビットのハイダイナミックレンジ単色画像センサが画像捕獲のために使用される。順番に閃く、2ビットグレーコード信号で始動される3つの赤外光源が使用される。それぞれのフレームが予め割り当てられた照明条件下で捕らえられるように、グレーコード信号は画像センサのトリガークロックと同期される。したがって、異なる照明を有する4つのタイプの画像(それぞれの光源(プラス周囲の照明)による3つの画像と周囲の照明のみによる1つの画像)が獲得の間に連続的に得られる。
照明安定化はいわゆるダブルフラッシュ技術により実現される。主流のCCDベースの画像センサ及びたいていの最近のCMOSベースの画像センサは、人が空間的又は時間的に極めて様々な照明を受ける自動車の内部をモニターするための十分な光学的ダイナミックレンジを提供しない。このような環境で画像の詳細を失うことなく画像を捉えるために、ハイダイナミックレンジに適する画像装置及び/又は照明オフセットを変えずにダイナミックレンジを減少させるための新規なアプローチを適用することが必要である。異なる放射強度で2つの入力画像を照明することでオフセット減少とダイナミックレンジ圧縮の利点を組み合わせる、ダブルフラッシュ技術が発案システムで適用された。ダブルフラッシュ技術は非特許文献1で初めて発表された。
レンズ歪みを取り除いた後、画像シーケンスは、異なる照明パワーに晒された2つの画像を引くことで周囲照明の揺らぎを取り除くダブルフラッシュモジュールに送られる。3段階ディレーバッファで促進されると、ダブルフラッシュ法は完全に周囲照明を除去し、クロックサイクル当たり3つの画像を生成する。
シャドー除去はいわゆるシャドーフラッシュ技術により達成される。
ほぼ全ての自動車内部のモニタリングアプリケーションは、適切な照明オフセットを得るために補助光源(通常、近赤外領域)を導入する。ゆえに、視野において強く映る影は避けられない。シャドーは、システムの全体の機能を妨げる、仮想の対象物を誤って検出させる間違った分割をしばしばもたらす。特許文献1において初めて開示されたシャドーフラッシュ技術は、莫大な大きさの虚像の光源のシミュレーションによってシャドーを取り除くための適切な方法である。アルゴリズムは、それぞれの画像が異なる方向からフラッシュされるところで多数の画像を使用する。1つのシャドーのない画像を創出するための必要な入力画像Ninの数は、周囲ライトの抑制を計算するためのさらなる画像を加えた、使用される光源の数nlightに等しい。
in=nlight+1 (1)
本発明に従う好ましい実施形態によれば、3つの光源が使用される(周囲ライトを含めて入力画像の数は4になる)。周囲照明画像Ioffsetが無視できる場合、入力画像の数はダブルフラッシュを無視することでnlightに減少する。しかし、その場合照明変化を処理するための頑強性が失われる。
テンポラルドメイン処理がスライドn倍長方式で行われる。
シャドーフラッシュアイデアは、照明源を画像装置のトリガー信号に同期させることでテンポラルドメインに拡張でき、画像装置はビデオシーケンス(・・・、I、Ioffset、I、I、Ioffset、I、・・・)を作りだす。ここで、Iは光源xで照明された画像を示し、Ioffsetは周囲照明のみ有する画像を示す。
しかしながら、シャドーフラッシュ法をテンポラルドメインに直接適用すると2つの問題が生じる。先ず、式(1)で説明される1つのシャドーのない画像を得るためにNinの画像が必要となるので、獲得の始まりにおけるnlight−フレームの遅延に伴って、出力シーケンスのフレーム率が1/Ninに減少する。第2に、シーンにおける対象物がNin−倍長の捕捉の間に移動する場合、幾つかのアーチファクトが対象物の境界周りで生じる。
フレーム率減少を避けるために、スライドN倍長方式が発案される。Ninフレームの幅を有するメモリーウィンドウが作られる。ウィンドウは時間軸に沿って移動する。このウィンドウ内で、Ninの異なって照明された連続画像は絶えずリフレッシュされる。これらの画像は、影のない出力画像を創出するための一組の入力を連続的に形成する。図2aは、従来のN倍長方式を使用することで結果シーケンスのフレーム率が4で割られるのに対し、スライドN倍長方式を使用することで(図2b)、出力フレームが連続的に計算される。
速く移動する対象物はスライドN倍長方式の結果を歪める。歪みの量は画像装置のフレーム率に依存する。画像装置が十分な速度を有するフレームを作るとき、移動対象物により生じるアーチファクトは無視できる。シーン内の移動対象物の速度に比べて遅いフレーム率の場合、フレームとフレームの差を検出し補正するために補助アルゴリズムが実行されなければならない。
発案した拡張シャドーフラッシュ法からの例の結果は図3eに示されている。図3a、図3b、図3c及び図3dは、影のない画像の図3eが基づく一連の画像を示す(それぞれ、Ioffset、I、I及びI)。
利用可能な2Dイメージから有益な主な情報を抽出するために、境界抽出が行われる。分割プロセスが開始すると、局所的な相違を比較して、基準背景に対するそれぞれのフレームの組織構造の類似性が分析される。局所的及び全体的な照明変化がダブルフラッシュ技術によって安定化され、全ての影がシャドーフラッシュ技術により除去されるので、簡単な適応閾値処理に先行する相違比較により、観察される対象物の適切な境界が十分にもたらされる。
この近似境界を改良するためにアクティブ輪郭モデルが使用される。以下のスネーク評価のために初期輪郭を提供するため、凸型外殻(コンベックスハル)が近似境界の周りに生成される。この場合、近似境界点のシーケンスが通常2つの連続する凸型包皮の節点の間に存在するのに対し、節点の各組は線セグメントを形成する。それぞれのシーケンスのために、シーケンスと対応する線セグメントの間の最大垂直距離として深さを定めることができる。例えば、対応する線セグメントに隣接/重なるシーケンスの深さはゼロである。最終的に、深さは、ウエイトを与えるそれぞれのスネークセルのエネルギー関数にウエイトをかけるために使用され、それでセルは他のセルより大きい近似境界までの距離を有するとき、高い移動性を有する。影のないシャドーフラッシュ画像の図3eに提供される分割結果は図3fに示される(曲線1:バウンディングボックス、曲線2:コンベックスハル、曲線3:近似境界、曲線4:スネーク結果)。
3次元情報を提供するために、測光ステレオ法が使用される。
目標は双眼画像装置を使用せずに3次元情報を提供することだったので、表面回復法と考えられるおおよそ3つの可能性があった。立体照明(structured lighting)は、ターゲット表面に投影された光パターンの変形に基づいた対象物の3次元形状を計算する、いわゆるアクティブ立体視法である。計算は単純で速いので、投影されたパターンの特徴点が正確に検出されると、シーンの形状が容易に抽出される。しかしながら、実際は、自動車環境内の絶え間ない振動のために赤外光源を用いた正確なパターンの実現は困難である。さらには、このようなパターンは対象物分類のために十分な解像度を呈さない。
最近、補助光源の放出光の実行時間又はフェーズを測定する一点距離測定ユニットのアレーからなる飛行時間(TOF)画像装置が業界において非常に関心が高い。TOF画像装置は、絶対的な深さを直接測定し、遅延なくシーンの完全な距離マップを算出する点で非常に有利である。それにもかかわらず、測定範囲は最大放射力の量によって制限されるので、目の安全性を犯す可能性が依然として解決すべき問題としてある。
測光ステレオ法(PSM)は、反射特性を用いて対象物の相対的深さを構成する、複数の光源を使用するシェーディングに基づく形状法(SFS)の拡張バージョンである。対象物表面を明白に再構成するために任意放射照度の十分な情報が欠乏するSFSとは異なり、特に3つ以上の光源があるとき、PSMはより容易に表面回復を実行する。多数の照明源及び条件が既にシャドーフラッシュ法のために使用されているので、このような実行のために補助ハードウェアを提供する必要がないため、PSMを適用することは簡単である。
2つの連続するフレームの間の対象物の急な移動は、あるアプリケーションのためにPSM法を使用するという問題がある。しかしながら、このアプリケーションでは、移動により引き起こされる一般的な量の歪みは受け入れられる。加えて、低い再構成性能の場合、決定の時間率のバリエーション及び/又はシーンの空間解像度及び/又は画像装置のフレーム率が役立つ。
PSMのタスク全体には2つの主要な手順、つまり表面垂線の評価と垂線ベクトルからの対象物表面の積分が含まれる。表面垂線ベクトルの評価が、照明源の方向及びパワーに関する前情報で支持された放射照度方程式を解くことでアルベド独立的に実行される。適切な方法は、例えば、非特許文献2から知られている。
時間消費の不都合に関係のない運動により生じる小さいアーチファクトのために頑強性を改良するための小さい変更の後、周波数領域の積分可能条件の最小化に基づいた、Frankot-Chellappaアルゴリズム(非特許文献3から知られている)が適用される。
幾つかの一般的な表面回復の例及びそれらの表面垂線のニードルマップが図4に示される。図4は、対応する表面垂線のニードルマップとz軸に沿って投影されたそれらの回復された3D表面を示す。図4a、図4b及び図4cはそれらのオリジナル画像に重ね合わされたニードルマップを示すのに対し、図4d、図4e及び図4fは広がり軸を有する表面再構成結果を示す。
以下の段落では、適用される分類法と対応する分類結果を示す。
先ず、分類のための基礎として、特徴が画定及び/又は選択されなければならない。
安全上の理由のために空席を検出する必要はないので、分類すべき乗員タイプの数は3に制限される(大人、前向きチャイルドシート(FFCS)及び後向きチャイルドシート(RFCS))。入力の関係のない変換に不変の特有の特徴を画定することは、分類装置のジョブを自明にするための基本的なタスクである。
本発明のこの好ましい実施形態によれば、それぞれの特徴は、少なくとも1つのクラスか他の2つのクラスかを特定するように設計される(例えば、大人とチャイルドシートクラスを識別するために乗員サイズを用いる)。発案される特徴は以下のように定められる。
拡張ガウス形画像(EGI):4次元
EGIは離散したガウス球面にわたって計算された表面垂線のヒストグラムである。表面垂線はPSMの計算の間に難なく得られるのに対し(図4参照)、後向きチャイルドシートは他の2つのクラスからの1つのクラスから表面方向の異なる点を有すると考えられる。ヒストグラムはそれぞれ90°の場所(ビン)に分かれており、それぞれの場所に属する法線ベクトルの数が計算される。
表面深さ:4次元
対象物のトップから突出した相対的な深さのプロフィールも特徴として使用される。カメラ座標系は絶対座標系とは異なるので、絶対座標系のz軸に沿って突出した深さプロフィールを提供するために、3つの部分(パン角、チルト角及びロール角)を表す所与の回転行列により回転変換が実行される。視点を変化させる簡単な図が図5aに示されている。カメラ補正は絶対座標原点に対する回転行列Rをもたらす。原則として、全ての3次元特徴は回転変換され、トップから正しく見られる。
広がり軸情報:9次元
対象物表面をうまく回復することで、表面上の3つの極値(図5bで定められたE,E及びE)が幾つかの役立つ特徴を画定するために使用される。図5bでは、極値E,E及びEはそれぞれ最上点、最前点(左)及び最後点(右)として画定される。広がり軸は重心と極値の間の直線である。したがって、広がり角(αz1、αx2及びαx3)が広がり軸と座標系の間の角度として画定される一方、相対的な広がり角(β12、β13及びβ23)は広がり軸それら自体の間の角度である。これらの2つの角度特徴と広がり軸の長さは分類装置のための重要な特徴として使用される。図4d、図4e及び図4fに幾つかの例を示す。
極大値の相対位置:1次元
x軸に沿った極大値Eの相対位置は、他の2つのクラスの代わりに後向きチャイルドシートクラスを特定するための良い手がかりである。図5bに示されるように、相対位置PE1はPE1=WE1/Wとして簡単に定められる。ここで、W及びWE1はそれぞれ、対象物の幅と、EとEの間のx軸に沿う距離を示す。
体積比及びコンパクト性:2次元
対象物の後ろで何が起こるかを確認することはできないので、対象物の体積を確定することは困難である。対象物が平坦な背中面を有すると推測される場合でも、ターゲットの体積はいまだ分割結果に極めて敏感である。したがって、3次元表面領域の2次元境界領域に対する比は、対象物の体積が大きくなるに連れて増大する体積比として画定される。平坦な背中面、対象物を取り囲む六面体に対する対象物体積の割合又はコンパクト性の推定はその体積の頑強な見積もりをも与える。
他の2D幾何学的情報:9次元
標準化中心モーメントとHuモーメントの3つの低次の成分が、幅、高さ及び対象物境界に沿う特徴として選択される。
使用される分類装置は以下のように設計される。
乗員タイプの変化は運転中は起こりそうもないので、視野で何か劇的な変化が生じない限り(図1b参照)、分類はたいていの場合操作の初めに一度実行されれば十分である。したがって、発案システムは、3秒以内に決定に到達しなければならないと考えられる。これは、最終決定をする前に30Hzのフレーム率で90フレームの処理を意味する。
発案される特徴は乗客の動的特性を反映しないことを考慮すると、テンポラルシリーズを処理し分類できる分類装置モデルを構成する必要がある。監督されて鍛えられることで、ジョーダンにより発案された部分的再帰ネットワーク(例えば、非特許文献4)は、2つのタップ遅延回路の助けにより使用される。これらは、任意の中間遅延長さ値のコンテンツにアクセスできる遅延記憶装置である。それぞれのタップ遅延回路は、特徴ベクトル(入力)又は分類結果(出力)のストリームにおいて雑音成分をフィルタリングすることで分類性能全体の精度を改良する。発案システムの最大遅延長さは、システムが3秒間の乗客の歴史をモニターすることができる90フレームに制限される。ラーニングプロセス後の発案されるジョーダンネットワークは図6aに示されるのに対し、図6bは分類装置の構造全体、すなわち2つのタップ遅延回路を備えた発案される分類装置の構成を示す。
システム及び本発明に従う方法の性能、効率及び頑強性を明確にするために、以下の段落では、発案システム及び方法による幾つかの実験の結果を開示する。
発案システム及び方法は、30Hzで12ビットグレースケールを有する、29の様々なチャイルドシートと25の人から収集された578のイメージシーケンスを有する実験において試験された。レンズ歪みは補正されたカメラパラメータを用いて削除された。毛布などの別な対象物と様々な周囲照明条件は多様性を得るために使用された。最後に、シーケンスはトレーニング・試験セットを作り出す2つのグループに均等に分けられ、乗員の挙動に依存する100〜500のシーケンスの長さと、ターゲット出力値がマニュアルで調査された。発案されるネットワークは、トレーニングセットにより弾性的逆伝搬(Rprop)アルゴリズムにより鍛えられる一方、レギュラーロジスチック活性化関数が全てのニューロンに設定され、そのシナプスの初期値がランダムに選択される。120の反復後ネットワークが0.0793の平均二乗誤差に達すると、ラーニングは停止される。
ニューラルネットワークが単一のフレーム決定をするので、分類性能が2つのタップ遅延回路の長さに従うテストセットにより評価された。図6cは遅延回路の長さに対する分類エラー空間を示す。図6cは、順次挙動に対する再帰ネットワークの適応性のためにシステムが出力ディレーバッファの長さに明らかにより敏感であることを示す。しかしながら、両方の遅延回路の大きさが増大すると、感度の差はごく僅かになった。表1は、タップ遅延回路の保持なしでクラスタイプに従う中間エラー分析を示す。
表1:タップ遅延回路のないエラー統計(全体のエラー率:6.66%)
前向きチャイルドシート(FFCS):エラー率14.2%、好ましいエラー:RFCS(99.5%)
後向きチャイルドシート(RFCS):エラー率15.4%、好ましいエラー:RRCS(90.0%)
大人: エラー率0.725%、好ましいエラー:RFCS(68.3%)
表1の中間分析によれば、特にシーンが別な対象物(例えば、毛布で覆われたRFCSでテディベアを抱いた赤ちゃん)により変更されるとき、ほとんどのエラーが2次元ジオメトリーの似た特徴のためにFFCSとRFCSの間で生じる。多数の動きを含むテストシーケンスでも大人クラスにおいては低いエラー率が実現された。大人とチャイルドシートの誤分類は2つのチャイルドシートとチャイルドシートの誤分類のそれより大きい危険性を一般に有するので、これらは励みになる結果である。タップ遅延回路を適用した後、全てのクラスのエラー率は表2に示されるように劇的に減少した。
表2:タップ遅延回路を用いたエラー統計(全体のエラー率:1.14%)
前向きチャイルドシート(FFCS):エラー率10.1%、好ましいエラー:RFCS(100.0%)
後向きチャイルドシート(RFCS):エラー率13.7%、好ましいエラー:RRCS(91.7%)
大人: エラー率0.0%
通常のジョーダンネットワークのオリジナルエラー率は6.66%に達するが(表1)、入力遅延回路及び出力遅延回路の長さをそれぞれ31、59に設定後、98.9%の分類率が実現された。
前記の結果は、本発明に従うシステム及び方法の性能、効率及び頑強性を実証している。
本発明の好ましい実施形態によれば、自動車シート上の対象物は少なくとも2つのクラスから1を割り当てられる。発案される方法のこの特徴は発案される方法の他の特徴と必ずしも組み合わされる必要はなく、及び/又はこの特徴により特徴付けられる方法は本発明に従う装置と無関係に使用できる。
したがって、本発明はさらに自動車シート上で検出された対象物を分類する方法に関し、対象物は少なくとも2つのクラスの1を割り当てられる。本発明の好ましい実施形態によれば、対象物は少なくとも2つの対象物クラスから1を割り当てられ、少なくとも2つの対象物クラスは3つの以下の対象物クラスを有する複数の対象物クラスから選択される:前方の運転方向に配置されたチャイルドシート、後方の運転方向に配置されたチャイルドシート、大人である。しかしながら、分類それ自体は必ずしも明細書に従う方法及び/又は装置により遂行されなくてもよい。
システムの全体像であり、本発明に従うシステムの基本的構成である。 システムの全体像であり、システム全体の状態遷移図である。 スライドN倍長方式のない、本発明に従い適用されるリアルタイム・シャドーフラッシュ技術の例である。 スライドN倍長方式を用いた、本発明に従い適用されるリアルタイム・シャドーフラッシュ技術の例である。 シャドーフラッシュ及び分割結果であり、このテストに使用される一連の画像である。 シャドーフラッシュ及び分割結果であり、このテストに使用される一連の画像である。 シャドーフラッシュ及び分割結果であり、このテストに使用される一連の画像である。 シャドーフラッシュ及び分割結果であり、このテストに使用される一連の画像である。 シャドーフラッシュ及び分割結果であり、得られるシャドーフラッシュ画像である。 シャドーフラッシュ及び分割結果であり、シャドーフラッシュ画像に適用された分割結果である。 表面垂線のニードルマップとz軸に沿って投影されたそれらのリカバー3D面であり、それらのオリジナル画像に重ね合わされたニードルマップである。 表面垂線のニードルマップとz軸に沿って投影されたそれらのリカバー3D面であり、それらのオリジナル画像に重ね合わされたニードルマップである。 表面垂線のニードルマップとz軸に沿って投影されたそれらのリカバー3D面であり、それらのオリジナル画像に重ね合わされたニードルマップである。 表面垂線のニードルマップとz軸に沿って投影されたそれらのリカバー3D面であり、広がり軸を有する表面再構成結果である。 表面垂線のニードルマップとz軸に沿って投影されたそれらのリカバー3D面であり、広がり軸を有する表面再構成結果である。 表面垂線のニードルマップとz軸に沿って投影されたそれらのリカバー3D面であり、広がり軸を有する表面再構成結果である。 本発明に従う特徴抽出のための座標、軸及びパラメータである。 本発明に従う特徴抽出のための座標、軸及びパラメータである。 本発明に従う分類装置のデザインであり、ラーニングプロセス後のジョーダンネットワークである。 本発明に従う分類装置のデザインであり、2つの多段遅延回路を有する発案される分類装置構成である。 本発明に従う分類装置のデザインであり、遅延回路の長さに対する分類エラー空間である。
符号の説明
α 広がり角
β 広がり角
E 極値
W 距離

Claims (4)

  1. 対象物の2次元表現を生成するための処理ユニットと1つのカメラを有する、自動車シート上の対象物を検出する装置であって、
    装置が少なくとも2つの照明源をさらに有し、当該照明源は、対象物が様々な方向から照明されるように位置決めされ、
    処理ユニットが、それぞれが様々な照明条件下で生成された2つの2次元表現から対象物の3次元表現を生成するのに適しており、
    対象物の表面垂線ベクトルの評価とこれらの表面垂線ベクトルからの対象物表面の積分とに基づいて、3次元表現は2つの2次元表現から生成され、立体照明が使用されないことを特徴とする装置。
  2. 処理ユニットが、それぞれが様々な照明条件下で生成された2つの2次元表現から対象物の3次元表現を生成するのに適しており、様々な照明条件は異なる数のアクティブ照明源により作られることを特徴とする請求項1に記載の装置。
  3. 処理ユニットが、検出される対象物に少なくとも2つの対象物クラスから1を割り当てるのに適し、
    少なくとも2つの対象物クラスは、以下の3つの対象物クラス、
    −前方運転方向に配置されたチャイルドシート、
    −後方運転方向に配置されたチャイルドシート、
    −大人、
    を有する複数の対象物クラスから選択されることを特徴とする請求項1又は2に記載の装置。
  4. 処理ユニットは、自動車シート上の装置が割り当てられた対象物クラスの信号を処理ユニット自体又は別な装置により実行されるタスクに送り、
    このタスクの実行の事実及び/又は様式は自動車シート上の装置が割り当てられた対象物クラスに依存することを特徴とする請求項3に記載の装置。
JP2007529322A 2004-09-06 2005-05-20 自動車シート上の対象物を検出するための装置 Active JP4756044B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102004043418 2004-09-06
DE102004043418.2 2004-09-06
PCT/EP2005/005462 WO2006027032A1 (en) 2004-09-06 2005-05-20 Device for the detection of an object on a vehicle seat

Publications (2)

Publication Number Publication Date
JP2008516301A JP2008516301A (ja) 2008-05-15
JP4756044B2 true JP4756044B2 (ja) 2011-08-24

Family

ID=34967786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007529322A Active JP4756044B2 (ja) 2004-09-06 2005-05-20 自動車シート上の対象物を検出するための装置

Country Status (8)

Country Link
US (1) US7379195B2 (ja)
EP (1) EP1786654B1 (ja)
JP (1) JP4756044B2 (ja)
KR (1) KR101115944B1 (ja)
CN (1) CN101010224B (ja)
DE (1) DE602005017290D1 (ja)
ES (1) ES2334040T3 (ja)
WO (1) WO2006027032A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7489425B2 (en) * 2004-03-15 2009-02-10 Heidelberger Druckmaschinen Ag Method for controlling an operating process of a printing machine
WO2007136745A2 (en) 2006-05-19 2007-11-29 University Of Hawaii Motion tracking system for real time adaptive imaging and spectroscopy
JP2008129948A (ja) 2006-11-22 2008-06-05 Takata Corp 乗員検出装置、作動装置制御システム、シートベルトシステム、車両
KR100785234B1 (ko) * 2006-12-29 2007-12-11 주식회사다스 자동차 시트의 워크인 메모리 장치
GB2453163B (en) * 2007-09-26 2011-06-29 Christopher Douglas Blair Three-dimensional imaging system
JP5141317B2 (ja) * 2008-03-14 2013-02-13 オムロン株式会社 対象画像検出デバイス、制御プログラム、および該プログラムを記録した記録媒体、ならびに対象画像検出デバイスを備えた電子機器
WO2010021972A1 (en) * 2008-08-18 2010-02-25 Brown University Surround structured lighting for recovering 3d object shape and appearance
US8116528B2 (en) * 2008-10-08 2012-02-14 Honda Motor Company, Ltd. Illumination source for an image based occupant classification system and vehicle using same
US8036795B2 (en) * 2008-10-08 2011-10-11 Honda Motor Company, Ltd. Image based occupant classification systems for determining occupant classification and seat belt status and vehicles having same
US8195356B2 (en) 2008-10-08 2012-06-05 Honda Motor Co., Ltd. Methods for testing an image based occupant classification system
US8781160B2 (en) * 2009-12-31 2014-07-15 Indian Institute Of Technology Bombay Image object tracking and segmentation using active contours
US8625931B2 (en) * 2010-09-03 2014-01-07 Adobe Systems Incorporated Light space graphical model in shape from shading
US10972680B2 (en) * 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
WO2012176944A1 (ko) * 2011-06-22 2012-12-27 동국대학교 경주캠퍼스 산학협력단 신뢰성 있는 금속 표면 3차원 형상 추출 기법 및 시스템
WO2013032933A2 (en) 2011-08-26 2013-03-07 Kinecticor, Inc. Methods, systems, and devices for intra-scan motion correction
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) * 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
CN109008972A (zh) 2013-02-01 2018-12-18 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪系统
CN106572810A (zh) 2014-03-24 2017-04-19 凯内蒂科尔股份有限公司 去除医学成像扫描的预期运动校正的系统、方法和装置
EP2924663B1 (en) * 2014-03-26 2019-10-23 Airbus Operations GmbH Automatic head count determination on board an aircraft
EP3188660A4 (en) 2014-07-23 2018-05-16 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10716515B2 (en) 2015-11-23 2020-07-21 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
JP2020504295A (ja) 2016-12-07 2020-02-06 ジョイソン セイフティ システムズ アクイジション エルエルシー 3dタイムオブフライト能動反射検知システム及び方法
JP2020508912A (ja) * 2016-12-23 2020-03-26 ティ.ケイ.ホールディングス、インコーポレイテッド 車両に着座した乗員の動作を検出するシステムおよび方法
DE102017200607B4 (de) 2017-01-17 2024-02-15 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug
KR102005956B1 (ko) 2018-03-19 2019-07-31 김대훈 차량 내부 이미지 인식 장치
US11117594B2 (en) * 2018-06-22 2021-09-14 GM Global Technology Operations LLC System and method for detecting objects in an autonomous vehicle
KR20200059749A (ko) 2018-11-21 2020-05-29 이정호 차량 내부 관리 시스템
US11100347B2 (en) 2019-03-12 2021-08-24 Ford Global Technologies, Llc Photometric stereo object detection for articles left in an autonomous vehicle
US11210539B2 (en) 2019-04-04 2021-12-28 Joyson Safety Systems Acquisition Llc Detection and monitoring of active optical retroreflectors
JP7331483B2 (ja) * 2019-06-18 2023-08-23 株式会社アイシン 撮像制御装置
KR102340720B1 (ko) 2019-07-24 2021-12-20 김대훈 차량 관리 시스템
WO2021108758A1 (en) * 2019-11-27 2021-06-03 Rayos Jonathan System having predictive analytics and custom visualization for use in imaging a vehicle occupant and method of use
DE102019218613B4 (de) * 2019-11-29 2021-11-11 Volkswagen Aktiengesellschaft Objektklassifizierungsverfahren, Objektklassifizierungsschaltung, Kraftfahrzeug
DE102022004540A1 (de) 2021-12-15 2023-06-15 Mercedes-Benz Group AG System und Verfahren zur Erfassung des Vorhandenseins eines Kindersitzes in einem Fahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1178657A (ja) * 1997-09-11 1999-03-23 Toyota Motor Corp 座席の使用状況判定装置
US20030234519A1 (en) * 2001-05-30 2003-12-25 Farmer Michael Edward System or method for selecting classifier attribute types
US20040109154A1 (en) * 2002-03-22 2004-06-10 Trw Inc. Structured lighting detection of vehicle occupant type and position

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5737083A (en) * 1997-02-11 1998-04-07 Delco Electronics Corporation Multiple-beam optical position sensor for automotive occupant detection
CA2300400A1 (en) * 1999-03-22 2000-09-22 Michael George Taranowski Electronic optical target ranging and imaging
FR2815134B1 (fr) * 2000-10-11 2003-01-10 Siemens Automotive Sa Dispositif permettant la detection de l'occupation d'un habitacle d'une automobile
US6810133B2 (en) * 2001-06-01 2004-10-26 Trw Inc. Occupant sensing system and method via imaging
US6914526B2 (en) * 2002-03-22 2005-07-05 Trw Inc. Intrusion detection system using linear imaging
US7102683B2 (en) * 2002-04-17 2006-09-05 Mitsubishi Electric Research Laboratories, Inc. Single lens 3D camera
DE10250705A1 (de) 2002-10-31 2004-05-13 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Schattenkompensation in digitalen Bildern

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1178657A (ja) * 1997-09-11 1999-03-23 Toyota Motor Corp 座席の使用状況判定装置
US20030234519A1 (en) * 2001-05-30 2003-12-25 Farmer Michael Edward System or method for selecting classifier attribute types
US20040109154A1 (en) * 2002-03-22 2004-06-10 Trw Inc. Structured lighting detection of vehicle occupant type and position

Also Published As

Publication number Publication date
CN101010224B (zh) 2012-11-14
ES2334040T3 (es) 2010-03-04
JP2008516301A (ja) 2008-05-15
US7379195B2 (en) 2008-05-27
EP1786654A1 (en) 2007-05-23
CN101010224A (zh) 2007-08-01
KR20070050053A (ko) 2007-05-14
DE602005017290D1 (de) 2009-12-03
US20070206836A1 (en) 2007-09-06
WO2006027032A1 (en) 2006-03-16
EP1786654B1 (en) 2009-10-21
KR101115944B1 (ko) 2012-02-13

Similar Documents

Publication Publication Date Title
JP4756044B2 (ja) 自動車シート上の対象物を検出するための装置
CN104956400B (zh) 移动对象识别器、车辆及识别移动对象的方法
US6961443B2 (en) Occupant sensor
JP4848022B2 (ja) 車両の乗員を検出する方法
US7574018B2 (en) Virtual reality scene generator for generating training images for a pattern recognition classifier
KR100630842B1 (ko) 스테레오 영상 정합을 이용한 자동차의 탑승자 자세 판별시스템 및 그 방법
US20140198951A1 (en) Image processing apparatus and image processing method
TW201004818A (en) The asynchronous photography automobile-detecting apparatus
JP3943367B2 (ja) 車両用乗員頭部検出装置
CN109443319A (zh) 基于单目视觉的障碍物测距系统及其测距方法
JP2021148730A (ja) 位置推定方法、位置推定装置、及び、プログラム
Faber Seat occupation detection inside vehicles
JP2021056968A (ja) 物体判定装置
Yoon et al. Vision based occupant detection system by monocular 3D surface reconstruction
Yoon et al. Real-time occupant detection system in an active illumination environment
Boverie et al. 3D perception for new airbag generations
Hu et al. Grayscale correlation based 3D model fitting for occupant head detection and tracking
Yoon Single-imager occupant detection based on surface reconstruction
La Rota et al. Automatically adjustable rear mirror based on computer vision
JP2021140514A (ja) 移動物体検出装置、及び移動物体検出方法
CN114119652A (zh) 用于三维重构的方法和装置以及电子设备
Wender et al. Vehicle detection with three dimensional object models
Boverie et al. SIEMENS ZT KM3

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101129

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110530

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4756044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250