JP2013232080A - 対象物識別装置 - Google Patents

対象物識別装置 Download PDF

Info

Publication number
JP2013232080A
JP2013232080A JP2012103329A JP2012103329A JP2013232080A JP 2013232080 A JP2013232080 A JP 2013232080A JP 2012103329 A JP2012103329 A JP 2012103329A JP 2012103329 A JP2012103329 A JP 2012103329A JP 2013232080 A JP2013232080 A JP 2013232080A
Authority
JP
Japan
Prior art keywords
identification
specific vehicle
parts
pedestrian
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012103329A
Other languages
English (en)
Other versions
JP5648655B2 (ja
Inventor
Kazuki Kato
一樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2012103329A priority Critical patent/JP5648655B2/ja
Priority to DE102013207575A priority patent/DE102013207575A1/de
Publication of JP2013232080A publication Critical patent/JP2013232080A/ja
Application granted granted Critical
Publication of JP5648655B2 publication Critical patent/JP5648655B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching

Abstract

【課題】異なる識別対象を撮像画像から識別する画像処理の処理負荷を低減するための技術を提供する。
【解決手段】対象物識別装置1において、パーツ識別器13が、識別対象を部分的に表す複数種類のパーツを、撮像画像において識別する。そして、歩行者識別器14が、パーツ識別器13による複数種類のパーツの識別結果のうち、歩行者を部分的に表す複数のパーツの識別結果に基づいて、歩行者を識別する。また、特定車両識別器15が、パーツ識別器13による複数種類のパーツの識別結果のうち、特定車両及びその乗員を部分的に表す複数のパーツの識別結果に基づいて、特定車両及びその乗員を識別する。複数種類のパーツには、歩行者と、特定車両及びその乗員と、に共通する部分を表す共通パーツが含まれ、共通パーツは、歩行者識別器14及び特定車両識別器15の両方により用いられる。
【選択図】図1

Description

本発明は、撮像画像から識別対象を識別するための画像処理の技術に関する。
従来、自動車に搭載された車載カメラによる撮像画像から、自動車の走行方向前方に存在する歩行者等の識別対象を識別するための技術が提案されている。例えば特許文献1に記載の対象物識別装置は、撮像画像において歩行者を識別するための構成として、歩行者を識別するための識別器だけでなく、歩行者と誤って識別されやすい複数種類の障害物(例えば自転車や電柱)を識別するための複数の識別器を備える。そして、これら複数の識別器による識別結果に基づいて、歩行者を識別する。
特開2010−224787号公報
ところで、例えば歩行者と自転車(自転車の乗員)といったように、異なる識別対象を撮像画像において識別する場合、識別対象ごとにそれぞれ独立して画像処理を実行するため、画像処理の処理負荷が大きいという問題があった。
本発明は、こうした問題にかんがみてなされたものであり、異なる識別対象を撮像画像から識別する画像処理の処理負荷を低減するための技術を提供することを目的としている。
本発明の対象物識別装置は、パーツ識別手段(13)と、第1の対象物識別手段(14)と、第2の対象物識別手段(15)と、を備える。パーツ識別手段は、識別対象を部分的に表す複数種類のパーツを、撮像画像において識別する。
第1の対象物識別手段は、パーツ識別手段による複数種類のパーツの識別結果のうち、第1の識別対象を部分的に表す複数のパーツの識別結果に基づいて、第1の識別対象を識別する。また、第2の対象物識別手段は、パーツ識別手段による複数種類のパーツの識別結果のうち、第2の識別対象を部分的に表す複数のパーツの識別結果に基づいて、第2の識別対象を識別する。
そして、複数種類のパーツには、第1の識別対象及び第2の識別対象に共通する部分を表す共通パーツが含まれており、共通パーツは、第1の対象物識別手段及び第2の対象物識別手段の両方により用いられる。
このような対象物識別装置によれば、撮像画像において共通パーツを識別するための処理を、第1の識別対象を識別する場合と第2の識別対象を識別する場合とで共通にすることができる。したがって、異なる識別対象を撮像画像から識別する画像処理の処理負荷を低減することができる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
実施形態の対象物識別装置の構成を示すブロック図である。 車載カメラによる撮像画像の一例を示す図である。 歩行者と特定車両及びその乗員との識別に用いられる識別器を示す図である。 対象物識別装置で実行される処理を示すフローチャートである。 パーツの基準位置関係の一例を示す図である。 車載表示装置により表示される加工画像の一例を示す図である。
以下、本発明が適用された実施形態について、図面を用いて説明する。
[1.構成]
図1に示す対象物識別装置1は、自動車に搭載され、車載カメラ2及び車載表示装置3のそれぞれと通信可能に接続されている。車載カメラ2は、自動車の走行方向前方を撮像するカメラ(本実施形態では単眼カメラ)であり、撮像画像を対象物識別装置1へ出力する。対象物識別装置1は、車載カメラ2から入力した撮像画像において歩行者などの識別対象を識別し、撮像画像において識別対象が強調された画像(加工画像)を生成して車載表示装置3へ出力する。車載表示装置3は、対象物識別装置1から入力した加工画像を、自動車の運転者が視認できるように表示する。
対象物識別装置1は、色変換部11と、特徴量算出部12と、パーツ識別器13と、歩行者識別器14と、特定車両識別器15と、加工画像生成部16と、を備える。
色変換部11は、撮像画像を表す画像データに対して、色変換(グレースケール変換)処理を行う。本実施形態では、車載カメラ2は、撮像画像を表す画像データとして、各画素がRGB値で表現された画像データを生成する。色変換部11は、車載カメラ2から入力した撮像画像を表す画像データを、輝度値で表現された画像データに変換する。具体的には、下記の式(1)に従い、画像を構成する画素ごとに、入力画素値(RGB値)を輝度値Iに変換する。
特徴量算出部12は、色変換部11により色変換処理が行われた後の画像データに対して、特徴量を算出する。具体的には、下記の式(2)〜(5)に従い、画像を構成する画素ごとに、勾配強度G及び勾配方向θを算出する。これらの値は、複数画素からなる領域の特徴量をHOG(Histograms of Oriented Gradients)と呼ばれる手法で表現するために用いられる。なお、下記式(4),(5)において、I(x,y)は、画像における位置が(x,y)の画素の輝度値を表す。
そして、特徴量算出部12は、画像を複数の画素からなるブロック(例えばM1×N1画素分の矩形領域)単位に分割し、各ブロックの特徴量を算出する。本実施形態では、4×4画素を1ブロックとして画像を複数のブロックに分割する。そして、ブロックごとに、輝度の勾配強度を勾配方向ごと(複数に区分された角度範囲別)にヒストグラム化した特徴ベクトルであるHOG特徴量を算出する。勾配強度は画像のコントラスト等に依存するため、ブロック内の勾配強度の総和で割ることにより正規化を行ってもよい。なお、このようなHOG特徴量の算出方法自体は周知である。
パーツ識別器13は、識別対象を部分的に表す複数種類のパーツを、撮像画像において識別し、その識別結果を出力する。具体的には、パーツ識別器13は、頭識別器131と、右肩識別器132と、左肩識別器133と、股下識別器134と、右足識別器135と、左足識別器136と、車輪識別器137と、を備える。
頭識別器131は、人間の頭部を、歩行者又は特定車両の乗員、の頭部として識別する。ここで、特定車両とは、典型的には自転車であるが、オートバイ(自動二輪車)などの他の二輪車や、三輪車、車椅子なども含まれる。一方、自動車などのように、乗員が車両の内部に乗車するものは除外される。つまり、特定車両とは、乗員の上半身が露出した形で乗車するタイプの車両を意味する。
図2に示すように、自動車が走行する道路を横向きに横断中の特定車両(図2の例では自転車)及びその乗員は、撮像画像における見え方を歩行者と比較すると、上半身の見え方は類似し、下半身の一部が足であるか車輪(後輪)であるかという点で相違する。具体的には、図3にも示すように、特定車両及びその乗員は、歩行者と比較すると、歩行者でいう左右の足先の一方(図3の例では左側の足先)に、特定車両の車輪(後輪)が位置するように見える。そこで、本実施形態では、このような撮像画像上の見え方の特徴に着目し、後述するように、見え方が類似するパーツを、歩行者の識別と特定車両及びその乗員の識別とで共通のパーツとして用いる。
右肩識別器132は、人間の右側の肩部を、歩行者又は特定車両の乗員の右側の肩部として識別する。ここで、右側の肩部とは、撮像画像において右側に位置する肩部を意味する。つまり、その人間の実際の右肩である必要はない。同様に、左肩識別器133は、人間の左側の肩部を、歩行者又は特定車両の乗員の左側の肩部として識別する。
股下識別器134は、人間の股下部を、歩行者又は特定車両の乗員の股下部として識別する。右足識別器135は、人間の右側の足先部(撮像画像において右側に位置する足先部)を、歩行者又は特定車両の乗員の右側の足先部として識別する。同様に、左足識別器136は、人間の左側の足先部を、歩行者又は特定車両の乗員の左側の足先部として識別する。車輪識別器137は、特定車両の車輪を識別する。なお、これらのパーツは、人間の姿勢が変化しても特徴が変化しにくい部分として選択されたものである。
歩行者識別器14は、歩行者を部分的に表す6つのパーツの識別結果に基づいて、撮像画像において歩行者を識別する。具体的には、歩行者識別器14は、頭識別器131と、右肩識別器132と、左肩識別器133と、股下識別器134と、右足識別器135と、左足識別器136と、の識別結果を入力する。そして、これらの識別結果に基づいて、歩行者を識別する。
特定車両識別器15は、特定車両及びその乗員を部分的に表す6つのパーツの識別結果に基づいて、撮像画像において特定車両及びその乗員を識別する。具体的には、特定車両識別器15は、右向車両識別器151と、左向車両識別器152と、を備える。
右向車両識別器151は、頭識別器131と、右肩識別器132と、左肩識別器133と、股下識別器134と、右足識別器135と、車輪識別器137と、の識別結果を入力する。そして、これらの識別結果に基づいて、撮像画像において右向きに走行している状態の特定車両及びその乗員を識別する。つまり、歩行者識別器14と比較すると、左足識別器136の識別結果に代えて車輪識別器137の識別結果を用いる点で異なる。
図2に示すように、歩行者と、右向きに走行している状態の特定車両及びその乗員と、の撮像画像における大きな違いは、上半身に対して左下の部分(点線で示す矩形領域)である。具体的には、歩行者の場合、左下の部分には左側の足先部が表れるが、特定車両及びその乗員の場合には特定車両の車輪(後輪)が表れる。つまり、図3に示すように、歩行者を識別するための識別器131〜136のうち、識別器131〜135を、右向きに走行している状態の特定車両及びその乗員を識別するために流用することができる。
なお、左向きに走行している状態の特定車両及びその乗員については、車輪の位置が左右逆になる。具体的には、特定車両及びその乗員に対応する領域における右下の部分に、特定車両の車輪(後輪)が位置する。つまり、歩行者を識別するための識別器131〜136のうち、識別器131〜134,136を、左向きに走行している状態の特定車両及びその乗員を識別するために流用することができる。
左向車両識別器152は、頭識別器131と、右肩識別器132と、左肩識別器133と、股下識別器134と、左足識別器136と、車輪識別器137と、の識別結果を入力する。そして、これらの識別結果に基づいて、撮像画像において左向きに走行している状態の特定車両及びその乗員を識別する。つまり、右向車両識別器151とは左右対称の状態を識別する。このため、歩行者識別器14と比較すると、右足識別器135の識別結果に代えて車輪識別器137の識別結果を用いる点で異なる。
加工画像生成部16は、歩行者識別器14及び特定車両識別器15により識別された識別対象が撮像画像において強調された加工画像を生成し、生成した画像を車載表示装置3へ出力する。
[2.処理]
次に、歩行者と特定車両及びその乗員とを撮像画像において識別するために対象物識別装置1で実行される処理について、図4のフローチャートを用いて説明する。
対象物識別装置1は、まず、前述した色変換部11による処理として、車載カメラ2から入力した撮像画像を表す画像データをグレースケール化して、輝度値で表現された画像データを生成する(S101)。
続いて、対象物識別装置1は、前述した特徴量算出部12による処理として、輝度値で表現された画像データに対して、特徴量を算出する(S102)。具体的には、画像を構成する画素ごとに、勾配強度G及び勾配方向θを算出し、画像を複数に区分した各ブロックの特徴量を算出する。
続いて、対象物識別装置1は、前述したパーツ識別器13及び歩行者識別器14による処理として、撮像画像において歩行者を識別する処理を行う(S103)。まず、頭識別器131による処理として、撮像画像において人間の頭部を識別する。具体的には、撮像画像において、M2×N2ブロック(例えば4×4ブロック)分のサイズのセルを、ブロック単位で走査する。そして、各セル位置(注目位置)において、頭部の基準HOG特徴量との類似度を表す値を算出する。頭部の基準HOG特徴量は、頭部を表すHOG特徴量としてあらかじめ記憶されている。つまり、頭部の基準HOG特徴量(M2×N2ブロック分の基準HOG特徴量)をテンプレートとして、撮像画像においてテンプレートの位置(セル位置)を順にずらしながら、各セル位置におけるテンプレートとの類似度を算出する周知のテンプレートマッチングの処理を行う。各セル位置で算出された類似度は、そのセル位置の領域に人間の頭部が存在する可能性の高さを示す。
また、頭識別器131による処理と同様に、右肩識別器132、左肩識別器133、股下識別器134、右足識別器135及び左足識別器136による処理を行う。つまり、撮像画像において人間の右側の肩部、左側の肩部、股下部、右側の足先部及び左側の足先部について、それぞれのテンプレートを用いて、各セル位置におけるテンプレートとの類似度を算出する。各セル位置で算出された各パーツの類似度は、そのセル位置の領域に各パーツが存在する可能性の高さを示す。
このような算出処理により、各セル位置において、頭部、右側の肩部、左側の肩部、股下部、右側の足先部及び左側の足先部の6つのパーツの類似度(識別結果)が算出される。そして、これらの類似度に基づいて、撮像画像において歩行者を識別する。
具体的には、図5に示すように、頭部、右側の肩部、左側の肩部、股下部、右側の足先部及び左側の足先部の6つのパーツの基準位置関係(相対的な位置関係)が、事前に教師データを用いて学習されている。このため、頭部の類似度がしきい値T1以上のセル(人間の頭部が存在する可能性の高い領域)について、基準位置関係に基づいて他のパーツのセル位置を特定することで、それら6つのパーツの類似度を統合した統合類似度を算出することができる。算出された統合類似度は、特定された6つのセル位置を包含する矩形領域に歩行者が存在する可能性の高さを示す。統合類似度は、例えば、6つの類似度の平均値として算出してもよく、また、6つの類似度の性質等に応じて重み付けした重み付け平均値として算出してもよい。なお、頭部の類似度がしきい値T1以上のセルが1つも存在しなければ、統合類似度は1つも算出されない。
続いて、対象物識別装置1は、算出された統合類似度(歩行者類似度)について、しきい値T2以上であるか否かを判定する(S104)。対象物識別装置1は、1つ以上の統合類似度について、しきい値T2以上であると判定した場合には(S104:YES)、その統合類似度を算出した6つのセル位置を包含する矩形領域に歩行者が存在すると判定する(S105)。その後、対象物識別装置1は、処理をS106へ移行させる。一方、対象物識別装置1は、しきい値T2以上の統合類似度が存在しないと判定した場合には(S104:NO)、S105の処理を行わずに、処理をS106へ移行させる。
S106では、前述したパーツ識別器13、及び特定車両識別器15による処理として、撮像画像において右向きに走行している状態の特定車両及びその乗員を識別する処理を行う。具体的には、前述したS103と同様の手法で、頭識別器131、右肩識別器132、左肩識別器133、股下識別器134、右足識別器135及び車輪識別器137による処理を行う。つまり、撮像画像において人間の頭部、右側の肩部、左側の肩部、股下部、右側の足先部及び車輪について、それぞれのテンプレートを用いて、各セル位置におけるテンプレートとの類似度を算出する。
このような算出処理により、各セル位置において、頭部、右側の肩部、左側の肩部、股下部、右側の足先部及び車輪の6つのパーツの類似度(識別結果)が算出される。そして、これらの類似度に基づいて、撮像画像において右向きに走行している状態の特定車両及びその乗員を識別する。
具体的には、前述したS103と同様、頭部の類似度がしきい値T3(しきい値T1と同じ値でもよい。)以上のセルについて、基準位置関係に基づいて特定される6つのパーツの類似度を統合した統合類似度を算出する。ただし、S103で算出する統合類似度とは、左側の足先部を車輪に置き換えた点以外は共通するため、これらのパーツの類似度を入れ替えることで簡易的に算出することができる。算出された統合類似度は、特定された6つのセル位置を包含する矩形領域に、右向きに走行している状態の特定車両及びその乗員が存在する可能性の高さを示す。
続いて、対象物識別装置1は、算出された統合類似度(右向き特定車両類似度)について、しきい値T4以上であるか否かを判定する(S107)。対象物識別装置1は、1つ以上の統合類似度について、しきい値T4以上であると判定した場合には(S107:YES)、その統合類似度を算出した6つのセル位置を包含する矩形領域に、右向きに走行している状態の特定車両及びその乗員が存在すると判定する(S108)。
続いて、存在すると判定した(撮像画像において識別された)各特定車両について、その特定車両の位置と、特定車両の走行方向(右方向)と、に基づいて、自動車の前方道路(走行予定経路)へ近づいている状態であるか否かを判定する(S109)。例えば、左向きに走行している状態の特定車両については、撮像画像における左側に存在する場合には、前方道路へ近づいていると判定し、撮像画像における右側に存在する場合には、前方道路から遠ざかっていると判定する。右向きに走行している状態の特定車両については、左向きに走行している状態の特定車両とは逆に判定する。その後、対象物識別装置1は、処理をS110へ移行させる。
一方、対象物識別装置1は、しきい値T4以上の統合類似度が存在しないと判定した場合には(S107:NO)、S108及びS109の処理を行わずに、処理をS110へ移行させる。
S110では、前述したパーツ識別器13、及び特定車両識別器15による処理として、撮像画像において左向きに走行している状態の特定車両及びその乗員を識別する処理を行う。具体的には、前述したS106と同様の手法で、頭識別器131、右肩識別器132、左肩識別器133、股下識別器134、左足識別器136及び車輪識別器137による処理を行う。つまり、撮像画像において人間の頭部、右側の肩部、左側の肩部、股下部、左側の足先部及び車輪について、それぞれのテンプレートを用いて、各セル位置におけるテンプレートとの類似度を算出する。
このような算出処理により、各セル位置において、頭部、右側の肩部、左側の肩部、股下部、左側の足先部及び車輪の6つのパーツの類似度(識別結果)が算出される。そして、これらの類似度に基づいて、撮像画像において左向きに走行している状態の特定車両及びその乗員を識別する。
具体的には、前述したS103と同様、頭部の類似度がしきい値T5(しきい値T1と同じ値でもよい。)以上のセルについて、基準位置関係に基づいて特定される6つのパーツの類似度を統合した統合類似度を算出する。ただし、S103で算出する統合類似度とは、右側の足先部を車輪に置き換えた点以外は共通するため、これらのパーツの類似度を入れ替えることで簡易的に算出することができる。算出された統合類似度は、特定された6つのセル位置を包含する矩形領域に、左向きに走行している状態の特定車両及びその乗員が存在する可能性の高さを示す。
続いて、対象物識別装置1は、算出された統合類似度(左向き特定車両類似度)について、しきい値T6以上であるか否かを判定する(S111)。対象物識別装置1は、1つ以上の統合類似度について、しきい値T6以上であると判定した場合には(S111:YES)、その統合類似度を算出した6つのセル位置を包含する矩形領域に、左向きに走行している状態の特定車両及びその乗員が存在すると判定する(S112)。
続いて、存在すると判定した(撮像画像において識別された)各特定車両について、その特定車両の位置と、特定車両の走行方向(左方向)と、に基づいて、自動車の前方道路(走行予定経路)へ近づいている状態であるか否かを判定する(S113)。例えば、特定車両が撮像画像における右側に存在する場合には、前方道路へ近づいていると判定し、撮像画像における左側に存在する場合には、前方道路から遠ざかっていると判定する。その後、対象物識別装置1は、処理をS114へ移行させる。
一方、対象物識別装置1は、しきい値T6以上の統合類似度が存在しないと判定した場合には(S111:NO)、S112及びS113の処理を行わずに、処理をS114へ移行させる。
S114において、対象物識別装置1は、加工画像生成部16による処理として、撮像画像において、歩行者が存在すると判定した矩形領域と、特定車両及びその乗員が存在すると判定した矩形領域と、が強調された加工画像を生成し、車載表示装置3へ出力する。その後、図4の処理を終了する。その結果、対象物識別装置1から出力された加工画像が、車載表示装置3により表示される。
具体的には、例えば図6に示す加工画像において、識別対象(歩行者や特定車両及びその乗員)が存在する領域には、矩形の枠31,32が付加されている。特に、特定車両及びその乗員が存在すると判定された領域については、前方道路33へ近づいている場合と、前方道路33から遠ざかっている場合と、で枠の太さが異なる。この例では、前方道路33へ近づいている特定車両を示す枠32は、前方道路33から遠ざかっている特定車両を示す31と比較して、太く表示されている。つまり、識別対象が危険度ごとに差別化されている。
[3.効果]
以上説明したように、本実施形態の対象物識別装置1では、パーツ識別器13が、識別対象を部分的に表す複数種類のパーツを、撮像画像において識別する。そして、歩行者識別器14が、パーツ識別器13による複数種類のパーツの識別結果のうち、歩行者を部分的に表す複数のパーツの識別結果に基づいて、歩行者を識別する。また、特定車両識別器15が、パーツ識別器13による複数種類のパーツの識別結果のうち、特定車両及びその乗員を部分的に表す複数のパーツの識別結果に基づいて、特定車両及びその乗員を識別する。複数種類のパーツには、歩行者と、特定車両及びその乗員と、に共通する部分を表す共通パーツが含まれ、共通パーツは、歩行者識別器14及び特定車両識別器15の両方により用いられる。
このような対象物識別装置1によれば、撮像画像において共通パーツを識別するための処理を、歩行者を識別する場合と、特定車両及びその乗員を識別する場合と、で共通にすることができる。したがって、異なる識別対象を撮像画像から識別する画像処理の処理負荷(計算コスト)を低減することができる。
具体的には、共通パーツには、歩行者及び乗員の上半身の一部を表すパーツが含まれ、歩行者識別器14は、共通パーツの識別結果と、歩行者の足の一部を表す足パーツの識別結果と、に基づいて、歩行者を識別する。また、特定車両識別器15は、共通パーツの識別結果と、特定車両の車輪の少なくとも一部を表す車輪パーツの識別結果と、に基づいて、特定車両及びその乗員を識別する。このため、足と車輪とを区別することで歩行者と特定車両の乗員とを区別することができる。
また、複数種類のパーツには、歩行者の2本の足を別々に表す右側の足パーツ及び左側の足パーツが含まれる。そして、歩行者識別器14は、右側の足パーツの識別結果と、左側の足パーツの識別結果と、に基づいて、歩行者を識別する。また、特定車両識別器15は、右側の足パーツ及び左側の足パーツのうちいずれか一方の識別結果と、車輪パーツの識別結果と、に基づいて、特定車両及びその乗員を識別する。このため、一方の足パーツについても共通パーツとして用いることができる。
具体的には、特定車両識別器15は、右側の足パーツの識別結果と、車輪パーツの識別結果と、に基づいて、右方向を向いた特定車両及びその乗員を識別する。また、特定車両識別器15は、左側の足パーツの識別結果と、車輪パーツの識別結果と、に基づいて、左方向を向いた(逆向きの)特定車両及びその乗員を識別する。このため、特定車両及びその乗員を、その走行方向に関係なく識別する構成と比較して、識別精度を向上させることができる。
また、撮像画像は、対象物識別装置1が搭載された自動車の走行方向前方を撮像した画像である。そして、加工画像生成部16が、特定車両識別器15により識別された特定車両の位置及び向きに基づいて、自動車の走行予定経路へ近づく場合と、走行予定経路から遠ざかる場合と、を区別して報知するための処理を行う。つまり、特定車両の行動を予測した表示を行う。このため、複数の特定車両が撮像画像内に存在する場合にも、特に注意すべき特定車両を自動車の運転者に知らせることができる。
なお、パーツ識別器13がパーツ識別手段の一例に相当し、歩行者識別器14が第1の対象物識別手段の一例に相当し、特定車両識別器15が第2の対象物識別手段の一例に相当し、加工画像生成部16が報知処理手段の一例に相当する。また、歩行者が第1の識別対象の一例に相当し、特定車両及びその乗員が第2の識別対象の一例に相当し、自動車が移動体の一例に相当する。
[4.他の実施形態]
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
上記実施形態では、歩行者を識別する処理(S103〜S105)、右向きの特定車両及びその乗員を識別する処理(S106〜S109)、及び、左向きの特定車両及びその乗員を識別する処理(S106〜S109)、を独立して行うようにしているが(図4)、これに限定されるものではない。例えば、ある部分領域においてある識別対象が識別されなかった場合に、他の識別対象を識別する処理を行う一方、いったん識別対象が識別された場合には、その部分領域については他の識別対象を識別する処理を行わないようにしてもよい。具体的には、まず歩行者を識別する処理を行い、歩行者が識別されなかった場合に、その左右の足パーツの一方にそれぞれ車輪パーツを適用し、それぞれの類似度を算出する。その結果、左右で車輪の類似度の大きい方を足パーツの類似度と置換し、6つのパーツの類似度を統合した統合類似度を算出する。そして、算出した統合類似度がしきい値以上の場合に、その統合類似度を算出した6つのセル位置を包含する矩形領域に特定車両及びその乗員が存在すると判定する。このようにすれば、歩行者が識別された部分領域で特定車両及びその乗員を識別する処理を行わないため、処理負荷を低減することができる。
上記実施形態では、頭部の類似度がしきい値T1以上のセルについて、基準位置関係に基づいて他のパーツのセル位置を特定し、それら6つのパーツの類似度を統合した統合類似度を算出するようにしているが(S103等)、これに限定されるものではない。例えば、統合類似度を算出するか否かの基準とするパーツは、頭部以外のパーツでもよい。また例えば、基準とするパーツの類似度がしきい値以上であるか否かに関係なく(しきい値による足切りを行わず)、撮像画像において基準位置関係にあるすべての組合せについて、統合類似度を算出してもよい。ただし、上記実施形態のように、基準とするパーツの類似度がしきい値未満である場合に足切りを行う構成によれば、不要な算出処理が行われにくくなるため、処理負荷を低減することができる。
上記実施形態では、特定車両が撮像画像における左側及び右側のいずれに存在するかに基づいて、前方道路へ近づいているか前方道路から遠ざかっているかを判定するようにしているが(S109)、これに限定されるものではない。例えば、周知の白線認識処理により撮像画像における道路領域を特定し、その道路領域に近づいているか遠ざかっているかを判定してもよい。このようにすれば、例えばカーブした道路における判定精度を向上させることができる。
上記実施形態では、特定車両及びその乗員が、前方道路へ近づいている場合と、前方道路から遠ざかっている場合と、で枠の太さを異ならせることで視覚的に区別できるようにしているが(図6)、これに限定されるものではない。例えば、枠の色、線の種類(点線等)、表示態様(点滅等)で区別できるようにしてもよい。
上記実施形態では、歩行者と、特定車両及びその乗員と、をそれぞれ6つのパーツに基づいて識別する構成を例示したが、パーツの数や、パーツとする部分など、上記実施形態に限定されるものではない。例えば、歩行者の両足を1つのパーツとして識別してもよい。このようにしても、両足であるか車輪であるかの違いにより、歩行者と特定車両とを判別することができる。
上記実施形態では、車載カメラ2から入力した撮像画像を表す画像データ(各画素がRGB値で表現された画像データ)を、輝度値で表現された画像データに変換するようにしているが、これに限定されるものではない。例えば、車載カメラ2が輝度値で表現された画像データを生成する構成としてもよい。このようにすれば、色変換部11(グレースケール変換処理)を省略することができる。
上記実施形態では、自動車の走行方向前方を撮像した撮像画像から識別対象を識別するようにしているが、これに限定されるものではなく、例えば、自動車の側方や後方を撮像した撮像画像から識別対象を識別してもよい。また、自動車以外の移動体で撮像した撮像画像から識別対象を識別してもよい。
上記実施形態で例示した対象物識別装置1の構成要素は、ハードウェアで実現してもよく、ソフトウェアで実現してもよく、ハードウェアとソフトウェアとの組み合わせで実現してもよい。例えば、前述した処理(プログラム)を実行するコンピュータ装置(例えばマイコン)により対象物識別装置1の少なくとも一部を構成してもよい。また、これらの構成要素は機能概念的なものであり、その一部又は全部を、機能的又は物理的に分散又は統合してもよい。
上記実施形態は、本発明が適用された実施形態の一例に過ぎない。本発明は、対象物識別装置、対象物識別方法、対象物識別装置としてコンピュータを機能させるためのプログラム、そのプログラムを記録した記録媒体、などの種々の形態で実現することができる。
1…対象物識別装置、2…車載カメラ、13…パーツ識別器、14…歩行者識別器、15…特定車両識別器、16…加工画像生成部、131…頭識別器、132…右肩識別器、133…左肩識別器、134…股下識別器、135…右足識別器、136…左足識別器、137…車輪識別器、151…右向車両識別器、152…左向車両識別器

Claims (5)

  1. 識別対象を部分的に表す複数種類のパーツを、撮像画像において識別するパーツ識別手段(13)と、
    前記パーツ識別手段による前記複数種類のパーツの識別結果のうち、第1の識別対象を部分的に表す複数のパーツの識別結果に基づいて、前記第1の識別対象を識別する第1の対象物識別手段(14)と、
    前記パーツ識別手段による前記複数種類のパーツの識別結果のうち、第2の識別対象を部分的に表す複数のパーツの識別結果に基づいて、前記第2の識別対象を識別する第2の対象物識別手段(15)と、
    前記複数種類のパーツには、前記第1の識別対象及び前記第2の識別対象に共通する部分を表す共通パーツが含まれ、
    前記共通パーツは、前記第1の対象物識別手段及び前記第2の対象物識別手段の両方により用いられる
    ことを特徴とする対象物識別装置。
  2. 請求項1に記載の対象物識別装置であって、
    前記第1の識別対象は、歩行者であり、
    前記第2の識別対象は、特定車両及びその乗員であり、
    前記共通パーツには、前記歩行者及び前記乗員の上半身の少なくとも一部を表すパーツが含まれ、
    前記第1の対象物識別手段は、前記共通パーツの識別結果と、前記歩行者の足の少なくとも一部を表す足パーツの識別結果と、に基づいて、前記歩行者を識別し、
    前記第2の対象物識別手段は、前記共通パーツの識別結果と、前記特定車両の車輪の少なくとも一部を表す車輪パーツの識別結果と、に基づいて、前記特定車両及びその乗員を識別する
    ことを特徴とする対象物識別装置。
  3. 請求項2に記載の対象物識別装置であって、
    前記複数種類のパーツには、前記歩行者の2本の足を別々に表す第1の足パーツ及び第2の足パーツが含まれ、
    前記第1の対象物識別手段は、前記第1の足パーツの識別結果と、前記第2の足パーツの識別結果と、に基づいて、前記歩行者を識別し、
    前記第2の対象物識別手段は、前記第1の足パーツ及び前記第2の足パーツのうちいずれか一方の識別結果と、前記車輪パーツの識別結果と、に基づいて、前記特定車両及びその乗員を識別する
    ことを特徴とする対象物識別装置。
  4. 請求項3に記載の対象物識別装置であって、
    前記第2の対象物識別手段は、
    前記第1の足パーツの識別結果と、前記車輪パーツの識別結果と、に基づいて、第1の方向を向いた前記特定車両及びその乗員を識別し、
    前記第2の足パーツの識別結果と、前記車輪パーツの識別結果と、に基づいて、前記第1の方向とは逆向きの第2の方向を向いた前記特定車両及びその乗員を識別する
    ことを特徴とする対象物識別装置。
  5. 請求項4に記載の対象物識別装置であって、
    前記撮像画像は、当該対象物識別装置が搭載された移動体の走行方向前方を撮像した画像であり、
    前記第2の対象物識別手段により識別された前記特定車両の位置及び向きに基づいて、前記移動体の走行予定経路へ近づく場合と、前記走行予定経路から遠ざかる場合と、を区別して報知するための処理を行う報知処理手段(16)を更に備える
    ことを特徴とする対象物識別装置。
JP2012103329A 2012-04-27 2012-04-27 対象物識別装置 Expired - Fee Related JP5648655B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012103329A JP5648655B2 (ja) 2012-04-27 2012-04-27 対象物識別装置
DE102013207575A DE102013207575A1 (de) 2012-04-27 2013-04-25 Objekterkennungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012103329A JP5648655B2 (ja) 2012-04-27 2012-04-27 対象物識別装置

Publications (2)

Publication Number Publication Date
JP2013232080A true JP2013232080A (ja) 2013-11-14
JP5648655B2 JP5648655B2 (ja) 2015-01-07

Family

ID=49323440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012103329A Expired - Fee Related JP5648655B2 (ja) 2012-04-27 2012-04-27 対象物識別装置

Country Status (2)

Country Link
JP (1) JP5648655B2 (ja)
DE (1) DE102013207575A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015076151A1 (ja) * 2013-11-20 2015-05-28 日本電気株式会社 二輪車乗車数判定方法、二輪車乗車数判定システム、二輪車乗車数判定装置及びプログラム
CN104683686A (zh) * 2013-11-27 2015-06-03 富士施乐株式会社 图像处理设备和图像处理方法
JP2017054386A (ja) * 2015-09-10 2017-03-16 富士重工業株式会社 車外環境認識装置
WO2017056382A1 (ja) * 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017056385A1 (ja) * 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017158983A1 (ja) * 2016-03-18 2017-09-21 株式会社Jvcケンウッド 物体認識装置、物体認識方法及び物体認識プログラム
WO2017171082A1 (ja) * 2016-04-01 2017-10-05 株式会社デンソー 車両制御装置、車両制御方法
JP2018045357A (ja) * 2016-09-13 2018-03-22 スズキ株式会社 運転支援装置
JP2018174981A (ja) * 2017-04-03 2018-11-15 株式会社ユニバーサルエンターテインメント 遊技機及び遊技用装置
JP2018174980A (ja) * 2017-04-03 2018-11-15 株式会社ユニバーサルエンターテインメント 遊技機及び遊技用装置
JP2019036008A (ja) * 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
WO2019235050A1 (ja) * 2018-06-05 2019-12-12 コニカミノルタ株式会社 物体検出方法および物体検出装置
JP2019217519A (ja) * 2018-06-18 2019-12-26 日本製鉄株式会社 連続鋳造用モールド内のボイル検出方法、連続鋳造鋳片の品質判定方法、連続鋳造設備の監視方法、連続鋳造用モールド内のボイル検出装置
US20210158060A1 (en) * 2019-11-22 2021-05-27 Subaru Corporation Vehicle exterior environment recognition apparatus
US11093783B2 (en) 2018-12-05 2021-08-17 Subaru Corporation Vehicle detection apparatus
EP3996066A4 (en) * 2019-07-05 2023-05-03 Hitachi Astemo, Ltd. OBJECT IDENTIFICATION DEVICE

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2916264A1 (en) * 2014-03-07 2015-09-09 Tata Consultancy Services Limited Multi range object detection device and method
DE102019218590A1 (de) * 2019-11-29 2021-06-02 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Objekterkennung

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005276084A (ja) * 2004-03-26 2005-10-06 Denso Corp 運行障害予知システムおよび障害物検知方法
JP2010097541A (ja) * 2008-10-20 2010-04-30 Honda Motor Co Ltd 車両の周辺監視装置
JP2010211427A (ja) * 2009-03-10 2010-09-24 Omron Corp 安全運転監視装置
JP2010224787A (ja) * 2009-03-23 2010-10-07 Toyota Central R&D Labs Inc 対象物識別装置及びプログラム
WO2011027907A1 (en) * 2009-09-03 2011-03-10 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US20120045119A1 (en) * 2004-07-26 2012-02-23 Automotive Systems Laboratory, Inc. Method of identifying an object in a visual scene
JP2012064153A (ja) * 2010-09-17 2012-03-29 Denso Corp 移動体検出装置及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005276084A (ja) * 2004-03-26 2005-10-06 Denso Corp 運行障害予知システムおよび障害物検知方法
US20120045119A1 (en) * 2004-07-26 2012-02-23 Automotive Systems Laboratory, Inc. Method of identifying an object in a visual scene
JP2010097541A (ja) * 2008-10-20 2010-04-30 Honda Motor Co Ltd 車両の周辺監視装置
JP2010211427A (ja) * 2009-03-10 2010-09-24 Omron Corp 安全運転監視装置
JP2010224787A (ja) * 2009-03-23 2010-10-07 Toyota Central R&D Labs Inc 対象物識別装置及びプログラム
WO2011027907A1 (en) * 2009-09-03 2011-03-10 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP2012064153A (ja) * 2010-09-17 2012-03-29 Denso Corp 移動体検出装置及びプログラム

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015076151A1 (ja) * 2013-11-20 2015-05-28 日本電気株式会社 二輪車乗車数判定方法、二輪車乗車数判定システム、二輪車乗車数判定装置及びプログラム
JPWO2015076151A1 (ja) * 2013-11-20 2017-03-16 日本電気株式会社 二輪車乗車数判定方法、二輪車乗車数判定システム、二輪車乗車数判定装置及びプログラム
US11417108B2 (en) 2013-11-20 2022-08-16 Nec Corporation Two-wheel vehicle riding person number determination method, two-wheel vehicle riding person number determination system, two-wheel vehicle riding person number determination apparatus, and program
CN104683686A (zh) * 2013-11-27 2015-06-03 富士施乐株式会社 图像处理设备和图像处理方法
JP2015103144A (ja) * 2013-11-27 2015-06-04 富士ゼロックス株式会社 画像処理装置及びプログラム
JP2017054386A (ja) * 2015-09-10 2017-03-16 富士重工業株式会社 車外環境認識装置
CN106529390A (zh) * 2015-09-10 2017-03-22 富士重工业株式会社 车外环境识别装置
CN106529390B (zh) * 2015-09-10 2018-07-06 株式会社斯巴鲁 车外环境识别装置
US10102437B2 (en) 2015-09-10 2018-10-16 Subaru Corporation Vehicle driving hazard recognition and avoidance apparatus and vehicle control device
WO2017056382A1 (ja) * 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017056385A1 (ja) * 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11915522B2 (en) 2015-09-29 2024-02-27 Sony Corporation Information processing apparatus and information processing method
US10692379B2 (en) 2015-09-29 2020-06-23 Sony Corporation Image processing device and image processing method
US10949656B2 (en) 2015-09-29 2021-03-16 Sony Corporation Information processing apparatus and information processing method
JPWO2017056382A1 (ja) * 2015-09-29 2018-08-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20180253595A1 (en) * 2015-09-29 2018-09-06 Sony Corporation Information processing apparatus, information processing method, and program
WO2017158983A1 (ja) * 2016-03-18 2017-09-21 株式会社Jvcケンウッド 物体認識装置、物体認識方法及び物体認識プログラム
JPWO2017158983A1 (ja) * 2016-03-18 2019-01-24 株式会社Jvcケンウッド 物体認識装置、物体認識方法及び物体認識プログラム
US10796171B2 (en) 2016-03-18 2020-10-06 Jvckenwood Corporation Object recognition apparatus, object recognition method, and object recognition program
WO2017171082A1 (ja) * 2016-04-01 2017-10-05 株式会社デンソー 車両制御装置、車両制御方法
JP2017187864A (ja) * 2016-04-01 2017-10-12 株式会社デンソー 車両制御装置、車両制御方法
JP2018045357A (ja) * 2016-09-13 2018-03-22 スズキ株式会社 運転支援装置
JP2018174981A (ja) * 2017-04-03 2018-11-15 株式会社ユニバーサルエンターテインメント 遊技機及び遊技用装置
JP2018174980A (ja) * 2017-04-03 2018-11-15 株式会社ユニバーサルエンターテインメント 遊技機及び遊技用装置
JP2019036008A (ja) * 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
JP7036208B2 (ja) 2018-06-05 2022-03-15 コニカミノルタ株式会社 物体検出方法および物体検出装置
WO2019235050A1 (ja) * 2018-06-05 2019-12-12 コニカミノルタ株式会社 物体検出方法および物体検出装置
JPWO2019235050A1 (ja) * 2018-06-05 2021-06-17 コニカミノルタ株式会社 物体検出方法および物体検出装置
JP7056401B2 (ja) 2018-06-18 2022-04-19 日本製鉄株式会社 連続鋳造用モールド内のボイル検出方法、連続鋳造鋳片の品質判定方法、連続鋳造設備の監視方法、連続鋳造用モールド内のボイル検出装置
JP2019217519A (ja) * 2018-06-18 2019-12-26 日本製鉄株式会社 連続鋳造用モールド内のボイル検出方法、連続鋳造鋳片の品質判定方法、連続鋳造設備の監視方法、連続鋳造用モールド内のボイル検出装置
US11093783B2 (en) 2018-12-05 2021-08-17 Subaru Corporation Vehicle detection apparatus
EP3996066A4 (en) * 2019-07-05 2023-05-03 Hitachi Astemo, Ltd. OBJECT IDENTIFICATION DEVICE
US20210158060A1 (en) * 2019-11-22 2021-05-27 Subaru Corporation Vehicle exterior environment recognition apparatus
JP7336367B2 (ja) 2019-11-22 2023-08-31 株式会社Subaru 車外環境認識装置
US11756325B2 (en) * 2019-11-22 2023-09-12 Subaru Corporation Vehicle exterior environment recognition apparatus

Also Published As

Publication number Publication date
DE102013207575A1 (de) 2013-10-31
JP5648655B2 (ja) 2015-01-07

Similar Documents

Publication Publication Date Title
JP5648655B2 (ja) 対象物識別装置
US8766816B2 (en) System for monitoring the area around a vehicle
JP4775391B2 (ja) 障害物検出装置
JP4708124B2 (ja) 画像処理装置
CN109190523B (zh) 一种基于视觉的车辆检测跟踪预警方法
JP6197291B2 (ja) 複眼カメラ装置、及びそれを備えた車両
JP4899424B2 (ja) 物体検出装置
JP5774770B2 (ja) 車両周辺監視装置
US20110157184A1 (en) Image data visualization
JP4171501B2 (ja) 車両の周辺監視装置
JP2016538665A (ja) 交通標識認識方法と装置
US9870513B2 (en) Method and device for detecting objects from depth-resolved image data
JP2013057992A (ja) 車間距離算出装置およびそれを用いた車両制御システム
JP6756908B2 (ja) 車両周囲の歩行者を検出する方法及び装置
JP2011076214A (ja) 障害物検出装置
JP2005196590A (ja) 歩行者抽出装置
JP2010044561A (ja) 乗物搭載用監視装置
JP2009301495A (ja) 画像処理装置及び画像処理方法
JP2010026601A (ja) 車両周辺監視装置
KR20120086577A (ko) 카메라를 이용한 측면차량 검출 장치 및 방법
JP4752158B2 (ja) 環境複雑度演算装置、環境認識度合推定装置及び障害物警報装置
JP2014146267A (ja) 歩行者検出装置、運転支援装置
JP2014056295A (ja) 車両周辺監視装置
JP5166933B2 (ja) 車両認識装置、及び車両
JP2012243155A (ja) 画像識別装置及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141027

R151 Written notification of patent or utility model registration

Ref document number: 5648655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees