JP2018037737A - 周辺監視装置及び周辺監視方法 - Google Patents

周辺監視装置及び周辺監視方法 Download PDF

Info

Publication number
JP2018037737A
JP2018037737A JP2016167182A JP2016167182A JP2018037737A JP 2018037737 A JP2018037737 A JP 2018037737A JP 2016167182 A JP2016167182 A JP 2016167182A JP 2016167182 A JP2016167182 A JP 2016167182A JP 2018037737 A JP2018037737 A JP 2018037737A
Authority
JP
Japan
Prior art keywords
information
image processing
vehicle
sensor
wave
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016167182A
Other languages
English (en)
Other versions
JP2018037737A5 (ja
JP6722066B2 (ja
Inventor
前田 優
Masaru Maeda
優 前田
岳人 原田
Takehito Harada
岳人 原田
充保 松浦
Mitsuyasu Matsuura
充保 松浦
博彦 柳川
Hirohiko Yanagawa
博彦 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2016167182A priority Critical patent/JP6722066B2/ja
Priority to PCT/JP2017/028265 priority patent/WO2018043028A1/ja
Priority to CN201780052847.6A priority patent/CN109643495B/zh
Priority to US16/328,465 priority patent/US10885354B2/en
Priority to DE112017004333.6T priority patent/DE112017004333B4/de
Publication of JP2018037737A publication Critical patent/JP2018037737A/ja
Publication of JP2018037737A5 publication Critical patent/JP2018037737A5/ja
Application granted granted Critical
Publication of JP6722066B2 publication Critical patent/JP6722066B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details

Abstract

【課題】車両周辺に存在する物体の情報を精度良く、かつできるだけ速やかに認識すること。【解決手段】車両周辺監視システム20は、探査波を送波し当該探査波の反射波を受波する測距センサとして超音波センサ22と、自車周辺を撮影する撮像装置として車載カメラ21と、周辺監視装置としての監視ECU30とを備える。監視ECU30は、自車周辺に存在する物体の測距センサによる検知情報として、物体の距離情報、方位情報及び物体幅情報を取得する情報取得部31と、情報取得部31で取得した距離情報、方位情報及び物体幅情報に基づいて、撮像装置により撮影された画像において画像処理を施す画像処理領域を設定する領域設定部32と、領域設定部32で設定した画像処理領域に対して画像処理を施して物体を認識する物体認識部33と、を備える。【選択図】図1

Description

本発明は、周辺監視装置及び周辺監視方法に関し、詳しくは、測距センサと撮像装置とを備える車両に適用される周辺監視装置及び周辺監視方法に関する。
従来、撮像装置や測距センサを用いて、車両周辺に存在する物体を検知して車載の表示装置に表示したり、物体に接触することを回避するために警告を行ったりする車両周辺監視システムが知られている(例えば、特許文献1参照)。特許文献1には、撮像装置により撮影された撮影画像が視点変換された視点変換画像のうち、超音波ソナーにより検出された障害物の検出距離に基づき定めた地点から、撮像装置の高さ及び障害物の仮の高さに基づき算出した検出完了地点までの範囲を画像処理領域として設定し、その画像処理領域に対して画像処理を施して障害物の高さを取得することが開示されている。
特開2005−318541号公報
画像の一部に画像処理を施して物体認識する際、画像処理領域が大きすぎると画像処理に時間がかかってしまい、実際の車両周囲の環境と、注意喚起のために運転者に提供する情報との間の時間的なずれが大きくなることが懸念される。その一方で、画像処理領域を小さくしすぎると、設定した画像処理領域内に物体が十分に含まれておらず、物体の認識精度が低下することが懸念される。
本発明は上記課題に鑑みなされたものであり、車両周辺に存在する物体の情報を精度良く、かつできるだけ速やかに認識することができる周辺監視装置及び周辺監視方法を提供することを一つの目的とする。
本発明は、上記課題を解決するために、以下の手段を採用した。
本発明は、探査波を送波し前記探査波の反射波を受波する測距センサ(22)と、自車周辺を撮影する撮像装置(21)とを備える車両(50)に適用される周辺監視装置に関する。請求項1に記載の発明は、自車周辺に存在する物体(52〜55)の前記測距センサによる検知情報として、前記物体の距離情報、方位情報及び物体幅情報を取得する情報取得部(31)と、前記情報取得部で取得した前記距離情報、前記方位情報及び前記物体幅情報に基づいて、前記撮像装置により撮影された画像において画像処理を施す画像処理領域(61)を設定する領域設定部(32)と、前記領域設定部で設定した画像処理領域に対して画像処理を施して前記物体を認識する物体認識部(33)と、を備える。
上記構成では、測距センサによる物体の検知情報に基づいて、撮像装置で撮影された画像における画像処理領域を設定する。このとき、物体の検知情報としては、距離情報だけでなく、物体の方位情報及び物体幅情報を用いて画像処理領域を設定する。これにより、画像上において、物体が存在している位置に対応する領域に、各物体の物体幅に応じた大きさの画像処理領域を設定することができる。この場合、画像処理によって物体認識を行う際に、画像中の物体に対応する部分については画像処理の対象となるようにし、物体が存在していない部分(例えば背景等)に対する無駄な画像処理を減らすことができ、処理負荷を軽減することができる。したがって、上記構成によれば、車両の周囲に存在する物体の情報を精度良く、かつできるだけ速やかに認識することができる。
車両周辺監視システムの概略構成を示す図。 物体の方位情報を取得する方法を説明する図。 画像処理領域を設定する処理の具体的態様を示す図。 物体の反射面情報を取得する方法を説明する図。 画像処理の処理手順を示すフローチャート。 物体の向き情報を用いて画像処理領域を設定する処理の具体的態様を示す図。 物体の向き情報を用いて画像処理領域を設定する処理の具体的態様を示す図。
以下、実施形態を図面に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。
まず、図1を参照して、本実施形態の車両周辺監視システム20について説明する。本実施形態の車両周辺監視システム20は、車両(以下、「自車両50」という。)に搭載されており、図1に示すように、撮像装置としての車載カメラ21と、測距センサとしての超音波センサ22と、周辺監視装置としての監視ECU30とを備えている。
車載カメラ21は、例えばCCDカメラ、CMOSイメージセンサ、近赤外線カメラ等の単眼カメラ又はステレオカメラで構成されている。車載カメラ21は、自車両50の前部において車幅方向中央の所定高さ(例えば、前部バンパよりも上の位置)に取り付けられており、車両前方へ向けて所定角度範囲で広がる領域を撮影する。
超音波センサ22は、自車両50の周囲に存在する障害物までの距離を検出するセンサである。本実施形態では、自車両50の前部及び後部のそれぞれのバンパに、車幅方向に並ぶようにして複数個のセンサが所定の間隔を開けて取り付けられている。例えば前方バンパには、超音波センサ22として、車幅の中心線51の近傍に、中心線51に対して対称位置に取り付けられた2つのセンタセンサ23,24と、自車両50の左コーナ及び右コーナにそれぞれ取り付けられた2つのコーナセンサ25,26と、自車両50の左側方及び右側方にそれぞれ取り付けられた側方センサ27,28とが設けられている。
図1に、車載カメラ21の撮影領域E、及び超音波センサ22の検知領域Fを示す。なお、図1では便宜上、超音波センサ22についてはセンタセンサ23,24の検知領域のみを示している。本実施形態において、各超音波センサ22の検知距離は、車載カメラ21の撮影距離よりも短い距離(例えば、数十センチメートルから1〜2メートル程度)となっている。
自車両50には、車載カメラ21及び超音波センサ22の他、車速を検出する車速センサ34、操舵角を検出する操舵角センサ35等の各種センサが設けられている。
監視ECU30は、CPU、ROM、RAM、I/O等を備えたコンピュータであり、CPUが、ROMにインストールされているプログラムを実行することで、車載カメラ21及び超音波センサ22の物体検知結果に基づき、自車両50の走行を支援するための各機能を実現する。具体的には、監視ECU30は、自車両50の周辺状況を車載の表示装置36に表示したり、自車両50の周辺に存在している物体に自車両50が接触するおそれがあるときには警報装置37を作動させ、運転者に対して警告を行ったりする。あるいは、認識した物体検知情報を運転支援装置に出力し、運転支援装置によって物体との接触回避のための制動制御やステアリング制御等の各種制御が実行されるようにしてもよい。
表示装置36への画像表示に際し、監視ECU30は、車載カメラ21で撮影した撮影画像を、自車両50の上方に設定した仮想視点から路面上を見た鳥瞰画像に変換して表示装置36に表示する制御を実施する。表示装置36は、運転者が視認可能な位置(例えばインストルメントパネル)に設けられている。なお、表示装置36には、撮影画像が表示されるようにしてもよい。
次に、超音波センサ22による物体検知について説明する。監視ECU30は、超音波センサ22に制御信号を出力し、所定の送波周期で(例えば、数百ミリ秒間隔で)超音波センサ22から超音波を送波するよう指令する。また、超音波センサ22の送波から受波までの時間である反射波時間に基づいて、物体までの距離を算出する。
詳しくは、超音波センサ22は、自らが送波した探査波の反射波を直接波として受波し、その反射波時間を距離情報として取得する。また、探査波を送波したセンサとは異なるセンサが送波した探査波の反射波を間接波として受信し、その反射波時間を距離情報として取得する。監視ECU30は、直接波により取得した距離情報、及び間接波により取得した距離情報により、三角測量の原理を利用して、自車両50の周辺に存在している物体の方位情報として、自車両50を基準位置とする物体の相対位置を表す座標(x,y)を算出する。
図2を用いて、物体40の方位情報の算出方法について説明する。図2では、隣接する2つの超音波センサ22である第1センサ22a及び第2センサ22bと、自車両50の前方に存在している物体55とを平面視で表している。図2では、第1センサ22aを、探査波を送波して直接波を受波する直接検知センサとし、第2センサ22bを、他のセンサが送波した超音波の反射波(間接波)を受波する間接検知センサとしている。直接検知センサ及び間接検知センサは、三角測量を行う2つのセンサである(図4についても同じ)。
図2では、第1センサ22aで受波される直接波に基づいて、第1センサ22aの位置Aと物体55の反射点Oとの間の往復距離(2AO)がL1として算出される。また、第2センサ22bで受波される間接波に基づいて、位置Aと反射点Oと第2センサ22bの位置Bとの間の距離(AO+OB)がL2として算出される。図2に示すように、直接波によれば、位置Aを中心とし線分AOを半径とする円S1上に物体55が存在しているものと把握でき、間接波によれば、PO+OQが一定となる楕円S2上に物体55が存在しているものと把握できる。この場合、物体55の反射点Oは、円S1と楕円S2との交点にあると認識できる。したがって、反射点Oの座標(x,y)を求めることで、物体55の相対位置を算出することができる。
次に、車載カメラ21で撮影した画像を用いて、自車両50の周辺に存在する物体を認識する処理について詳しく説明する。本実施形態において監視ECU30は、車載カメラ21で撮影した画像において、超音波センサ22による物体検知情報と整合する領域の画像に対して画像処理を施すことにより、物体認識処理として、物体に関する詳細な情報(例えば、物体の種別、物体の高さ情報等)を取得することとしている。
具体的には、監視ECU30は、図1に示すように、情報取得部31、領域設定部32及び物体認識部33を備える。情報取得部31は、車載カメラ21で撮影した撮影画像や、超音波センサ22で検知した物体の検知情報を取得する。領域設定部32は、情報取得部31から超音波センサ22による物体の検知情報を入力し、その入力した検知情報に基づいて、車載カメラ21で撮影した撮影画像の一部の領域を、画像処理を施す領域(以下、「画像処理領域」という。)として設定する。例えば、超音波センサ22の反射波により取得した距離情報に基づいて、撮影画像の一部の領域を画像処理領領域として設定する。物体認識部33は、撮影画像のうち、領域設定部32で設定した画像処理領域に対して画像処理を施す。
監視ECU30は、こうした画像処理により取得した物体の情報に基づいて、自車両50の周辺に存在する物体として表示装置36に表示したり、自車両50に接触するおそれがある物体と判断される場合に警報装置37を作動させて警報を発したりする制御を実施する。この場合、物体認識処理では、撮影画像の一部の領域に対して画像処理を施すため、撮影画像の全ての領域に対して画像処理を施す場合に比べて、画像処理の処理負荷を軽減することが可能となる。これにより、今現在、自車両50が置かれている周囲環境に関する情報を速やかに運転者に提供するようにしている。
ここで、画像上の物体の大きさに対して画像処理領域が大きすぎると、画像処理に時間がかかってしまい、自車両50の今現在の周囲環境と、運転者に提供する情報との間の時間遅れが大きくなることが懸念される。その一方で、画像上の物体の大きさに対して画像処理領域が小さすぎると、設定した画像処理領域内に物体が十分に含まれておらず、物体の認識精度が低下することが懸念される。
そこで本実施形態では、領域設定部32は、超音波センサ22による物体検知情報として、物体の距離情報、方位情報、及び物体幅情報を用い、これら距離情報、方位情報及び物体幅情報に基づいて画像処理領域を設定することとしている。これにより、撮影画像上の物体に対し、その物体の位置及び物体幅に応じた位置、大きさの画像処理領域を設定するようにしている。なお、監視ECU30が、情報取得部31、領域設定部32及び物体認識部33として機能する。
図3は、撮影画像60に設定される画像処理領域61(61a〜61c)の具体的態様を示す図である。図3の(a)は、自車両50の前方に他車両52及び標識53が存在している場合を表し、(b)は、自車両50の前方に他車両52及び立て看板54(例えば、工事案内看板、駐車場看板等)が存在している場合を表している。図3では、これらの物体52〜54が超音波センサ22によって検知されている場合を想定している。
監視ECU30は、超音波センサ22により取得した物体の距離情報、方位情報及び物体幅情報に基づいて、撮影画像60における画像処理領域61を設定する。本実施形態では、超音波センサ22によって取得した物体の距離情報及び方位情報から、画像処理領域61の基準位置(例えば中心点)を設定し、その設定した基準位置を含む領域に、物体幅情報及び距離情報に応じた大きさの画像処理領域61を設定する。物体幅情報について本実施形態では、超音波センサ22から送波された探査波が反射して反射波として受波されるときの物体の反射面に関する情報(以下「反射面情報」という。)に基づいて取得する。反射面情報については後述する。
画像処理領域61について、本実施形態では、自車両50の車幅方向(左右方向)に平行な左右幅及び車幅方向に垂直な上下幅を有する矩形領域として設定される。図3の場合では、他車両52に対しては、左右幅がW1であってかつ上下幅がH1の画像処理領域61aが設定され、標識53に対しては、左右幅がW2であってかつ上下幅がH2の画像処理領域61bが設定されている。立て看板54に対しては、左右幅がW3であってかつ上下幅がH3の画像処理領域61cが設定されている。
図3の撮影画像60において、左右幅W1〜W3は、超音波センサ22により取得した各物体の物体幅と検知距離とに応じて設定される。具体的には、物体幅が大きいほど、左右幅が大きい値に設定される。また、検知距離が短いほど、左右幅が大きい値に設定される。上下幅H1〜H3は、予め定めた所定値としてもよいし、検知距離に応じて定めてもよい。また、撮影画像のエッジにより認識される物体の高さに応じた値としてもよい。検知距離に基づき上下幅を設定する場合、検知距離が短いほど、上下幅を大きい値に設定するとよい。
ここで、物体の反射面情報について説明する。超音波センサ22の測距結果を用いて物体の反射面情報を取得するには、直接反射点と間接反射点とが同一平面上に存在することを前提として、物体表面の複数の反射点から面成分を検知する面モデルによって行う。
図4は、反射点情報を取得する計算モデルを説明する図である。なお、図4では、車両前方に存在する物体55を第1センサ22a及び第2センサ22bにより検知しており、物体55の外面に直接反射点P及び間接反射点Qが存在している。
第1センサ22aで受波される直接波は、物体55に対して最短距離で、すなわち物体55に対して垂直に反射する。図4中のXは、反射波を直接波として受波する第1センサ22aと直接反射点Pとを通る直線と、反射波を間接波として受波する第2センサ22bと間接反射点Qとを通る直線との交点である。また、第1センサ22aと交点Xとの中点が直接反射点Pとなり、直接反射点Pを通りかつAXに垂直に交わる垂線とBXとの交点が間接反射点Qとなる。各反射点P,Qは、物体55の外面上で横並びとなる2点である。これら2つの反射点P,Qの座標を求めることにより、反射面線分であるPQを求めることができる。
直接波による距離計測結果と間接波による距離計測結果とに基づいて反射面線分PQを求めるには、監視ECU30は、まず、直接波による計測距離L1と、間接波による計測距離L2とに基づいて交点Xを求め(交点算出部)、その交点Xに基づいて直接反射点Pを算出する(反射点算出部)。また、直接反射点Pを通り、かつ直接反射点Pと第1センサ22aとを結ぶ直線に直交する向きに延びる反射面線分PQを反射面情報として取得する(情報取得部)。
監視ECU30はさらに、超音波センサ22の組み合わせを変えることで、車幅方向に異なる位置の複数の反射面線分を求める。そして、近接する複数の反射面線分につき、各反射面線分の端点座標及び線分傾きに基づいて同一物体に属するもの判断される場合に、それら複数の反射面線分を結合する。これにより、自車両50の周囲に存在する物体55について、反射面情報に基づき、自車両50の車幅方向の大きさ(物体幅情報)や、車幅方向に対する傾き(向き情報)を把握することができる。
なお、上記面モデルは、物体が比較的大きな平面を有し、その平面が反射面となる場合に特に有効である。面モデルによって物体幅を推定できない場合には、例えば撮影画像から抽出したエッジに基づいて物体幅を推定し、その推定した物体幅に応じた大きさの画像処理領域を設定する。
次に、本実施形態の画像処理の処理手順について、図5のフローチャートを用いて説明する。この処理は、監視ECU30により所定周期毎に実行される。
図5において、ステップS11では、車載カメラ21で撮影された撮影画像を取得する。続くステップS12では、超音波センサ22による物体検知情報として、物体の距離情報、方位情報及び物体幅情報を取得する(情報取得部)。このとき、物体幅情報は反射面情報から取得し、反射面情報を取得できない場合には、画像エッジを用いて物体幅を検出する。
続くステップS13では、ステップS12で取得した物体の距離情報、方位情報及び物体幅情報に基づいて、撮影画像における画像処理領域61を設定する(領域設定部)。このとき、物体幅が大きいほど、又は検知距離が短いほど、画像処理領域61の左右方向の幅を大きく設定する。
続くステップS14では、ステップS13で設定した画像処理領域に対して画像処理を実行し、物体認識を行う(物体認識部)。この画像処理では、物体の種別(例えば車両、歩行者、二輪車等)や物体の高さ等といった、物体に関する詳細情報を取得する。例えば、物体の種別については、画像処理領域の部分の画像から抽出した特徴点に対してパターンマッチングを行うことにより、その物体の種別を判別する。また、物体の高さについては、画像処理領域の部分の画像を鳥瞰画像に変換し、その変換した鳥瞰画像から物体の高さを求める。ステップS14の処理を終了すると、本ルーチンを終了する。
なお、ステップS13で設定した画像処理領域61は、自車両50の移動に合わせてトラッキングしてもよい。あるいは、超音波センサ22によって新たに得られた物体検知情報に基づいて、画像処理領域61を都度更新するようにしてもよい。
以上詳述した本実施形態によれば、次の優れた効果が得られる。
超音波センサ22による物体55の検知情報に基づいて、車載カメラ21で撮影された画像における画像処理領域61を設定する際、物体55の検知情報としては距離情報だけでなく、物体55の方位情報及び物体幅情報を用いて画像処理領域61を設定する構成とした。こうした構成とすることにより、物体55が存在している位置に対応する領域に、物体幅に応じた大きさの画像処理領域を設定することができる。これにより、画像処理によって物体認識を行う際に、物体に対応する部分については画像処理を十分に行い、物体が存在していない部分(例えば背景等)に対する無駄な画像処理を減らすことができ、処理負荷を軽減することができる。よって、上記構成によれば、自車両50の周囲に存在する物体55を精度良く、かつできるだけ速やかに認識することができる。
超音波センサ22により検知した物体55の反射面情報に基づいて物体幅情報を取得し、その取得した物体幅情報を用いて画像処理領域61を設定する構成とした。具体的には、監視ECU30は、第1センサ22aと直接反射点Pとを通る直線と、第2センサ22bと間接反射点Qとを通る直線との交点Xを算出し、交点Xに基づいて直接反射点Pを算出し、さらに、直接反射点Pを通り、かつ直接反射点Pと第1センサ22aとを結ぶ直線に所定角度で交差する向きに延びる交差直線を物体55の反射面情報として取得した。超音波センサ22により取得した物体55の反射面情報を用いることにより、物体55の向き、大きさに応じた物体幅を精度良く把握することができる。
複数の超音波センサ22を用い、直接波及び間接波を用いて物体の方位情報及び物体幅情報を取得する構成とした。この場合、三角測量の原理を利用することで、物体の方位情報及び反射面情報を的確に把握することができる。また、物体の反射面情報によれば、超音波センサ22の検知結果から、物体表面の平面成分の向き及び大きさを把握することができる。
超音波センサ22は、草や低木、小石、輪止め等といった、本来注意喚起しなくてもよい物体にも反応しやすく、実際には安全な走行状況であるにも関わらず、運転者に対して注意喚起が行われることがある。また、超音波センサ22は、比較的車両に近い領域を検知領域としており、超音波センサ22で検知された物体に対しては、より速やかな物体認識及び運転者への注意喚起が必要とされる。この点、測距センサとして超音波センサ22を備えるシステムにおいて、物体の距離情報、方位情報及び物体幅情報に基づいて画像処理領域61を設定する構成としたことから、車両周辺に存在する物体について、処理負荷を軽減しながらも、その物体に関する詳細な情報を、画像を用いて精度良く認識することができる。また、物体の情報を速やかにかつ精度良く認識できることから、その情報に基づき、真に必要と判断される物体について運転者に的確なタイミングで注意喚起する一方、接触の可能性が低い物体に対する不要な注意喚起を行わないようにすることができる。
(他の実施形態)
本発明は上記の実施形態に限定されず、例えば以下のように実施されてもよい。
・上記実施形態において、物体の反射面情報に基づいて取得した物体の向き情報を用いて画像処理領域61を設定してもよい。画像処理領域61を設定する際に、自車両50の車幅方向に対する物体の向きを考慮することにより、物体が領域内に十分に含まれるようにしつつ、画像処理領域61の大きさができるだけ小さくなるように微調整することができる。具体的には、自車両50の車幅方向に対して所定角度θで傾いている物体55(図6(b)参照)については、自車両50に正対している物体55(図6(a)参照)に比べて、画像処理領域61の左右幅を小さく設定する(W5<W4)。このとき、所定角度θが大きいほど、つまり車幅方向に対する傾斜が大きいほど、左右幅を小さく設定する。また、所定角度θに応じて上下幅を可変に設定してもよく、具体的には、所定角度θが大きいほど上下幅を大きく設定してもよい。
・物体の向き情報を用いて画像処理領域61を設定する構成としては、図7に示すように、画像処理領域61の左右幅の延びる方向を、反射面情報に基づき取得した物体の向きに応じて設定する構成としてもよい。こうした構成とすることにより、物体55の向きに応じた適切な位置、大きさの画像処理領域61を設定することができる。具体的には、物体55の反射面55aが自車両50に正対している場合には、図7(a)に示すように、左右の境界線62aと上下の境界線62bとが直角に交差する領域を画像処理領域61として設定する。一方、物体55の反射面55aが自車両50に正対しておらず、自車両50の車幅方向に対して傾いている場合には、図7(b)に示すように、所定角度θで傾斜する左右の境界線62aと、上下の境界線62bとで囲まれた領域を画像処理領域61として設定する。
・上記実施形態では、複数の超音波センサ22を用い、直接波により取得した距離情報と、間接波により取得した距離情報とにより、三角測量の原理を利用して物体の方位情報及び物体幅情報を取得する構成とした。これに替えて、単一の超音波センサ22を用い、自車両50の移動に伴う反射点の履歴に基づいて、物体の方位情報及び物体幅情報を取得してもよい。つまり、単一の超音波センサ22による距離情報と、車両情報(例えば車速、操舵角など)とを用いた移動三角測量の原理により、物体の方位情報及び物体幅情報を取得してもよい。
・上記実施形態では、超音波センサ22により取得した物体の反射面情報に基づいて物体幅情報を取得する構成としたが、超音波センサ22により物体幅情報を取得する方法はこれに限定されない。例えば、超音波センサ22の検知点列に基づいて、物体55の物体幅情報を取得する構成としてもよい。
・上記実施形態では、車載カメラ21で撮影した撮影画像に画像処理領域61を設定したが、撮影画像を俯瞰視点に変換した鳥瞰画像に画像処理領域を設定する場合に本発明の構成を適用してもよい。
・超音波センサ22により検知された物体につき、自車両50の走行状態に関する情報に基づいて、自車両50との接触の可能性が低いか否かを判定する。そして、自車両50との接触の可能性が低いと判定される物体については、車載カメラ21により撮影された画像において画像処理領域61を設定せず、そうでない物体については画像処理領域61を設定する構成としてもよい。こうした構成とすることにより、自車両50との接触の可能性がある物体に対する注意喚起を適切に行いつつ、画像処理の処理負荷をできるだけ軽減することができる。自車両50の走行状態に関する情報としては、例えば車速、操舵角等が含まれる。この場合、監視ECU30が接触判定部として機能する。例えば、図3において、自車両50の運転者が右方向に操舵を行っている場合には、超音波センサ22で検知されている物体のうち、標識53及び立て看板54に対しては、画像処理領域61を設定せず、他車両52に対しては画像処理領域61を設定する。
・自車両50の走行状態に関する情報に基づいて、車載カメラ21により撮影された画像において自車両50と物体とが接触する可能性があると認識される領域についてのみ、画像処理領域61を設定する構成としてもよい。
・超音波センサ22によって複数の物体の検知情報が取得されており、それら複数の物体が画像上の所定の近接範囲内に存在している場合には、その近接範囲内に存在している複数の物体が含まれるように1つの画像処理領域を設定してもよい。超音波センサ22によっては、離間する複数の物体として認識されていても、画像としては重なって1つに見えていることもある。こうした場合を考慮して上記構成とすることにより、重なっている画像物標をまとめて画像処理することができ、処理負荷を軽減することができる。
・超音波センサ22により取得した物体検知情報のうち、反射率が時間ごとに大きく変動する物体については、その物体について一旦設定した画像処理領域を所定時間保持する構成としてもよい。こうした構成とすることにより、物体検知の結果がハンチングする場合にも画像処理を行う領域として加えることで、物体の検知漏れを抑制することができる。
・上記実施形態では、車載カメラ21が自車両50の前方に搭載されている場合について説明したが、車載カメラ21の搭載位置及び数は特に限定されず、自車両50の後方や側方に搭載されている車載カメラ21に適用してもよい。
・上記実施形態では、測距センサとして超音波センサ22を備える構成としたが、例えばミリ波レーダやレーザレーダ等を備える構成に適用してもよい。
・上記の各構成要素は概念的なものであり、上記実施形態に限定されない。例えば、一つの構成要素が有する機能を複数の構成要素に分散して実現したり、複数の構成要素が有する機能を一つの構成要素で実現したりしてもよい。
20…車両周辺監視システム、21…車載カメラ(撮像装置)、22〜28…超音波センサ(測距センサ)、30…監視ECU(周辺監視装置)、31…情報取得部、32…領域設定部、33…物体認識部、50…自車両。

Claims (7)

  1. 探査波を送波し前記探査波の反射波を受波する測距センサ(22)と、自車周辺を撮影する撮像装置(21)とを備える車両(50)に適用される周辺監視装置であって、
    自車周辺に存在する物体(52〜55)の前記測距センサによる検知情報として、前記物体の距離情報、方位情報及び物体幅情報を取得する情報取得部と、
    前記情報取得部で取得した前記距離情報、前記方位情報及び前記物体幅情報に基づいて、前記撮像装置により撮影された画像において画像処理を施す画像処理領域(61)を設定する領域設定部と、
    前記領域設定部で設定した画像処理領域に対して画像処理を施して前記物体を認識する物体認識部と、
    を備える周辺監視装置。
  2. 前記情報取得部は、前記測距センサにより検知した前記物体の反射面情報に基づいて前記物体幅情報を取得し、
    前記領域設定部は、前記反射面情報に基づき取得した前記物体幅情報を用いて前記画像処理領域を設定する、請求項1に記載の周辺監視装置。
  3. 前記情報取得部は、前記測距センサにより検知した前記物体の反射面情報に基づいて前記物体の向き情報を取得し、
    前記領域設定部は、前記反射面情報に基づき取得した前記向き情報を用いて前記画像処理領域を設定する、請求項1又は2に記載の周辺監視装置。
  4. 前記車両は、前記測距センサを複数備え、
    前記情報取得部は、前記測距センサのうち前記探査波を送波した第1センサ(22a)が受波した反射波である直接波、及び前記測距センサのうち前記探査波を送波したセンサとは異なる第2センサ(22b)が受波した反射波である間接波を用いて、前記方位情報及び前記物体幅情報を取得する、請求項1〜3のいずれか一項に記載の周辺監視装置。
  5. 前記車両の走行状態に関する情報に基づいて、前記測距センサにより検知した物体と前記車両との接触の可能性が低いか否かを判定する接触判定部を備え、
    前記領域設定部は、前記接触判定部により前記車両との接触の可能性が低いと判定された物体については、前記撮像装置により撮影された画像において前記画像処理領域を設定しない、請求項1〜4のいずれか一項に記載の周辺監視装置。
  6. 前記測距センサは超音波センサである、請求項1〜5のいずれか一項に記載の周辺監視装置。
  7. 探査波を送波し前記探査波の反射波を受波する測距センサ(22)と、自車周辺を撮影する撮像装置(21)とを備える車両(50)に適用される周辺監視方法であって、
    前記車両の周辺に存在する物体(52〜55)の前記測距センサによる検知情報として、前記物体の距離情報、方位情報及び物体幅情報を取得し、
    当該取得した前記距離情報、前記方位情報及び前記物体幅情報に基づいて、前記撮像装置により撮影された画像において画像処理を施す画像処理領域(61)を設定し、
    当該設定した画像処理領域に対して画像処理を施して前記物体を認識する、周辺監視方法。
JP2016167182A 2016-08-29 2016-08-29 周辺監視装置及び周辺監視方法 Active JP6722066B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016167182A JP6722066B2 (ja) 2016-08-29 2016-08-29 周辺監視装置及び周辺監視方法
PCT/JP2017/028265 WO2018043028A1 (ja) 2016-08-29 2017-08-03 周辺監視装置及び周辺監視方法
CN201780052847.6A CN109643495B (zh) 2016-08-29 2017-08-03 周边监视装置及周边监视方法
US16/328,465 US10885354B2 (en) 2016-08-29 2017-08-03 Perimeter monitoring device and perimeter monitoring method
DE112017004333.6T DE112017004333B4 (de) 2016-08-29 2017-08-03 Umgebungsüberwachvorrichtung und Umgebungsüberwachverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016167182A JP6722066B2 (ja) 2016-08-29 2016-08-29 周辺監視装置及び周辺監視方法

Publications (3)

Publication Number Publication Date
JP2018037737A true JP2018037737A (ja) 2018-03-08
JP2018037737A5 JP2018037737A5 (ja) 2018-11-29
JP6722066B2 JP6722066B2 (ja) 2020-07-15

Family

ID=61301893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016167182A Active JP6722066B2 (ja) 2016-08-29 2016-08-29 周辺監視装置及び周辺監視方法

Country Status (5)

Country Link
US (1) US10885354B2 (ja)
JP (1) JP6722066B2 (ja)
CN (1) CN109643495B (ja)
DE (1) DE112017004333B4 (ja)
WO (1) WO2018043028A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020012852A1 (ja) * 2018-07-11 2020-01-16 クラリオン株式会社 測位支援装置及び測位支援方法
JP6930512B2 (ja) * 2018-10-19 2021-09-01 株式会社デンソー 物体検知装置、物体検知方法およびプログラム
DE102018129876B3 (de) * 2018-11-27 2020-04-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer geometrischen Eigenschaft eines Objekts mittels einer Geradengleichung, Computerprogrammprodukt, elektronische Recheneinrichtung sowie Ultraschallsensorvorrichtung
US11410545B2 (en) * 2019-07-19 2022-08-09 Ford Global Technologies, Llc Dynamic vehicle perimeter definition and reporting
KR102333240B1 (ko) * 2019-12-18 2021-12-01 현대모비스 주식회사 차량용 물체 인식 장치 및 방법
CN115244594B (zh) * 2020-03-24 2023-10-31 三菱电机株式会社 信息处理装置和信息处理方法
JP7318609B2 (ja) * 2020-08-06 2023-08-01 トヨタ自動車株式会社 車載検出装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003194938A (ja) * 2001-12-25 2003-07-09 Denso Corp 障害物検知装置
JP2006151125A (ja) * 2004-11-26 2006-06-15 Omron Corp 車載用画像処理装置
JP2012164275A (ja) * 2011-02-09 2012-08-30 Toyota Motor Corp 画像認識装置
WO2013024509A1 (ja) * 2011-08-16 2013-02-21 三菱電機株式会社 物体検知装置
JP2013190421A (ja) * 2012-03-14 2013-09-26 Honda Motor Co Ltd 車両において通行物体位置検出を向上する方法
WO2016103464A1 (ja) * 2014-12-26 2016-06-30 三菱電機株式会社 障害物検知装置及び障害物検知方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3263699B2 (ja) 1992-12-22 2002-03-04 三菱電機株式会社 走行環境監視装置
JP3212218B2 (ja) 1994-05-26 2001-09-25 三菱電機株式会社 車両用障害物検出装置
DE102005015088B4 (de) 2004-04-02 2015-06-18 Denso Corporation Fahrzeugumgebungsüberwachungssystem
JP4315117B2 (ja) 2004-04-02 2009-08-19 株式会社デンソー 車両周辺監視システム
JP4396400B2 (ja) 2004-06-02 2010-01-13 トヨタ自動車株式会社 障害物認識装置
JP4598653B2 (ja) 2005-05-13 2010-12-15 本田技研工業株式会社 衝突予知装置
JP4123259B2 (ja) * 2005-09-02 2008-07-23 トヨタ自動車株式会社 物体検出装置および物体検出方法
JP4371115B2 (ja) * 2006-03-01 2009-11-25 トヨタ自動車株式会社 物体検出装置
EP2234085B1 (en) * 2007-12-18 2011-11-30 Honda Motor Co., Ltd. Parking availability judging device for vehicle
JP4453775B2 (ja) 2008-06-27 2010-04-21 トヨタ自動車株式会社 物体検出装置
JP6404679B2 (ja) * 2014-10-22 2018-10-10 株式会社デンソー 物体検知装置
JP2016080641A (ja) * 2014-10-22 2016-05-16 株式会社デンソー 物体検知装置
JP2016167182A (ja) 2015-03-10 2016-09-15 アズビル株式会社 制御プログラム作成装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003194938A (ja) * 2001-12-25 2003-07-09 Denso Corp 障害物検知装置
JP2006151125A (ja) * 2004-11-26 2006-06-15 Omron Corp 車載用画像処理装置
JP2012164275A (ja) * 2011-02-09 2012-08-30 Toyota Motor Corp 画像認識装置
WO2013024509A1 (ja) * 2011-08-16 2013-02-21 三菱電機株式会社 物体検知装置
JP2013190421A (ja) * 2012-03-14 2013-09-26 Honda Motor Co Ltd 車両において通行物体位置検出を向上する方法
WO2016103464A1 (ja) * 2014-12-26 2016-06-30 三菱電機株式会社 障害物検知装置及び障害物検知方法

Also Published As

Publication number Publication date
CN109643495B (zh) 2022-05-17
JP6722066B2 (ja) 2020-07-15
US20200210722A1 (en) 2020-07-02
DE112017004333B4 (de) 2023-09-28
DE112017004333T5 (de) 2019-05-09
WO2018043028A1 (ja) 2018-03-08
US10885354B2 (en) 2021-01-05
CN109643495A (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
JP6722066B2 (ja) 周辺監視装置及び周辺監視方法
US11027653B2 (en) Apparatus, system and method for preventing collision
JP3263699B2 (ja) 走行環境監視装置
KR101622028B1 (ko) 차량 통신을 이용한 차량 제어 장치 및 제어 방법
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
JP6369390B2 (ja) 車線合流判定装置
US8559674B2 (en) Moving state estimating device
JP2020091281A (ja) レーダーデータを処理する装置及び方法
JP5505702B2 (ja) 車両周辺監視装置
WO2010032532A1 (ja) 走行環境認識装置
JP2001099930A (ja) 周辺監視センサ
US11150333B2 (en) Object sensing apparatus and object sensing method
JP2017111682A (ja) 物体検知装置、物体検知方法
JP2021196939A (ja) 車載センサシステム
JP4948338B2 (ja) 車間距離計測装置
JP5698618B2 (ja) 絶対速度推定装置
JP2017142171A (ja) 物体検知装置
JP2019159380A (ja) 物体検知装置、物体検知方法およびプログラム
KR20190078944A (ko) 철도차량용 증강현실 헤드업 디스플레이 시스템
US11798417B2 (en) Driving assistance device
JP2012234373A (ja) 運転支援装置
US11535243B2 (en) Remote parking system
JP6465919B2 (ja) 障害物検知システム
JP2013160700A (ja) 車両周辺監視装置
US11347216B2 (en) Remote parking system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200619

R150 Certificate of patent or registration of utility model

Ref document number: 6722066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250