JP6532229B2 - 物体検出装置、物体検出システム、物体検出方法及びプログラム - Google Patents

物体検出装置、物体検出システム、物体検出方法及びプログラム Download PDF

Info

Publication number
JP6532229B2
JP6532229B2 JP2014255884A JP2014255884A JP6532229B2 JP 6532229 B2 JP6532229 B2 JP 6532229B2 JP 2014255884 A JP2014255884 A JP 2014255884A JP 2014255884 A JP2014255884 A JP 2014255884A JP 6532229 B2 JP6532229 B2 JP 6532229B2
Authority
JP
Japan
Prior art keywords
feature point
object detection
vehicle
feature points
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014255884A
Other languages
English (en)
Other versions
JP2016115305A (ja
Inventor
山本 徹夫
徹夫 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2014255884A priority Critical patent/JP6532229B2/ja
Priority to US14/886,561 priority patent/US9789820B2/en
Priority to CN201510755903.5A priority patent/CN105711498B/zh
Publication of JP2016115305A publication Critical patent/JP2016115305A/ja
Application granted granted Critical
Publication of JP6532229B2 publication Critical patent/JP6532229B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Description

本発明は、車両の周辺の物体を検出する技術に関する。
従来より、車両の周辺を撮影するカメラで得られた撮影画像を用いて物体を検出する物体検出装置が提案されている。物体検出装置は、例えば、フロントカメラで得られた撮影画像に基づいて物体を検出する。このような物体検出装置の検出結果をユーザ(主にドライバ)に報知することにより、ユーザは見通しの悪い交差点や駐車場などにおいて死角となる位置から接近する他の車両等の物体を容易に把握できる。
このような物体検出装置における物体の検出方式として、オプティカルフロー方式が知られている。オプティカルフロー方式は、周期的に得られる撮影画像(フレーム)から特徴点を抽出し、撮影画像間での特徴点の動きを示すベクトルであるオプティカルフローを導出する。そして、このオプティカルフローに基づいて、自車両の周辺の物体を検出する(例えば、特許文献1参照。)。
特開2014−146083号公報
ところで、オプティカルフロー方式を採用した場合、自車両の走行中においては、移動する物体だけではなく、背景となる被写体に関してもオプティカルフローが導出される。このような背景となる被写体に係るオプティカルフローは物体の誤検出の要因となる。
従来の物体検出装置では、このような物体の誤検出を回避するように物体の検出感度が一定に定められている。このため、物体検出装置の物体の検出性能を向上することは難しかった。
本発明は、上記課題に鑑みてなされたものであり、物体の検出性能を向上する技術を提供することを目的とする。
上記課題を解決するため、請求項1の発明は、車両の周辺の物体を検出する物体検出装
置であって、前記車両の周辺を撮影するカメラで周期的に得られる撮影画像の特徴点に基
づいてオプティカルフローを導出する導出手段と、前記オプティカルフローに基づいて物
体を検出する検出手段と、前記車両の速度を取得する取得手段と、前記速度に応じて前記
特徴点の数に関わるパラメータを設定する設定手段と、を備え、前記設定手段は前記速度が低いほど前記特徴点の数が多くなるように前記パラメータを設定する
また、請求項2の発明は、請求項1に記載の物体検出装置において、前記設定手段は、前記速度に基づいて前記車両が停車中か走行中かを判定し、前記停車中は、前記走行中と比較して前記特徴点の数が多くなるように前記パラメータを設定する。
また、請求項3の発明は、請求項1または2に記載の物体検出装置において、前記導出手段は、前記撮影画像の特徴点を抽出する抽出手段と、前記抽出手段に抽出された一の特徴点を中心とする評価領域に他の特徴点が含まれる場合に、該他の特徴点を前記オプティカルフローの導出対象から除外する除外手段と、を備え、前記パラメータは、前記評価領域のサイズを含む。
また、請求項4の発明は、請求項1または2に記載の物体検出装置において、前記導出手段は、一の撮影画像の画素値のみに基づく特徴点である第1特徴点を抽出する抽出手段と、前記一の撮影画像より前に取得された撮影画像の特徴点に対応する前記一の撮影画像中の点である第2特徴点を判定する判定手段と、前記第2特徴点を中心とする評価領域に前記第1特徴点が含まれる場合に、該第1特徴点を前記オプティカルフローの導出対象から除外する除外手段と、を備え、前記パラメータは、前記評価領域のサイズを含む。
また、請求項5の発明は、請求項1ないし4のいずれかに記載の物体検出装置において、前記特徴点の抽出前の前記撮影画像を平滑化する平滑化手段、を備え、前記パラメータは、前記平滑化の強度を含む。
また、請求項6の発明は、請求項1ないし5のいずれかに記載の物体検出装置において、前記特徴点の抽出前の前記撮影画像を鮮鋭化する鮮鋭化手段、を備え、前記パラメータは、前記鮮鋭化の強度を含む。
また、請求項7の発明は、車両の周辺の物体を検出する物体検出システムであって、前
記車両の周辺を撮影するカメラと、前記カメラで周期的に得られる撮影画像の特徴点に基
づいてオプティカルフローを導出する導出手段と、前記オプティカルフローに基づいて物
体を検出する検出手段と、前記車両の速度を取得する取得手段と、前記速度に応じて前記
特徴点の数に関わるパラメータを設定する設定手段と、を備え、前記設定手段は前記速度が低いほど前記特徴点の数が多くなるように前記パラメータを設定する
また、請求項8の発明は、車両の周辺の物体を検出する物体検出方法であって、(a)
前記車両の周辺を撮影するカメラで周期的に得られる撮影画像の特徴点に基づいてオプテ
ィカルフローを導出する工程と、(b)前記オプティカルフローに基づいて物体を検出す
る工程と、(c)前記車両の速度を取得する工程と、(d)前記速度に応じて前記特徴点
の数に関わるパラメータを設定する工程と、を備え、前記工程(d)は前記速度が低いほど前記特徴点の数が多くなるように前記パラメータを設定する
また、請求項9の発明は、車両において用いられるコンピュータによって実行可能なプ
ログラムであって、前記コンピュータに、(a)前記車両の周辺を撮影するカメラで周期
的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する工程と、(b)
前記オプティカルフローに基づいて物体を検出する工程と、(c)前記車両の速度を取得
する工程と、(d)前記速度に応じて前記特徴点の数に関わるパラメータを設定する工程
と、を実行させ、前記工程(d)は前記速度が低いほど前記特徴点の数が多くなるように前記パラメータを設定する。
請求項1ないし9の発明によれば、車両の速度に応じて特徴点の数に関わるパラメータを設定するため、車両の速度に応じて物体の検出感度を適切に調整することで物体の検出性能を向上できる。
また、特に請求項2の発明によれば、車両の停車中は特徴点の数が多くなるようにパラメータを設定するため、車両の停車中は物体の検出感度を上げて物体の検出性能を向上できる。
また、特に請求項3の発明によれば、評価領域のサイズを設定することにより、物体の検出感度を調整できる。
また、特に請求項4の発明によれば、評価領域のサイズを設定することにより、物体の検出感度を調整できる。
また、特に請求項5の発明によれば、平滑化の強度を設定することにより、物体の検出感度を調整できる。
また、特に請求項6の発明によれば、鮮鋭化の強度を設定することにより、物体の検出感度を調整できる。
図1は、物体検出システムの概略構成を示す図である。 図2は、2つのカメラがそれぞれ撮影する方向を示す図である。 図3は、物体検出システムが利用される場面の一例を示す図である。 図4は、フロー導出部が備える機能を示すブロック図である。 図5は、表示画像の一例を示す図である。 図6は、フロントカメラで取得された撮影画像の例を示す図である。 図7は、フロントカメラで取得された撮影画像の例を示す図である。 図8は、フロントカメラで取得された撮影画像の例を示す図である。 図9は、オプティカルフロー方式の概要を説明する図である。 図10は、オプティカルフロー方式の概要を説明する図である。 図11は、物体検出装置の動作の流れを示す図である。 図12は、物体検出処理の詳細な流れを示す図である。 図13は、鮮鋭化手法の概要を説明する図である。 図14は、移動平均フィルタの例を示す図である。 図15は、移動平均フィルタの例を示す図である。 図16は、第1除外処理の手順を説明する図である。 図17は、特徴点追跡処理の手順を説明する図である。 図18は、第2除外処理の手順を説明する図である。 図19は、特徴点をグループ化する手法を説明する図である。 図20は、特徴点をグループ化する手法を説明する図である。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.システムの構成>
図1は、本実施の形態の物体検出システム10の概略構成を示す図である。物体検出システム10は、自動車などの車両に搭載されて当該車両の周辺を移動する物体を検出し、物体を検出した場合はその検出結果をユーザに報知する機能を有している。以下、物体検出システム10が搭載される車両を「自車両」という。
物体検出システム10は、撮影画像を表示する表示装置3と、音を発生するスピーカ4とを備えている。表示装置3は、自車両の車室内におけるユーザ(主にドライバ)が視認可能な位置に配置され、各種の情報をユーザに報知する。表示装置3は、目的地までのルートを案内するナビゲーション機能など、基本的な表示機能以外の機能を備えていてもよい。スピーカ4は、自車両の車室内に配置され、音により情報をユーザに報知する。
また、物体検出システム10は、自車両の周辺を撮影して撮影画像を得る複数のカメラ2を備えている。複数のカメラ2はそれぞれ、レンズと撮像素子と画像処理部とを備えており、電子的に撮影画像を取得し、取得した撮影画像に所定の画像処理を行う。各カメラ2は、所定の周期(例えば、1/30秒周期)で周期的に撮影画像を取得する。
複数のカメラ2は、フロントカメラ2Fとバックカメラ2Bとを含んでいる。図2は、2つのカメラ2F,2Bがそれぞれ撮影する方向を示す図である。
図に示すように、フロントカメラ2Fは、自車両9の前端のバンパーに設けられ、その光軸21Fは自車両9の前後方向に沿って前方に向けられる。したがって、フロントカメラ2Fは、自車両9の前方を撮影して、自車両9の前方の様子を示す撮影画像を取得する。また、バックカメラ2Bは、自車両9の後端の背面ドア92に設けられ、その光軸21Bは自車両9の前後方向に沿って後方に向けられる。したがって、バックカメラ2Bは、自車両9の後方を撮影して、自車両9の後方の様子を示す撮影画像を取得する。
これらのカメラ2のレンズには魚眼レンズが採用され、各カメラ2は180度以上の画角θを有している。このため、フロントカメラ2Fは、自車両9の前方に広がる左右方向に180度以上の領域を撮影することが可能であり、バックカメラ2Bは、自車両9の後方に広がる左右方向に180度以上の領域を撮影することが可能である。
物体検出システム10は、これら2つのカメラ2のうち、動作モードに応じて選択されるカメラ2で得られた撮影画像を表示装置3において表示する。物体検出システム10は、フロントモードではフロントカメラ2Fで得られた撮影画像を表示し、バックモードではバックカメラ2Bで得られた撮影画像を表示する。このような動作モードは、例えば、自車両9の進行方向に応じて切り替えられる。これにより、ユーザは進行方向における自車両9の周辺の様子を略リアルタイムに把握できる。
また、物体検出システム10は、動作モードに応じたカメラ2で得られた撮影画像に基いて自車両9に接近する物体を検出する。そして、物体を検出した場合は、物体検出システム10は、表示装置3及びスピーカ4を介して検出結果をユーザに報知する。これにより、ユーザは、見通しの悪い交差点や駐車場などにおいて、ユーザの死角となる位置から接近する物体を容易に把握できる。
図3は、物体検出システム10が利用される場面の一例を示す図である。図3においては、自車両9が見通しの悪い交差点に差し掛かった場面を示している。物体検出システム10の動作モードは、フロントモードとなっている。前述のように、フロントカメラ2Fは180度以上の画角θを有している。このため、図3に示すように、自車両9の前端のみが交差点に進入した状態において、フロントカメラ2Fは、交差点内の左右に広がった領域を撮影可能である。したがって、物体検出システム10は、自車両9が存在する道路R1に対して略直交する他方の道路R2の様子を示す撮影画像を取得でき、この撮影画像を表示装置3に表示できる。
また、このように取得された撮影画像には、他方の道路R2を移動して左側又は右側から自車両9に接近する物体(他の車両8や歩行者など)の像が含まれる。物体検出システム10は、この撮影画像を用いることで自車両9に接近する物体を検出し、その検出結果をユーザに報知する。このため、ユーザは、自車両9の全体を交差点に侵入させる前に、自車両9に接近する物体を容易に把握できる。
図1に戻り、物体検出システム10は、カメラ2で取得された撮影画像に基づいて自車両9に接近する物体を検出するための物体検出装置1を備えている。物体検出装置1は、画像取得部12、画像処理回路13、及び、画像出力部14を備えている。
画像取得部12は、動作モードに応じたカメラ2で得られる撮影画像を取得する。画像取得部12は、所定の周期(例えば、1/30秒周期)で周期的に撮影画像をカメラ2から取得する。画像取得部12が取得する一の撮影画像は、映像信号の一のフレームとなる。
画像処理回路13は、画像取得部12が取得した撮影画像に対して所定の画像処理を実行するASICやFPGAなどのハードウェア回路である。画像処理回路13は、オプティカルフロー方式で物体を検出する物体検出処理を実行する。図中に示す、鮮鋭化部51、平滑化部52、フロー導出部53及び物体検出部54は、この物体検出処理に係る機能である。
鮮鋭化部51は、撮影画像の画素値の変化を強調する鮮鋭化処理を行う。鮮鋭化部51は、鮮鋭化処理を行うことで、撮影画像に含まれる被写体像の輪郭を強調し、被写体像を鮮明にする。
平滑化部52は、撮影画像の画素値の変化を低減する平滑化処理を行う。平滑化部52は、平滑化処理を行うことで、撮影画像に含まれるランダムなノイズを除去する。
フロー導出部53は、撮影画像の特徴点に基づいてオプティカルフローを導出する。図4は、フロー導出部53が備える、オプティカルフローの導出に関わる機能を示すブロック図である。図4に示す特徴点抽出部53a、特徴点追跡部53b、特徴点除外部53c及びフロー選択部53dはそれぞれ、フロー導出部53が備える機能である。これらの機能の詳細については後述する。
図1に戻り、物体検出部54は、フロー導出部53に導出されたオプティカルフローに基づいて物体を検出する。物体検出部54が物体を検出した場合は、画像処理回路13は物体検出処理の検出結果を出力する。
画像出力部14は、撮影画像とともに各種情報を含む表示画像を生成し、NTSCなどの所定形式の映像信号に変換して表示装置3に出力する。これにより、撮影画像を含む表示画像が表示装置3において表示される。画像出力部14は、鮮鋭化処理後の鮮明な被写体像を含む撮影画像を表示画像の生成に用いる。
また、物体検出装置1は、操作スイッチ15、信号受信部16、音声出力部17、記憶部18、及び、制御部11を備えている。
操作スイッチ15は、自車両9の車室内に設けられるスイッチである。操作スイッチ15は、ユーザの操作を受け付け、操作内容を示す信号を制御部11に入力する。
信号受信部16は、自車両9に設けられる車載ネットワーク91を介して、他の装置からの信号を受信して、自車両9の車両状態を取得する。信号受信部16は、受信した信号を制御部11に入力する。
信号受信部16は、シフトセンサ71及び速度センサ72が送出する信号を受信する。シフトセンサ71は、自車両9の変速装置のシフトレバーの位置であるシフトポジションを検出し、そのシフトポジションを示す信号を送出する。このシフトポジションは、自車両9の進行方向を示す。速度センサ72は、自車両9の車輪軸の回転に基いて速度を検出し、自車両9の速度を示す信号を送出する。これにより、信号受信部16は、シフトポジション及び速度を、自車両9の車両状態として取得する。
音声出力部17は、制御部11からの信号に基いて音声信号を生成して、スピーカ4に出力する。これにより、スピーカ4が、警告音などの音を発生する。
記憶部18は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部18は、例えば、ファームウェアとしてのプログラム18aを記憶する。
制御部11は、CPU、RAM及びROMなどを備えたマイクロコンピュータであり、画像処理回路13を含む物体検出装置1の各部を制御する。制御部11は、例えば、信号受信部16が取得したシフトポジション、及び、操作スイッチ15の操作内容などに応じて、物体検出システム10の動作モードを変更する。
制御部11の各種の機能は、ソフトウェアで実現される。すなわち、制御部11の機能は、記憶部18に記憶されたプログラム18aの実行(プログラム18aに従ったCPUの演算処理)によって実現される。図中のパラメータ設定部61及び結果報知部62は、プログラム18aの実行により実現される機能の一部である。
パラメータ設定部61は、画像処理回路13が物体検出処理を実行する際に用いるパラメータを設定する。パラメータ設定部61は、このようなパラメータを変更することで物体検出装置1の物体の検出感度を調整する。パラメータ設定部61に設定されるパラメータの詳細については後述する。
結果報知部62は、画像処理回路13による物体検出処理の検出結果をユーザに報知する。結果報知部62は、画像処理回路13が出力する検出結果を受け取る。そして、結果報知部62は、画像出力部14に信号を送出して、検出結果を示す表示画像を画像出力部14に生成させる。これにより、検出結果を示す表示画像が表示装置3において表示される。また、結果報知部62は、音声出力部17に信号を送出して、検出結果に応じた音声信号を音声出力部17に生成させる。これにより、検出結果に応じた警告音がスピーカ4から発生される。
図5は、フロントモードにおいて表示装置3に表示される表示画像31の一例を示す図である。表示画像31は、カメラ2で取得された撮影画像SGと、物体検出処理の検出結果を示す指標となる2つの警告部AFと、動作モードを示すアイコンCとを含んでいる。
2つの警告部AFは、上下に延びる矩形の領域であり、撮影画像SGの左右にそれぞれ配置される。自車両9の右側から接近する物体が存在する場合は、図5に示すように右側の警告部AFが所定の色(例えば、黄色)で点滅する。逆に、自車両9の左側から接近する物体が存在する場合は、左側の警告部AFが所定の色で点滅する。
また、このように自車両9に接近する物体が存在する場合は、所定の警告音がスピーカ4から発生される。これにより、ユーザは、自車両9に接近する物体の存在とともに、その物体が存在する方向を容易に把握できる。
<2.物体検出処理の概要>
次に、画像処理回路13が実行する物体検出処理の概要について説明する。前述のように、画像処理回路13は、周期的に得られる複数の撮影画像(フレーム)を用いるフレーム相関方式の一つであるオプティカルフロー方式で物体を検出する。物体検出処理は、一の撮影画像(フレーム)ごとに実行される。
図6、図7及び図8は、フロントカメラ2Fで時系列的に取得された複数の撮影画像(フレーム)SGの例を示している。図6の撮影画像SGが最も古く、図8の撮影画像SGが最も新しい。図6から図8の撮影画像SGそれぞれには、自車両9に接近する同一の物体の像Obが含まれている。画像処理回路13は、このような周期的に得られる複数の撮影画像SGのそれぞれに関して物体検出処理を行なって、自車両9に接近する物体を検出する。
画像処理回路13は、撮影画像SGに設定される左右2つの検出領域TAのそれぞれを対象にして物体検出処理を行なう。2つの検出領域TAは、撮影画像SGの上下中央付近に設定される。そして、一方の検出領域TAは撮影画像SGの左側、他方の検出領域TAは撮影画像SGの右側にそれぞれ設定される。これらの検出領域TAは、理論的上の無限遠点である消失点(実際には平行な線の像が遠近法により交わる点)を含むことが望ましい。
図9及び図10は、オプティカルフロー方式の物体検出処理の概要を説明する図である。これらの図中では、撮影画像の右側に設定される検出領域TAを例示している。
また、図9では、時間的に連続して取得された2つの撮影画像(フレーム)の検出領域TAを示している。図中右側の検出領域TA1は、直近に取得された撮影画像の検出領域TAである。一方、図中左側の検出領域TA0は、直近の撮影画像よりも1フレーム前に取得された過去の撮影画像の検出領域TAである。この説明では、直近の撮影画像を「現フレーム」といい、過去の撮影画像を「前フレーム」という。以下、図9及び図10を参照して、オプティカルフロー方式の物体検出処理の概要を説明する。
物体検出処理の開始時点においては、前フレームの検出領域TA0における複数の特徴点FPが導出済である。特徴点FPは、撮影画像中において際立って検出できる点であり、前回の物体検出処理において導出される(ステップSP1)。このような前フレームの特徴点(以下、「前回特徴点」という。)FPは、記憶部18に記憶される。
物体検出処理では、前フレームの検出領域TA0と現フレームの検出領域TA1とが比較され、前回特徴点FPが追跡される(ステップSP2)。すなわち、周辺の画素値に基づいて、前回特徴点FPの移動先となる現フレームにおける点が「追跡特徴点」として判定される。そして、前回特徴点FPと追跡特徴点とが対応付けられる。
次に、対応付けられた前回特徴点FPから追跡特徴点へ向かうベクトルがオプティカルフローOFとして導出される(ステップSP3)。オプティカルフローOFは、撮影画像間での特徴点FPの動きを表すことになる。
オプティカルフローOFには、左向き、あるいは、右向きなど様々な向きのオプティカルフローが存在する。自車両9に接近する物体の像Obは、通常、撮影画像中を内向き(撮影画像の左右端部から中央側への向き)に移動する。このため、内向きのオプティカルフローのみが処理対象として選択され(図10のステップSP4)、自車両9から離れる方向に移動する物体のオプティカルフローは処理対象から除外される。図10に示す検出領域TA1では、左向きのオプティカルフローOFのみが処理対象として選択される。
次に、処理対象として選択されたオプティカルフローに係る特徴点(追跡特徴点)が参照され、互いに近傍に存在する複数の特徴点が一つのグループOGとしてグループ化される。そして、このようなグループOGが物体として検出される(ステップSP5)。
このようなオプティカルフローを採用した場合、自車両9の停車中においては、移動する物体以外の背景となる被写体(以下、単に「背景」という。)と自車両9との相対位置が変化しないため、背景に関してオプティカルフローが導出されることはない。
一方、自車両9の走行中においては、背景と自車両9との相対位置が変化するため、背景に関してもオプティカルフローが導出される。通常、このような背景に係るオプティカルフローは、外向きのオプティカルフローとなるため、処理対象から除外される。
しかしながら、特定の条件下では、背景に係るオプティカルフローが内向きとなる場合がある。例えば、自車両9の旋回中においては、背景に係るオプティカルフローが内向きとなる場合がある。また、道路標示や区画線(白線)などに係るオプティカルフローが、特徴点の誤追跡などに起因して内向きとなる場合がある。したがって、このような背景に係るオプティカルフローが物体の誤検出の要因となる可能性がある。このような物体の誤検出を回避するためには、物体の検出感度を低下させる必要がある。
一方で、上述のように、背景に係るオプティカルフローは自車両9の走行中に導出されるが、自車両9の停車中には導出されない。したがって、自車両9の停車中においては、背景に係るオプティカルフローに起因する誤検出を回避するために物体の検出感度を低下させる必要はない。
このことから、本実施の形態の物体検出装置1は、自車両9の速度に応じて物体の検出感度を調整する。具体的には、自車両9の走行中は物体の検出感度を相対的に下げる一方で、自車両9の停車中は物体の検出感度を相対的に上げるようにしている。これにより、自車両9の走行中は物体の誤検出を防止できるとともに、自車両9の停車中は物体検出装置1の物体の検出性能を向上できることになる。
本実施の形態の物体検出装置1においては、物体検出処理に用いるパラメータを、パラメータ設定部61が自車両9の速度に応じて設定することで、物体の検出感度を調整する。このパラメータは、オプティカルフローの導出対象となる特徴点の数に関わるパラメータである。以下、このパラメータを「特徴点パラメータ」という。
<3.動作の流れ>
以下、このような物体検出装置1の動作について説明する。図11は、物体検出装置1の動作の流れを示す図である。図11に示す処理は一フレームごとに行われ、所定の周期(例えば、1/30秒周期)で繰り返される。
まず、信号受信部16が、自車両9の速度を取得する(ステップS11)。信号受信部16は、速度センサ72から送出される信号を受信して、自車両9の速度を取得する。
次に、パラメータ設定部61が、信号受信部16が取得した自車両9の速度に基づいて自車両9が停車中か走行中かを判定する(ステップS12)。パラメータ設定部61は、自車両9の速度が所定の閾値(例えば、0.1km/h)未満の場合は、自車両9が停車中であると判定する。
自車両9が停車中の場合は(ステップS12にてYes)、パラメータ設定部61は、特徴点の数が相対的に多くなるように特徴点パラメータを設定する(ステップS13)。一方、自車両9が走行中の場合は(ステップS12にてNo)、パラメータ設定部61は、特徴点の数が相対的に少なくなるように特徴点パラメータを設定する(ステップS14)。すなわち、パラメータ設定部61は、自車両9の停車中は、走行中と比較して特徴点の数が多くなるように特徴点パラメータを設定する。設定された特徴点パラメータは、以降の物体検出処理(ステップS16)において用いられる。特徴点パラメータの具体例については後述する。
このようにパラメータ設定部61が特徴点パラメータを設定することで、自車両9が停車中の場合は、オプティカルフローの導出対象となる特徴点の数が多くなる。このため、自車両9が停車中の場合は、物体の検出感度が上がり、物体検出装置の物体の検出性能を向上することができる。一方で、自車両9が走行中の場合は、オプティカルフローの導出対象となる特徴点の数が少なくなる。このため、自車両9が走行中の場合は、物体の検出感度が低下し、物体の誤検出を防止することができる。
なお、この図11に示す処理においては、ステップS13またはステップS14のいずれかにおいてパラメータ設定部61が特徴点パラメータを必ず設定しているが、自車両9の状態が停車中と走行中との間で変化する場合にのみ特徴点パラメータを設定してもよい。
パラメータ設定部61が特徴点パラメータを設定すると、次に、画像取得部12が、動作モードに応じたカメラ2から、今回の物体検出処理において処理対象となる一の撮影画像(フレーム)を取得する(ステップS15)。
次に、画像処理回路13が、画像取得部12が取得した撮影画像、及び、パラメータ設定部61が設定した特徴点パラメータを用いて物体検出処理を実行する(ステップS16)。この物体検出処理において画像処理回路13が物体を検出した場合は、画像処理回路13は検出結果を制御部11に出力する。
制御部11の結果報知部62は、この物体検出処理の検出結果を受け取ると、該検出結果をユーザに報知する(ステップS17)。結果報知部62は、撮影画像とともに検出結果を示す表示画像を表示装置3に表示させる。さらに、結果報知部62は、検出結果に応じた警告音をスピーカ4から発生させる。
次に、画像処理回路13が実行する物体検出処理(ステップS16)について詳細に説明する。図12は、物体検出処理の詳細な流れを示す図である。この物体検出処理は、撮影画像の左右2つの検出領域TAのそれぞれに関して個別に行われる。
この物体検出処理の開始時点においては、今回の物体検出処理において処理対象となる一の撮影画像が取得されている。この説明において、今回の物体検出処理において処理対象となる一の撮影画像(直近の撮影画像)を「現フレーム」といい、前回の物体検出処理において処理対象となった撮影画像(1フレーム前の撮影画像)を「前フレーム」という。
まず、鮮鋭化部51が、現フレームに対し画素値の変化を強調する鮮鋭化処理を行う(ステップS21)。鮮鋭化部51は、例えば、ラプラシアンフィルタを用いた鮮鋭化手法により鮮鋭化処理を行う。この鮮鋭化手法では、二次微分を行うラプラシアンフィルタの結果を処理前の原画像から減算することで画素値の変化を強調する。
図13は、ラプラシアンフィルタを用いた鮮鋭化手法の概要を説明する図である。図中のグラフの横軸は画像における座標位置を示し、縦軸は値を示している。
図13の最上部の曲線L0は、処理前の原画像の輪郭の部分における画素値(輝度値)の変化を表している。また、曲線L1は原画像の曲線L0に対して微分を行った結果である一次微分値を表し、曲線L2は曲線L1に対してさらに微分を行った結果である二次微分値を表している。この二次微分値(曲線L2)を原画像の画素値(曲線L0)から減算することで、曲線L3が得られる。
図13の最下部の曲線L3は、処理後の画像の同一部分における画素値(輝度値)の変化を表している。処理後の画像においては、画素値の変化の傾きが大きくなり、また、原画像にないアンダーシュート及びオーバーシュートが生じている。これにより、輪郭の部分の画素値の変化が強調され、被写体像を鮮明にすることができる。
この鮮鋭化手法では、原画像の画素値(曲線L0)に対する二次微分値(ラプラシアンフィルタの結果)の反映割合を変更することで、鮮鋭化の強度を変更することができる。すなわち、二次微分値の反映割合は鮮鋭化の強度に相当し、この反映割合を大きくすることで鮮鋭化の強度を大きくすることができる。
このような鮮鋭化処理後の画像から特徴点を抽出した場合において、鮮鋭化の強度が大きいときは特徴点の数が相対的に多くなり、鮮鋭化の強度が小さいときは特徴点の数が相対的に少なくなる。このため、本実施の形態では、鮮鋭化処理における鮮鋭化の強度が特徴点パラメータの一つとなっている。
図11のステップS13,S14において、パラメータ設定部61は、自車両9が停車中の場合は鮮鋭化の強度を相対的に大きく設定し、自車両9が走行中の場合は鮮鋭化の強度を相対的に小さく設定する。鮮鋭化部51は、パラメータ設定部61に設定された鮮鋭化の強度に相当する二次微分値の反映割合を用いて、特徴点の抽出前の現フレームに対して鮮鋭化処理を行う。これにより、鮮鋭化処理後の現フレームから特徴点を抽出した場合には、自車両9が停車中の場合は特徴点の数が相対的に多くなり、自車両9が走行中の場合は特徴点の数が相対的に少なくなる。
図12に戻り、鮮鋭化処理がなされると、次に、平滑化部52が、現フレームに対し画素値の変化を低減する平滑化処理を行う(ステップS22)。平滑化部52は、例えば、移動平均フィルタ(平均化フィルタ)を用いた平滑化手法により平滑化処理を行う。この平滑化手法では、注目画素の周辺の画素値を平均化した結果を注目画素の画素値とすることで、画素値の変化を低減する。これにより、画像に含まれるランダムなノイズを除去できる。
図14及び図15は、この平滑化手法において用いる移動平均フィルタの例を示す図である。図14は、注目画素の周辺の3×3画素を平均化するための移動平均フィルタM1である。一方、図15は、注目画素の周辺の5×5画素を平均化するための移動平均フィルタM2である。図15のように、移動平均フィルタのサイズを大きくして平均化の対象となる周辺の画素の数が多くなるほど、平滑化の強度が大きくなる。すなわち、移動平均フィルタのサイズは平滑化の強度に相当する。
このような平滑化処理後の画像から特徴点を抽出した場合において、平滑化の強度が大きいときは特徴点の数が相対的に少なくなり、平滑化の強度が小さいときは特徴点の数が相対的に多くなる。このため、本実施の形態では、平滑化処理における平滑化の強度が特徴点パラメータの一つとなっている。
図11のステップS13,S14において、パラメータ設定部61は、自車両9が停車中の場合は平滑化の強度を相対的に小さく設定し、自車両9が走行中の場合は平滑化の強度を相対的に大きく設定する。平滑化部52は、パラメータ設定部61に設定された平滑化の強度に相当するサイズの移動平均フィルタを用いて、特徴点の抽出前の現フレームに対して平滑化処理を行う。これにより、平滑化処理後の現フレームから特徴点を抽出した場合には、自車両9が停車中の場合は特徴点の数が相対的に多くなり、自車両9が走行中の場合は特徴点の数が相対的に少なくなる。
図12に戻り、平滑化処理がなされると、次に、フロー導出部53の特徴点抽出部53aが、現フレームの特徴点を抽出する特徴点抽出処理を行う(ステップS23)。特徴点抽出部53aは、例えば、ハリスオペレータなどの周知の手法を用いて、現フレームの画素値のみに基づいて特徴点を抽出する。これにより、特徴点抽出部53aは、物体の像のコーナー(エッジの交点)などを特徴点として抽出する。以下、このように現フレームの画素値のみに基づいて抽出される特徴点を「抽出特徴点」という。
次に、フロー導出部53の特徴点除外部53cが、特徴点抽出部53aが抽出した抽出特徴点の一部を以降の処理対象から除外する第1除外処理を行う(ステップS24)。
処理対象となる特徴点の数が多くなると、制御部11や画像処理回路13の処理の負荷が大きくなり、処理の速度が低下する可能性がある。このため、特徴点除外部53cは、抽出特徴点の密度が大きな領域に関しては、エッジ強度が最大の抽出特徴点のみを代表的に処理対象として残し、他の抽出特徴点については処理対象から除外する。
図16は、この第1除外処理(ステップS24)の手順を説明する図である。図16においては、現フレームの検出領域TA1の一部を模式的に示している。
図示した検出領域TA1においては、状態ST11に示すように、特徴点抽出部53aにより7つの抽出特徴点EP1〜EP7が抽出されたものとする。これら7つの抽出特徴点EP1〜EP7をエッジ強度の大きいものから並べると、抽出特徴点EP1、抽出特徴点EP2、抽出特徴点EP3、抽出特徴点EP4、抽出特徴点EP5、抽出特徴点EP6、及び、抽出特徴点EP7となる。
特徴点除外部53cは、エッジ強度の大きい順に抽出特徴点を注目特徴点として選択し、注目特徴点を中心とする評価領域に他の抽出特徴点が含まれる場合は、該他の抽出特徴点を以降の処理対象から除外する。図16の例では、この評価領域のサイズは3×3画素となっている。
図16の例では、まず、特徴点除外部53cは、エッジ強度が最も大きな抽出特徴点EP1を注目特徴点として選択する。そして、状態ST12に示すように、特徴点除外部53cは、この抽出特徴点EP1を中心とする評価領域A11を設定し、評価領域A11に他の抽出特徴点が含まれているか否かを判断する。この例では、評価領域A11には2つの抽出特徴点EP3,EP7が含まれているため、特徴点除外部53cは、これら2つの抽出特徴点EP3,EP7を処理対象から除外する。
続いて、特徴点除外部53cは、エッジ強度が次に大きな抽出特徴点EP2を注目特徴点として選択する。そして、状態ST13に示すように、特徴点除外部53cは、この抽出特徴点EP2を中心とする評価領域A12を設定し、評価領域A12に他の抽出特徴点が含まれているか否かを判断する。この例では、この評価領域A12には抽出特徴点が含まれていないため、抽出特徴点を除外する処理は行われない。
続いて、特徴点除外部53cは、エッジ強度が次に大きな抽出特徴点EP4を注目特徴点として選択する。この時点においては、特徴点除外部53cは、抽出特徴点EP3を処理対象から既に除外しているため、抽出特徴点EP4を次の注目特徴点として選択する。そして、状態ST14に示すように、特徴点除外部53cは、この抽出特徴点EP4を中心とする評価領域A14を設定し、評価領域A14に他の抽出特徴点が含まれているか否かを判断する。この例では、この評価領域A14には抽出特徴点EP6が含まれているため、特徴点除外部53cは抽出特徴点EP6を処理対象から除外する。
続いて、特徴点除外部53cは、エッジ強度が次に大きな抽出特徴点EP5を注目特徴点として選択する。そして、状態ST15に示すように、特徴点除外部53cは、この抽出特徴点EP5を中心とする評価領域A15を設定し、評価領域A15に他の抽出特徴点が含まれているか否かを判断する。この例では、この評価領域A15には抽出特徴点が含まれていないため、抽出特徴点を除外する処理は行われない。
そして、この時点において、図示した検出領域TA1にはエッジ強度が次に大きな抽出特徴点は存在しないため、特徴点除外部53cは第1除外処理を終了する。このような第1除外処理の結果、状態ST16に示すように、検出領域TA1には、4つの抽出特徴点EP1,EP2,EP4,EP5のみが以降の処理対象として残ることになる。
このような第1除外処理に関して、用いる評価領域のサイズが大きい場合には(例えば、5×5画素)、処理対象から除外される抽出特徴点が増加するため、処理対象として残る抽出特徴点の数が相対的に少なくなる。逆に、用いる評価領域のサイズが小さい場合には(例えば、3×3画素)、処理対象から除外される抽出特徴点が減少するため、処理対象として残る抽出特徴点の数が相対的に多くなる。このため、本実施の形態では、第1除外処理に用いる評価領域のサイズは特徴点パラメータの一つとなっている。
図11のステップS13,S14において、パラメータ設定部61は、自車両9が停車中の場合は評価領域のサイズを相対的に小さく設定し、自車両9が走行中の場合は評価領域のサイズを相対的に大きく設定する。特徴点除外部53cは、パラメータ設定部61に設定されたサイズの評価領域を用いて、現フレームに対して第1除外処理を行う。これにより、自車両9が停車中の場合は処理対象として残る抽出特徴点の数が相対的に多くなり、自車両9が走行中の場合は処理対象として残る抽出特徴点の数が相対的に少なくなる。
図12に戻り、第1除外処理がなされると、次に、フロー導出部53の特徴点追跡部53bが、前フレームの前回特徴点を追跡する特徴点追跡処理を行う(ステップS25)。特徴点追跡部53bは、前フレームの前回特徴点に対応する現フレーム中の点である追跡特徴点を判定する。
図17は、この特徴点追跡処理(ステップS25)の手順を説明する図である。図17においては、前フレームの検出領域TA0の一部と、現フレームの検出領域TA1の一部とを模式的に示している。これらの検出領域TA0との検出領域TA1とは撮影画像中における同一位置の領域である。図示した前フレームの検出領域TA0においては、3つの前回特徴点FP1、FP2、FP3が存在している。
特徴点追跡部53bは、前回特徴点のそれぞれを注目特徴点として選択し、注目特徴点に対応する追跡特徴点を判定する。特徴点追跡部53bは、前フレームにおいて注目特徴点を中心とする所定のサイズ(例えば、3×3画素)のブロックを設定する。特徴点追跡部53bは、このブロックの画素値と近似する画素値を有する領域を、現フレームの検出領域TA1から検索する。そして、特徴点追跡部53bは、検索した領域の中心点を注目特徴点の移動先となる点、すなわち、追跡特徴点と判定し、注目特徴点と追跡特徴点とを対応付ける。
図17の例では、特徴点追跡部53bは、3つの前回特徴点FP1、FP2、FP3のそれぞれに関してこの処理を実行する。これにより、特徴点追跡部53bは、前回特徴点FP1を追跡特徴点CP1と対応付け、前回特徴点FP2を追跡特徴点CP2と対応付け、前回特徴点FP3を追跡特徴点CP3と対応付ける。
特徴点追跡部53bは、このようにして前回特徴点に係る追跡特徴点を判定した後、対応付けた前回特徴点と追跡特徴点とに基づいてオプティカルフローを導出する。すなわち、特徴点追跡部53bは、対応付けた前回特徴点から追跡特徴点へ向かうベクトルをオプティカルフローとして導出する。
図12に戻り、特徴点追跡処理がなされると、次に、フロー導出部53の特徴点除外部53cが、追跡特徴点に基づいて抽出特徴点の一部を以降の処理対象から除外する第2除外処理を行う(ステップS24)。
この時点においては、特徴点抽出処理(ステップS23)で特徴点抽出部53aが抽出した抽出特徴点と、特徴点追跡処理(ステップS25)で特徴点追跡部53bが判定した追跡特徴点とが存在している。これら抽出特徴点と追跡特徴点とは、被写体の同一部分に関する特徴点である可能性がある。前述のように処理対象となる特徴点の数が多くなると、制御部11や画像処理回路13の処理の負荷が大きくなり、処理の速度が低下する可能性がある。このため、特徴点除外部53cは、抽出特徴点と追跡特徴点とが被写体の同一部分に関する特徴点と判断される場合は、追跡特徴点のみを代表的に処理対象として残し、抽出特徴点については処理対象から除外する。
図18は、この第2除外処理(ステップS26)の手順を説明する図である。図18においては、現フレームの検出領域TA1の一部を模式的に示している。
図示した検出領域TA1においては、状態ST21に示すように、特徴点抽出処理及び第1除外処理(ステップS23,S24)を経て、4つの抽出特徴点EP1,EP2,EP4,EP5が処理対象として残っている。また一方で、この検出領域TA1においては、状態ST22に示すように、特徴点追跡処理(ステップS25)を経て、3つの追跡特徴点CP1,CP2,CP3が判定されている。
特徴点除外部53cは、追跡特徴点のそれぞれを注目特徴点として選択し、注目特徴点を中心とする評価領域に抽出特徴点が含まれる場合は、該抽出特徴点を以降の処理対象から除外する。図18の例では、この評価領域のサイズは3×3画素となっている。
図18の例において、特徴点除外部53cが、追跡特徴点CP1を注目特徴点として選択した場合を想定する。この場合は、状態ST23に示すように、特徴点除外部53cは、この追跡特徴点CP1を中心とする評価領域A21を設定し、評価領域A21に抽出特徴点が含まれているか否かを判断する。この例では、この評価領域A21には抽出特徴点EP1が含まれているため、特徴点除外部53cは、抽出特徴点EP1を処理対象から除外する。
また、特徴点除外部53cが、追跡特徴点CP2を注目特徴点として選択した場合は、この追跡特徴点CP2を中心とする評価領域A22に抽出特徴点が含まれているか否かを判断する。この例では、この評価領域A22には抽出特徴点が含まれていないため、抽出特徴点を除外する処理は行われない。
また、特徴点除外部53cが、追跡特徴点CP3を注目特徴点として選択した場合は、この追跡特徴点CP3を中心とする評価領域A23に抽出特徴点が含まれているか否かを判断する。この例では、この評価領域A23には抽出特徴点EP4が含まれているため、特徴点除外部53cは、抽出特徴点EP4を処理対象から除外する。
このような第2除外処理の結果、状態ST24に示すように、検出領域TA1には、3つの追跡特徴点CP1,CP2,CP3、及び、2つの抽出特徴点EP2,EP5のみが以降の処理対象として残ることになる。
このような第2除外処理に関して、用いる評価領域のサイズが大きい場合には(例えば、5×5画素)、処理対象から除外される抽出特徴点が増加するため、処理対象として残る抽出特徴点の数が相対的に少なくなる。逆に、用いる評価領域のサイズが小さい場合には(例えば、3×3画素)、処理対象から除外される抽出特徴点が減少するため、処理対象として残る抽出特徴点の数が相対的に多くなる。このため、本実施の形態では、第2除外処理に用いる評価領域のサイズは特徴点パラメータの一つとなっている。
図11のステップS13,S14において、パラメータ設定部61は、自車両9が停車中の場合は評価領域のサイズを相対的に小さく設定し、自車両9が走行中の場合は評価領域のサイズを相対的に大きく設定する。特徴点除外部53cは、パラメータ設定部61に設定されたサイズの評価領域を用いて、現フレームに対して第2除外処理を行う。これにより、自車両9が停車中の場合は処理対象として残る抽出特徴点の数が相対的に多くなり、自車両9が走行中の場合は処理対象として残る抽出特徴点の数が相対的に少なくなる。
第2除外処理(ステップS26)の後に処理対象として残った現フレームの追跡特徴点及び抽出特徴点は、記憶部18に記憶され、次回の物体検出処理において前フレームの前回特徴点として扱われる。すなわち、これらの追跡特徴点及び抽出特徴点は、次回の物体検出処理においてオプティカルフローの導出対象とされる。したがって、特徴点除外部53cが行う第1除外処理(ステップS24)及び第2除外処理(ステップS26)は、オプティカルフローの導出対象から特徴点を除外する処理であるといえる。
図12に戻り、第2除外処理がなされると、次に、フロー導出部53のフロー選択部53dが、特徴点追跡処理(ステップS25)で導出されたオプティカルフローのうち、所定の条件を満足するオプティカルフローを処理対象として選択する(ステップS27)。フロー選択部53dは、長さが所定の閾値(例えば、「1」)よりも大きく、かつ、内向きのオプティカルフローのみを処理対象として選択する。
次に、物体検出部54が、フロー選択部53dに処理対象として選択されたオプティカルフローに基づいて物体を検出する(ステップS28)。まず、物体検出部54は、オプティカルフローそれぞれの追跡特徴点に注目する。そして、物体検出部54は、それらの追跡特徴点のうちで、互いに近傍に存在する複数の追跡特徴点を一つのグループとしてグループ化する。
図19及び図20は、このような追跡特徴点CPをグループ化する手法を説明する図である。図19においては、現フレームの検出領域TA1の一部を模式的に示している。また、この説明では、水平方向をX軸(右側が正)、垂直方向をY軸(下側が正)とする。
まず、図19に示すように、物体検出部54は、追跡特徴点CPのそれぞれの位置に、水平方向(X軸方向)に延びるラインLを設定する。このラインLは、追跡特徴点CPを中心とした特定のサイズ(例えば、5画素)の画素列で構成される。
次に、物体検出部54は、これらのラインLの画素を参照し、横軸をX軸の各座標位置、縦軸を画素の数(度数)とするヒストグラムHXを生成する。このヒストグラムHXにおいては、X軸の各座標位置において、Y軸方向に存在するラインLの画素の数が度数として示される。
次に、物体検出部54は、ヒストグラムHXの度数と所定の閾値Ta(例えば、「3」)とを比較する。そして、図19の下部に示すように、物体検出部54は、度数が閾値Ta以上となるX軸方向の範囲を示すラインデータLDを導出する。このラインデータLDは、検出領域TA1の水平方向(X軸方向)に関して、複数の追跡特徴点CPが互いに近傍に存在している範囲を示すものとなる。
次に、図20に示すように、物体検出部54は、縦軸をY軸の各座標位置、横軸を画素の数(度数)とするヒストグラムHYを生成する。このヒストグラムHYの作成手法は、図19に示すヒストグラムHXの作成手法を、X軸とY軸とで入れ換えたものとなる。ただし、物体検出部54は、この処理の対象とするX軸方向の範囲を、一のラインデータLDが存在する範囲(X1〜X2)に限定する。物体検出部54は、ラインデータLDごとに、このようなヒストグラムHYを作成する。
次に、物体検出部54は、ヒストグラムHYの度数と所定の閾値Tb(例えば、「3」)とを比較する。そして、物体検出部54は、度数が閾値Tb以上となるY軸方向の範囲を示すラインデータMDを導出する。このラインデータMDは、検出領域TA1の垂直方向(Y軸方向)に関して、複数の追跡特徴点CPが互いに近傍に存在している範囲を示すものとなる。
そして、物体検出部54は、図20の下部に示すように、ラインデータLDが存在するX軸方向の範囲(X1〜X2)と、ラインデータMDが存在するY軸方向の範囲(Y1〜Y2)とで規定される矩形領域TDに含まれる複数の追跡特徴点CPを一つのグループとしてグループ化する。グループのサイズは、この矩形領域TDのサイズとなる。物体検出部54は、一つの検出領域TA1から複数のグループを導出する場合もある。
物体検出部54は、このようにして複数の追跡特徴点をグループ化してグループを導出すると、次に、導出した各グループのサイズを所定の基準サイズ(例えば、水平15画素×垂直16画素)と比較する。そして、物体検出部54は、サイズが基準サイズより小となるグループを除外し、サイズが基準サイズより大となるグループを物体として検出する。
このように物体検出部54は、互いに近傍に存在する複数の追跡特徴点を一つのグループとしてグループ化し、そのようなグループを物体として検出する。このため、オプティカルフローの導出対象となる特徴点の数を多くすれば、追跡特徴点がグループ化される可能性が高くなり、物体の検出感度が向上する。逆に、オプティカルフローの導出対象となる特徴点の数を少なくすれば、追跡特徴点がグループ化される可能性が低くなり、物体の検出感度が低下することになる。
以上のように、本実施の形態の物体検出装置1においては、フロー導出部53が自車両9の周辺を撮影するカメラ2で周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出し、物体検出部54がオプティカルフローに基づいて物体を検出する。また、信号受信部16が自車両9の速度を取得し、パラメータ設定部61が自車両9の速度に応じて特徴点の数に関わる特徴点パラメータを設定する。このため、自車両9の速度に応じて物体の検出感度を適切に調整することができ、物体検出装置1の物体の検出性能を向上できる。
また、パラメータ設定部61は、自車両9の速度に基づいて自車両9が停車中か走行中かを判定し、自車両9の停車中は走行中と比較して特徴点の数が多くなるように特徴点パラメータを設定する。このため、自車両9の停車中は物体の検出感度を上げて、物体検出装置1の物体の検出性能を向上できる。
<4.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
上記実施の形態では、車両の周辺を撮影するカメラ2として、フロントカメラ2F及びバックカメラ2Bのいずれかを用いるものとして説明を行ったが、車両の左側方を撮影する左サイドカメラ、及び、車両の右側方を撮影する右サイドカメラなど他のカメラを用いてもよい。
また、上記実施の形態では、物体検出装置1は自車両9に接近する物体を検出するものとしていたが、自車両9から離れる物体など、接近する方向とは異なる方向に移動する物体を検出するものであってもよい。
また、上記実施の形態において、物体検出装置1の画像処理回路13が行うと説明した画像処理の一部(例えば、鮮鋭化処理など)は、カメラ2が備える画像処理部で行ってもよい。この場合において、例えば、鮮鋭化処理をカメラ2が備える画像処理部で行う場合は、制御部11は、パラメータ設定部61が設定した特徴点パラメータ(鮮鋭化の強度)を、カメラ2に信号として送信するようにすればよい。
また、上記実施の形態では、パラメータ設定部61は、自車両9が停車中か走行中かに応じて特徴点パラメータを2つの段階で設定していた。これに対して、パラメータ設定部61は、自車両9の速度に応じて特徴点パラメータを3つ以上の段階で設定するようにしてもよい。この場合は、パラメータ設定部61は、自車両9の速度が低いほど特徴点の数が多くなるように特徴点パラメータを設定することが望ましい。
また、上記実施の形態において一つのブロックとして説明した機能は必ずしも単一の物理的要素によって実現される必要はなく、分散した物理的要素によって実現されてよい。また、上記実施の形態で複数のブロックとして説明した機能は単一の物理的要素によって実現されてもよい。また、車両内の装置と車両外の装置とに任意の一つの機能に係る処理を分担させ、これら装置間において通信によって情報の交換を行うことで、全体として当該一つの機能が実現されてもよい。
また、上記実施の形態においてプログラムの実行によってソフトウェア的に実現されると説明した機能の全部又は一部は電気的なハードウェア回路により実現されてもよく、ハードウェア回路によって実現されると説明した機能の全部又は一部はソフトウェア的に実現されてもよい。また、上記実施の形態において一つのブロックとして説明した機能が、ソフトウェアとハードウェアとの協働によって実現されてもよい。
例えば、上記実施の形態で、画像処理回路13が実行する説明した処理の全部または一部は制御部11が実行してもよい。また逆に、制御部11が実行すると説明した処理の全部または一部は画像処理回路13が実行してもよい。
1 物体検出装置
2 カメラ
10 物体検出システム
51 鮮鋭化部
52 平滑化部
53 フロー導出部
53a 特徴点抽出部
53b 特徴点追跡部
53c 特徴点除外部
54 物体検出部
61 パラメータ設定部

Claims (9)

  1. 車両の周辺の物体を検出する物体検出装置であって、
    前記車両の周辺を撮影するカメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する導出手段と、
    前記オプティカルフローに基づいて物体を検出する検出手段と、
    前記車両の速度を取得する取得手段と、
    前記速度に応じて前記特徴点の数に関わるパラメータを設定する設定手段と、
    を備え
    前記設定手段は前記速度が低いほど前記特徴点の数が多くなるように前記パラメータを設定することを特徴とする物体検出装置。
  2. 請求項1に記載の物体検出装置において、
    前記設定手段は、
    前記速度に基づいて前記車両が停車中か走行中かを判定し、
    前記停車中は、前記走行中と比較して前記特徴点の数が多くなるように前記パラメー
    タを設定することを特徴とする物体検出装置。
  3. 請求項1または2に記載の物体検出装置において、
    前記導出手段は、
    前記撮影画像の特徴点を抽出する抽出手段と、
    前記抽出手段に抽出された一の特徴点を中心とする評価領域に他の特徴点が含まれる
    場合に、該他の特徴点を前記オプティカルフローの導出対象から除外する除外手段と、
    を備え、
    前記パラメータは、前記評価領域のサイズを含むことを特徴とする物体検出装置。
  4. 請求項1または2に記載の物体検出装置において、
    前記導出手段は、
    一の撮影画像の画素値のみに基づく特徴点である第1特徴点を抽出する抽出手段と、
    前記一の撮影画像より前に取得された撮影画像の特徴点に対応する前記一の撮影画像
    中の点である第2特徴点を判定する判定手段と、
    前記第2特徴点を中心とする評価領域に前記第1特徴点が含まれる場合に、該第1特
    徴点を前記オプティカルフローの導出対象から除外する除外手段と、
    を備え、
    前記パラメータは、前記評価領域のサイズを含むことを特徴とする物体検出装置。
  5. 請求項1ないし4のいずれかに記載の物体検出装置において、
    前記特徴点の抽出前の前記撮影画像を平滑化する平滑化手段、
    を備え、
    前記パラメータは、前記平滑化の強度を含むことを特徴とする物体検出装置。
  6. 請求項1ないし5のいずれかに記載の物体検出装置において、
    前記特徴点の抽出前の前記撮影画像を鮮鋭化する鮮鋭化手段、
    を備え、
    前記パラメータは、前記鮮鋭化の強度を含むことを特徴とする物体検出装置。
  7. 車両の周辺の物体を検出する物体検出システムであって、
    前記車両の周辺を撮影するカメラと、
    前記カメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する導出手段と、
    前記オプティカルフローに基づいて物体を検出する検出手段と、
    前記車両の速度を取得する取得手段と、
    前記速度に応じて前記特徴点の数に関わるパラメータを設定する設定手段と、
    を備え
    前記設定手段は前記速度が低いほど前記特徴点の数が多くなるように前記パラメータを設定することを特徴とする物体検出システム。
  8. 車両の周辺の物体を検出する物体検出方法であって、
    (a)前記車両の周辺を撮影するカメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する工程と、
    (b)前記オプティカルフローに基づいて物体を検出する工程と、
    (c)前記車両の速度を取得する工程と、
    (d)前記速度に応じて前記特徴点の数に関わるパラメータを設定する工程と、
    を備え
    前記工程(d)は前記速度が低いほど前記特徴点の数が多くなるように前記パラメータを設定することを特徴とする物体検出方法。
  9. 車両において用いられるコンピュータによって実行可能なプログラムであって、
    前記コンピュータに、
    (a)前記車両の周辺を撮影するカメラで周期的に得られる撮影画像の特徴点に基づいてオプティカルフローを導出する工程と、
    (b)前記オプティカルフローに基づいて物体を検出する工程と、
    (c)前記車両の速度を取得する工程と、
    (d)前記速度に応じて前記特徴点の数に関わるパラメータを設定する工程と、
    を実行させ
    前記工程(d)は前記速度が低いほど前記特徴点の数が多くなるように前記パラメータを設定することを特徴とするプログラム。
JP2014255884A 2014-12-18 2014-12-18 物体検出装置、物体検出システム、物体検出方法及びプログラム Active JP6532229B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014255884A JP6532229B2 (ja) 2014-12-18 2014-12-18 物体検出装置、物体検出システム、物体検出方法及びプログラム
US14/886,561 US9789820B2 (en) 2014-12-18 2015-10-19 Object detection apparatus
CN201510755903.5A CN105711498B (zh) 2014-12-18 2015-11-09 物体检测装置、物体检测系统、物体检测方法以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014255884A JP6532229B2 (ja) 2014-12-18 2014-12-18 物体検出装置、物体検出システム、物体検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016115305A JP2016115305A (ja) 2016-06-23
JP6532229B2 true JP6532229B2 (ja) 2019-06-19

Family

ID=56129804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014255884A Active JP6532229B2 (ja) 2014-12-18 2014-12-18 物体検出装置、物体検出システム、物体検出方法及びプログラム

Country Status (3)

Country Link
US (1) US9789820B2 (ja)
JP (1) JP6532229B2 (ja)
CN (1) CN105711498B (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112014006876T5 (de) * 2014-08-21 2017-05-18 Mitsubishi Electric Corporation Fahrassistenzvorrichtung, Fahrassistenzverfahren und Programm
US9718405B1 (en) * 2015-03-23 2017-08-01 Rosco, Inc. Collision avoidance and/or pedestrian detection system
JP6584862B2 (ja) * 2015-08-20 2019-10-02 株式会社デンソーテン 物体検出装置、物体検出システム、物体検出方法及びプログラム
CN108140309B (zh) 2015-11-20 2020-12-08 三菱电机株式会社 驾驶辅助装置、驾驶辅助系统以及驾驶辅助方法
EP3173979A1 (en) 2015-11-30 2017-05-31 Delphi Technologies, Inc. Method for identification of characteristic points of a calibration pattern within a set of candidate points in an image of the calibration pattern
EP3174007A1 (en) 2015-11-30 2017-05-31 Delphi Technologies, Inc. Method for calibrating the orientation of a camera mounted to a vehicle
JP6541590B2 (ja) * 2016-02-03 2019-07-10 クラリオン株式会社 カメラキャリブレーション装置
JP6649914B2 (ja) * 2017-04-20 2020-02-19 株式会社Subaru 画像表示装置
US10497265B2 (en) * 2017-05-18 2019-12-03 Panasonic Intellectual Property Corporation Of America Vehicle system, method of processing vehicle information, recording medium storing a program, traffic system, infrastructure system, and method of processing infrastructure information
CN109086650B (zh) * 2017-06-14 2022-04-12 现代摩比斯株式会社 校准方法和校准设备
KR102519662B1 (ko) 2017-07-31 2023-04-07 삼성전자주식회사 영상 획득 방법 및 영상 획득 장치
CN107507224B (zh) * 2017-08-22 2020-04-24 明见(厦门)技术有限公司 运动物体检测方法、装置、介质及计算设备
EP3534333A1 (en) * 2018-02-28 2019-09-04 Aptiv Technologies Limited Method for calibrating the position and orientation of a camera relative to a calibration pattern
EP3534334B1 (en) 2018-02-28 2022-04-13 Aptiv Technologies Limited Method for identification of characteristic points of a calibration pattern within a set of candidate points derived from an image of the calibration pattern
EP3827374A4 (en) * 2018-07-24 2021-09-15 Magic Leap, Inc. CORNER DETECTION METHODS AND APPARATUS
CN109727273B (zh) * 2018-12-29 2020-12-04 北京茵沃汽车科技有限公司 一种基于车载鱼眼相机的移动目标检测方法
JP7279755B2 (ja) * 2019-08-22 2023-05-23 日本電気株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム
JP7236556B2 (ja) * 2019-10-14 2023-03-09 株式会社デンソー 物体検知装置および物体検知プログラム
JP2021157251A (ja) * 2020-03-25 2021-10-07 株式会社Soken 情報統合装置
JP2023125635A (ja) * 2022-02-28 2023-09-07 パナソニックIpマネジメント株式会社 特徴点登録装置、特徴点登録方法および画像処理システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3371613B2 (ja) 1994-07-14 2003-01-27 トヨタ自動車株式会社 移動物体検出方法
US5764283A (en) * 1995-12-29 1998-06-09 Lucent Technologies Inc. Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths
JP4228212B2 (ja) * 2003-10-17 2009-02-25 三菱自動車工業株式会社 ノーズビューモニタ装置
JP4052650B2 (ja) * 2004-01-23 2008-02-27 株式会社東芝 障害物検出装置、方法及びプログラム
DE102005013920B4 (de) * 2004-03-26 2007-12-13 Mitsubishi Jidosha Kogyo K.K. Frontsicht-Überwachungsvorrichtung
JP4120638B2 (ja) 2004-12-20 2008-07-16 日産自動車株式会社 画像処理装置、および方法
JP2008276308A (ja) * 2007-04-25 2008-11-13 Sanyo Electric Co Ltd 動画像処理装置、動画像処理システムおよびナビゲーション装置
JP5483535B2 (ja) * 2009-08-04 2014-05-07 アイシン精機株式会社 車両周辺認知支援装置
JP5812598B2 (ja) * 2010-12-06 2015-11-17 富士通テン株式会社 物体検出装置
JP5830876B2 (ja) * 2011-02-18 2015-12-09 富士通株式会社 距離算出プログラム、距離算出方法及び距離算出装置
BR112014001824B1 (pt) * 2011-08-02 2021-04-20 Nissan Motor Co., Ltd dispositivo e método de detecção de objeto sólido
MX2014001500A (es) * 2011-09-12 2014-05-12 Nissan Motor Dispositivo de deteccion de objeto tridimensional.
JP5935435B2 (ja) * 2012-03-26 2016-06-15 富士通株式会社 画像処理装置、画像処理方法
JP5944781B2 (ja) * 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ 移動体認識システム、移動体認識プログラム、及び移動体認識方法
DE102013114996A1 (de) * 2013-01-07 2014-07-10 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Bildsuperauflösung für dynamischen Rückspiegel
US9336574B2 (en) * 2013-01-07 2016-05-10 GM Global Technology Operations LLC Image super-resolution for dynamic rearview mirror
JP6084048B2 (ja) 2013-01-28 2017-02-22 富士通テン株式会社 物体検出装置、物体検出システム及び物体検出方法
US10909845B2 (en) * 2013-07-01 2021-02-02 Conduent Business Services, Llc System and method for enhancing images and video frames
CN109884618B (zh) * 2014-02-20 2023-05-26 御眼视觉技术有限公司 车辆的导航系统、包括导航系统的车辆和导航车辆的方法
BR112016019589B1 (pt) * 2014-02-24 2022-06-14 Nissan Motor Co. Ltd Dispositivo de cálculo de autolocalização e método de cálculo de autolocalização
CN104077757B (zh) * 2014-06-09 2017-05-10 中山大学 一种融合实时交通状态信息的道路背景提取与更新方法
US9754192B2 (en) * 2014-06-30 2017-09-05 Microsoft Technology Licensing, Llc Object detection utilizing geometric information fused with image data
JP6340969B2 (ja) * 2014-07-14 2018-06-13 アイシン精機株式会社 周辺監視装置、及びプログラム
JP6234349B2 (ja) * 2014-09-16 2017-11-22 株式会社東芝 移動体位置推定装置、移動体位置推定方法及び移動体位置推定プログラム

Also Published As

Publication number Publication date
JP2016115305A (ja) 2016-06-23
US20160180176A1 (en) 2016-06-23
US9789820B2 (en) 2017-10-17
CN105711498B (zh) 2018-12-07
CN105711498A (zh) 2016-06-29

Similar Documents

Publication Publication Date Title
JP6532229B2 (ja) 物体検出装置、物体検出システム、物体検出方法及びプログラム
US10509973B2 (en) Onboard environment recognition device
JP5421072B2 (ja) 接近物体検知システム
JP5792091B2 (ja) 物体検出装置及び物体検出方法
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
US20110234761A1 (en) Three-dimensional object emergence detection device
JP6084048B2 (ja) 物体検出装置、物体検出システム及び物体検出方法
JP7270499B2 (ja) 異常検出装置、異常検出方法、姿勢推定装置、および、移動体制御システム
WO2018211930A1 (ja) 物体検出装置、物体検出方法、及び、コンピュータが読取可能な記録媒体
JP6065629B2 (ja) 物体検知装置
WO2019068699A1 (en) METHOD FOR CLASSIFYING AN OBJECT POINT AS STATIC OR DYNAMIC, DRIVER ASSISTANCE SYSTEM, AND MOTOR VEHICLE
US9827906B2 (en) Image processing apparatus
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP6088944B2 (ja) 作業機械の周囲監視装置
JP6178580B2 (ja) 物体検出装置、物体検出システム及び物体検出方法
US10019636B2 (en) Object detection apparatus
JP5541099B2 (ja) 道路区画線認識装置
EP3889946A1 (en) External environment recognition device
JP6174884B2 (ja) 車外環境認識装置および車外環境認識方法
JP6189729B2 (ja) 物体検出装置、物体検出システム、物体検出方法及びプログラム
KR101628931B1 (ko) 차량용 블랙박스의 화각 제어 장치 및 방법
JP2023052713A (ja) 撮像装置、撮像システム及び撮像方法
US10999488B2 (en) Control device, imaging device, and control method
JP6868996B2 (ja) 障害物検知システム及び建設機械
JP2017084019A (ja) 対象物検出装置、対象物検出方法、及び、対象物検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190521

R150 Certificate of patent or registration of utility model

Ref document number: 6532229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250