JP6440411B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP6440411B2
JP6440411B2 JP2014171960A JP2014171960A JP6440411B2 JP 6440411 B2 JP6440411 B2 JP 6440411B2 JP 2014171960 A JP2014171960 A JP 2014171960A JP 2014171960 A JP2014171960 A JP 2014171960A JP 6440411 B2 JP6440411 B2 JP 6440411B2
Authority
JP
Japan
Prior art keywords
image
object detection
parallax
far
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014171960A
Other languages
English (en)
Other versions
JP2016045891A (ja
Inventor
晋司 掛川
晋司 掛川
健 志磨
健 志磨
裕史 大塚
裕史 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2014171960A priority Critical patent/JP6440411B2/ja
Priority to US15/500,814 priority patent/US10140526B2/en
Priority to PCT/JP2015/071899 priority patent/WO2016031494A1/ja
Priority to EP15835840.8A priority patent/EP3188118B1/en
Publication of JP2016045891A publication Critical patent/JP2016045891A/ja
Application granted granted Critical
Publication of JP6440411B2 publication Critical patent/JP6440411B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/25Road altitude
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本発明は、画像に基づいて物体を検出する物体検出装置に関する。
各種センサを用いた車載向けの運転支援装置の開発が世界的に進められている。運転支援装置は、例えば緊急時に自動ブレーキをかけるAEB(自動緊急ブレーキ)の機能や、先行車両にあわせて自動で速度を調整するACC(アダプティブクルーズコントロール)の機能などを提供することができる。AEBやACCなどの機能を提供するには、自車両の前方に存在する先行車両や障害物などの物体を検出することが必要である。
このような物体の検出に用いられる物体検出装置として、距離画像の各画素毎の二次元座標位置データと、各画素毎の基準位置からの距離データとに基づき、距離画像の各画素毎に、3次元座標系における3次元座標位置データを演算して、面及び検出対象物体に対応する画素の3次元分布を生成するものが知られている(例えば、下記特許文献1参照)。
また、レーザレーダで計測した3次元距離データ点群を蓄積したグリッドマップを生成して路面と立体物を判定する立体物検出装置が知られている(例えば、下記特許文献2参照)。この装置は、3次元距離情報を、立体物を示す3次元情報である立体物情報と、平面を示す3次元情報である平面情報とに分割し、立体物情報、及び注目する立体物周辺の所定領域に対応する平面情報に基づいて、立体物が平面に接する接地点位置を抽出する。そして、距離情報と接地点位置とに基づいて、画像内における立体物の探索範囲を決定する。
特開平10−143659号公報 特開2013−140515号公報
物体検出装置においては、機敏かつ信頼性の高い運転支援を実現するために、近傍から遠方にわたって正確かつ迅速に物体を検出することが求められる。また、物体を検出して制御を実施する動作を迅速に行うために、検出にかかる処理時間を可能な限り短縮することも求められる。
しかしながら、特許文献1に記載された物体検出装置では、距離画像に基づいて面を検出し、面に対応する画素群から、この面を基準とする所定の高さ以上の画素群である検出対象物体として検出するため、画素の少ない遠方の物体に対する誤検出や未検出が頻発する虞がある。
また、特許文献2に記載された立体物検出装置では、路面上に存在する立体物認識の誤検出を低減できるとされているが、路面に存在する立体物を検出するために、事前に距離データを立体物と路面に分割しておく必要がある。このような距離データの分割は、距離データが減少する遠方の領域においては困難になる。
本発明は、前記課題に鑑みてなされたものであり、遠方においても正確に物体を検出し、かつ処理時間を短縮可能な物体検出装置を提供することを目的とする。
前記の目的を達成するために、本発明の物体検出装置は、2つのカメラの画像に基づいて車両前方の物体を検出する物体検出装置であって、前記2つのカメラの各画像を照合して画素毎に視差を算出する視差取得部と、前記2つのカメラの一方の単画像において、前記車両から近い近傍領域と前記車両から遠い遠方領域との間の境界を設定する遠近境界設定部と、前記視差に基づいて前記近傍領域の物体を検出する近傍物体検出部と、前記単画像に基づいて前記遠方領域の物体を検出する遠方物体検出部と、を備えることを特徴とする。
本発明の物体検出装置によれば、遠方物体検出部が2つのカメラの一方の単画像に基づいて遠方領域の物体を検出することで、遠方においても正確に物体を検出することができ、かつ近傍物体検出部が2つのカメラの視差に基づいて近傍領域の物体を検出することで、近傍の物体を正確に検出することができるだけでなく、データ処理量を減少させて処理時間を短縮することができる。
本発明の実施形態に係る物体検出装置を示すシステム概要図。 図1に示す路面推定部の概略構成を示すブロック図。 (a)及び(b)は、路面推定部による処理を説明する画像図。 (a)は路面推定部による処理を説明する画像図、(b)はV-Disparity画像。 (a)は路面推定部による処理を説明する画像図、(b)はV-Disparity画像。 (a)は遠方物体検出部による処理を説明する画像図、(b)はV-Disparity画像。 (a)及び(b)は、遠近物体統合部による処理を説明する画像図。
以下、図面を参照して本発明の物体検出装置の実施の形態について説明する。
図1は、本実施形態に係る物体検出装置及びその周辺の概略構成を示すシステム概要図である。
本実施形態の物体検出装置100は、2つのカメラの画像に基づいて車両110前方の物体を検出する装置であり、例えば、車両110に搭載されたステレオカメラ装置111によって構成されている。ステレオカメラ装置111は、車両110の前方を撮影し、画像処理によって車両110の前方の路面101を検出すると共に、車両110の近傍の先行車両102及び遠方の先行車両103、その他車両以外の障害物、例えばガードレール104等を検出する装置である。車両110は、ステレオカメラ装置111と、走行制御部122と、を備えている。
ステレオカメラ装置111は、例えば、左カメラ112及び右カメラ113の2つのカメラ、左画像取得部114及び右画像取得部115、視差画像取得部(視差取得部)116、路面高さ推定部(路面推定部)117、遠近境界距離設定部(遠近境界設定部)118、近傍物体検出部119及び遠方物体検出部120、並びに、遠近物体統合部121を備えている。
左カメラ112及び右カメラ113は、車両110の車幅方向に互いに離間した位置に設置され、車両110の前方を撮像する一対の撮像手段であり、それぞれ光を電荷信号に変換するCCD等の撮像素子を有している。左画像取得部114は、左カメラ112から一定周期ごとに電荷信号を取得して左画像を出力する。右画像取得部115は、上記の一定周期と同期したタイミングで右カメラ113から電荷信号を取得して右画像を出力する。
視差画像取得部116は、2つのカメラの各画像、すなわち左画像取得部114から出力された左画像と、右画像取得部115から出力された右画像とを取得して照合することで、右画像の画素毎に視差を算出し、画素毎に視差が格納された視差画像を出力する。ここで、視差とは、左カメラ112と右カメラ113との間の車幅方向の距離に基づく左右の画像のずれを表しており、三角測量の原理によって距離に変換することのできる量である。以下では、簡単のため、視差画像に格納された各画素の視差を距離データと呼ぶ。
路面高さ推定部117は、視差画像取得部116から出力された視差画像に基づいて、路面101の位置を検出および推定し、路面101の高さ位置および路面101の最遠方距離を出力する。ここで、路面101の高さ位置とはある基準となる地平面からの高さであり、奥行き方向の距離毎に対応する路面101の高さ位置が出力されるようになっている。また、路面101の最遠方距離とは、路面高さ推定部117によって検出された路面101の距離のうち、車両110から最も遠い距離を指す。
遠近境界距離設定部118は、路面高さ推定部117から出力された路面101の最遠方距離を取得し、その最遠方距離を車両110の近傍の領域と遠方の領域との間の境界となる遠近境界距離として設定し、出力する。すなわち、遠近境界距離設定部118は、2つのカメラの一方の単画像、例えば右カメラ113の右画像において、車両110から近い近傍領域R1と車両110から遠い遠方領域R2との間の境界Rbを設定する。
近傍物体検出部119は、視差画像取得部116が算出した視差に基づいて、近傍領域R1の物体を検出する。より具体的には、近傍物体検出部119は、右画像の近傍領域R1の画素毎に算出した視差が各画素に格納された視差画像を用い、視差画像の各画素の視差である距離データが、奥行方向及び横方向に連続した一群の距離データを、視差画像から抽出することで、近傍領域R1の物体を検出する。
換言すると、近傍物体検出部119は、視差画像取得部116から出力された視差画像と、遠近境界距離設定部118から出力された遠近境界距離と、に基づいて、車両110の近傍領域R1において、奥行き方向および横方向に連続した距離データのかたまりを視差画像から抽出することによって、近傍領域R1の先行車両102及びガードレール104等の障害物を検出し、検出結果を出力する。
遠方物体検出部120は、例えば右カメラ113の右画像に基づいて、遠方領域R2の物体を検出する。より具体的には、遠方物体検出部120は、右カメラ113から出力された右画像と、遠近境界距離設定部118から出力された遠近境界距離である境界Rbに基づいて、車両110から離れた遠方の領域において、画像を用いたパタンマッチングを実施する。これにより、遠方物体検出部120は、遠方の先行車両103を検出し、検出結果を出力する。
遠近物体統合部121は、近傍物体検出部119から出力された検出結果と、遠方物体検出部120から出力された検出結果とに基づいて、車両110の近傍から遠方にわたる物体の検出結果を出力する。具体的には、遠近物体統合部121は、車両110に近い近傍領域R1の先行車両102及び障害物の検出結果と、車両110から遠い遠方領域R2の先行車両103の検出結果とに基づいて、幾何学的位置関係に矛盾が生じないように、近傍領域R1の物体と遠方領域R2の物体の検出結果を統合し、結果を出力する。
走行制御部122は、ステレオカメラ装置111の遠近物体統合部121から出力された先行車両102,103やガードレール104等の障害物の検出結果に基づいて、アクセル及びブレーキ等を制御する。これにより、走行制御部122は、例えば、車両110が先行車両102,103やガードレール104等との衝突を回避したり、車両110を先行車両102,103に自動追尾させたりする、車両110の走行支援を行う。
図2は、路面高さ推定部117の概略構成を示すブロック図である。
路面高さ推定部117は、例えば、道路形状設定部201と、仮想平面設定部202と、直線検出部203と、最遠方距離検出部(境界画素位置検出部)204と、を備えている。
道路形状設定部201は、車両110が走行中の道路形状を設定し、設定した道路形状を画像上に投影した道路の画像領域を算出し、出力する。仮想平面設定部202は、道路形状設定部201から出力された道路の画像領域内に入る距離データ、すなわち各画素に対応する視差と各画素の座標位置のデータを、2次元の仮想平面にヒストグラムとして投影し、V-Disparity画像を出力する。ここで、仮想平面設定部202が距離データを投影する仮想平面は、縦方向の画素の座標位置Vを縦軸にとり、視差(Disparity)を横軸にとった2次元空間である。また、V-Disparity画像とは、グリッド化された仮想平面の画素毎にデータ点の合計数を示すヒストグラム度数が格納されている画像である。
直線検出部203は、仮想平面設定部202から出力されたV-Disparity画像を取得し、V-Disparity画像のヒストグラム度数が高い画素を通過する直線を検出し、この直線をもとに路面高さ位置を算出する。最遠方距離検出部204は、直線検出部203による路面推定結果をもとに路面推定結果が信頼可能である最遠方の路面101の距離を検出し、出力する。
図3(a)及び(b)は、道路形状設定部201による処理を説明する画像図である。
道路形状設定部201は、図3(a)に示すように、右画像301において道路である可能性が高い領域として、例えば、台形領域302のような領域を、道路形状として設定する。台形領域302は、直進方向にまっすぐ伸びる一定幅で一定勾配の路面を仮定した場合に、路面が画像上に投影される位置を算出することによって得ることができる。このように、直進方向に伸びる道路形状を仮定した場合において、道路形状が実際にはカーブしていた場合には、設定した道路形状と実際の道路形状にずれが生じてしまう問題がある。
この場合、道路形状設定部201は、図3(b)に示すように、逐次道路のカーブ方向を推定し、カーブ方向に伸びる一定幅で一定勾配の路面を推定し、推定した路面が画像上に投影される位置を算出することが好ましい。これにより、例えば、カーブ領域303のようなカーブした領域を、道路形状として設定することができる。道路のカーブ方向は、画像情報をもとに白線を検知するか、又は距離情報をもとに路肩を検出すること等によって推定することが可能である。
図4(a)は、仮想平面設定部202による処理を説明する右カメラ113の右画像301である。図4(b)は、右画像301に対応した視差画像の各距離データを仮想平面に投影することによって得られたV-Disparity画像である。
図4(a)に示す車両110の近傍の領域における平坦な路面400と、車両110の遠方の領域における登り勾配の路面401とは、それぞれ、図4(b)に示すV-Disparity画像上において、第1の方向402と第2の方向403のように、勾配の異なる斜め方向の直線状に投影される性質がある。また、先行車両102,103などの障害物は、それぞれ実線で囲まれた領域404,405のデータのように、垂直方向の直線状に投影される性質がある。
路面高さ推定部117においては、領域404,405に示すような垂直方向の直線状の障害物の距離データはノイズとなる。したがって、路面高さ推定部117において、このようなノイズの影響をうけることなく、路面400の距離データの第1の方向402及び第2の方向403に沿う直線を表現する関係式を算出する。
図5(a)は、直線検出部203及び最遠方距離検出部204による処理を説明する右カメラ113の右画像301である。図5(b)は、直線検出部203及び最遠方距離検出部204の処理を説明するV-Disparity画像である。
直線検出部203は、例えば、まずV-Disparity画像を一定の閾値で2値化した画像に変換し、ハフ変換により直線を検出することで、図5(b)に示すように、V-Disparity画像において最も支配的な直線501を検出する。直線501は、推定された路面が画像上に投影される縦位置と視差との関係を示している。直線検出部203は、この縦位置と視差との関係を、3次元空間中の奥行き方向の距離と路面高さ位置の関係に変換し、距離毎の路面高さ位置を出力する。
また、図5(a)に示す例では、車両110の近傍の領域における路面502に対して、車両110の遠方の領域における路面503の勾配が変化している。そのため、図5(b)に示すV-Disparity画像上で検出された直線501は、車両110の近傍の領域504では、よく路面の距離データとフィットしている。しかし、直線501は、車両110の遠方の領域505では、実際の路面の距離データの位置とずれを生じており、路面推定結果の信頼性が低いことがわかる。
最遠方距離検出部204は、車両110の近傍の領域において、路面推定結果が信頼可能である路面502の最遠方の距離を検出して出力する。このために、最遠方距離検出部204は、車両110の近傍側から順に直線検出部203の検出した直線501が通過する各画素のヒストグラム度数を確認し、ヒストグラム度数が一定以下になる画素が一定個数以上連続するときの最初の画素位置を境界画素位置506として検出する。
すなわち、境界画素位置検出部である最遠方距離検出部204は、V-Disparity画像における直線501と距離データの位置とのずれに基づいて、境界画素位置506を検出する。最遠方距離検出部204は、この境界画素位置506における視差を距離に変換することによって、車両110の近傍領域R1における路面502の最遠方の距離を算出する。
このように、最遠方距離である境界画素位置506よりも車両110に近い路面502の範囲は、路面推定結果すなわち路面502までの距離の信頼性が高い、車両110の近傍領域R1とみなすことができる。また、最遠方距離である境界画素位置506よりも車両110から遠い路面503の範囲は、路面推定結果すなわち路面503までの距離の信頼性が低い、車両110の遠方領域R2とみなすことができる。
以上により、路面高さ推定部117は、視差画像取得部116が算出した視差に基づいて、車両110前方の路面502,503までの距離を算出し、路面502までの距離の信頼性が高い領域504と、路面503までの距離の信頼性が低い領域505との間の境界画素位置506を検出する。また、遠近境界距離設定部118は、境界画素位置506に基づいて近傍領域R1と遠方領域R2との間の境界Rbを設定する。
図6(a)は、遠方物体検出部120による処理を説明する右カメラ113の右画像である。図6(b)は、遠方物体検出部120による処理を説明するV-Disparity画像である。
遠方物体検出部120は、右カメラ113から出力された図6(a)に示す右画像と、最遠方距離検出部204から出力された遠近境界距離を示す境界画素位置506と、道路形状設定部201から出力された道路形状の画像領域である台形領域302を取得する。そして、遠方物体検出部120は、右画像上の遠方領域R2に先行車両の探索範囲601を設定する。
遠方物体検出部120は、右カメラ113の右画像の境界Rbにおける画素の縦方向の座標位置とV-Disparity画像の境界画素位置506との間の推定誤差αを用い、探索範囲601の縦方向の一端を境界画素位置506と推定誤差αとの和となる位置に設定する。すなわち、遠方物体検出部120は、探索範囲601の下端位置が、図6(b)に示す路面推定結果の直線501の境界画素位置506における画像縦位置Veと推定誤差αとの和Ve+αとなるように設定する。
ここで、推定誤差αは、路面推定結果の境界画素位置506において想定される路面の画像縦位置の推定誤差を事前に設定した値である。なお、推定誤差αは、路面502が比較的平坦な高速道路において比較的小さく、路面502の勾配が多い一般道で比較的大きくなる傾向がある。したがって、車両110の走行状況に応じて、推定誤差αを逐次計算して変更するようにしてもよい。
遠方物体検出部120は、右カメラ113の右画像の境界Rbにおいて想定される最大高さの物体の画像縦幅Hを用い、探索範囲601の縦方向の他端を境界画素位置506から画像縦幅Hと推定誤差αを減じた位置に設定する。すなわち、遠方物体検出部120は、探索範囲601の上端位置が、境界画素位置506における画像縦位置Veから上述の値αと画像縦幅Hを減じたVe−H−αとなるように設定する。ここで、画像縦幅Hは、境界画素位置506において想定される最大の車高を有する車両が画像上に投影されるときの画像縦幅である。
遠方物体検出部120は、探索範囲601の左右端の位置を、境界画素位置506における道路形状の画像領域である台形領域302の左右端の位置に設定する。このようにして、遠方物体検出部120は、探索範囲601を、境界画素位置506以遠の車両が存在する可能性のある画像範囲に設定する。
次に、遠方物体検出部120は、テンプレート602を探索範囲601の中で走査し、パタンマッチングを実施することによって、車両110から離れた遠方領域R2において、先行車両103を検出する。遠方物体検出部120は、パタンマッチングにおいて、先行車両103の画像の特徴を事前に学習しておき、その学習した特徴量とテンプレート602の画像の特徴量を比較する。そして、遠方物体検出部120は、特徴量の差が一定以下であれば車両らしいと判定し、そのテンプレートの位置において先行車両103を検出する。
対象の先行車両103が存在する距離によって先行車両103が投影される画像上のサイズは異なる。そのため、遠方物体検出部120は、大きさの異なる複数のテンプレート602を用い、大きさの異なるテンプレート602の数だけ上記の探索による先行車両の検出処理を繰り返し実施する。このように、遠方物体検出部120は、車両110から離れた遠方領域R2においてのみ、右カメラ113から出力されたカメラ画像を用いた物体検出処理を実施する。
図7(a)及び(b)は、遠近物体統合部121による処理を説明する右カメラ113の右画像である。
図7(a)に示すように、近傍物体検出部119によって先行車両102等の近傍物体の検出結果701が得られ、遠方物体検出部120によって先行車両103等の遠方物体の検出結果702,703が得られた場合に、遠近物体統合部121は、近傍物体および遠方物体の位置関係をチェックする。そして、遠近物体統合部121は、検出結果702,703のように、画像上で互いに重なっている検出物体について、距離が遠い方の物体を消去する。
図7(a)に示す例では、遠近物体統合部121は、画像上で互いに重なっている検出結果702,703のうち、距離が遠い方の検出結果703を消去する。その結果、遠近物体統合部121は、図7(b)に示すように、検出結果701,702を遠近物体として出力する。なお、遠近物体統合部121は、車両110の近傍の領域における検出結果と、車両110の遠方の領域における検出結果とが、画像上で互いに重なっている場合にも、距離が遠い方の検出結果を消去する。このように、検出結果である物体領域が画像上で重なっている場合において、距離が遠い物体を消去する理由は、距離の遠い側の物体は距離の近い側の物体によって遮蔽されて見えないはずであり、誤検出の可能性が高いためである。
以下、本実施形態の物体検出装置100の作用について説明する。
前記したように、例えば、前記特許文献1に記載された従来の物体検出装置では、距離画像に基づいて面を検出し、面に対応する画素群から、この面を基準とする所定の高さ以上の画素群である検出対象物体として検出するため、画素の少ない遠方の物体に対する誤検出や未検出が頻発する虞がある。これは、遠方の領域ではセンサから得られる情報量が、近傍の領域よりも少なくなっており、距離データの個数がわずかしか得られないことに加えて、センサから得られる距離の精度が低下するためである。
このように、路面データの個数がわずかしか得られず、距離の精度が低下すると、遠方における物体の距離データと路面の距離データとの分離が困難となり、遠方領域において推定する路面の位置誤差が大きくなり、物体の誤検知や未検知が生じてしまう。例えば、路面の位置を実際より下側に推定することによって、路面の領域を物体として検出する(誤検出)現象や、路面の位置を実際より上側に推定することによって、路面上に物体が存在するのに検出しない(未検出)現象が生じてしまう。
また、特許文献2に記載された従来の立体物検出装置では、路面上に存在する立体物認識の誤検出を低減できるとされているが、路面に存在する立体物を検出するために、事前に距離データを立体物と路面に分割しておく必要がある。このような距離データの分割は、距離データが減少する遠方の領域においては困難になる。遠方領域において立体物を正しく立体物として分割できなかった場合、物体の未検出を防ぐことができないことが懸念される。
さらに、画像を探索して画像特徴量を比較評価する場合、画像サイズおよび画像の探索範囲が十分小さく絞れていない場合は、特許文献1のように距離データから物体を検出するのに比べて、処理時間が長くなってしまう傾向がある。とくに、近傍領域においては物体の画像サイズが大きくなり、画像上を探索する際の画像探索範囲も広くなるため、処理時間が特許文献1の方法に比べて大幅に長くなることが懸念される。
これに対し、本実施形態の物体検出装置100は、左右2つのカメラ112,113の各画像を照合して画素毎に視差を算出する視差画像取得部(視差取得部)116だけでなく、遠近境界距離設定部(遠近境界設定部)118を備えている。そして、この遠近境界距離設定部118によって、左右2つのカメラの一方の右カメラ113の単画像である右画像において車両110から近い近傍領域R1と車両110から遠い遠方領域R2との間の境界Rbを設定する。そして、近傍物体検出部119によって視差に基づいて近傍領域R1の物体を検出するとともに、遠方物体検出部120によって右画像に基づいて遠方領域R2の物体を検出している。
これにより、物体検出装置100は、距離データによる物体の検出が困難な画素の少ない遠方領域R2の物体を、距離データによらず右カメラ113の右画像に基づいて正確に検出することができる。したがって、本実施形態の物体検出装置100によれば、遠方領域R2における物体の誤検出や未検出の発生を抑制し、車両110の遠方においても正確に物体を検出することができる。また、視差に基づく距離データから物体を検出する際の処理対象を近傍領域R1に絞ることができ、データ処理量を減少させ、処理時間を短縮することができる。
また、本実施形態の物体検出装置100は、視差に基づいて車両110前方の路面までの距離を算出し、該距離の信頼性が高い領域と、該距離の信頼性が低い領域との間の境界画素位置506を検出する路面高さ推定部(路面推定部)117をさらに備えている。加えて、本実施形態の物体検出装置100は、遠近境界距離設定部(遠近境界設定部)118が、境界画素位置506に基づいて境界Rbを設定している。これにより、近傍領域R1における距離データの信頼性を高くし、近傍領域R1における物体の検出精度を向上させることができる。
また、路面高さ推定部117は、仮想平面設定部202と、直線検出部203と、最遠方距離検出部(境界画素位置検出部)204とを備えている。仮想平面設定部202は、前記したV-Disparity画像を出力し、直線検出部203は、V-Disparity画像において最も支配的な直線501を検出する。そして、最遠方距離検出部204は、V-Disparity画像における直線501と距離データの位置とのずれに基づいて、境界画素位置506を検出している。これにより、路面高さ推定部117によって、路面までの距離の信頼性が高い領域504と、該距離の信頼性が低い領域505との間の境界画素位置506を検出することができる。
また、遠方物体検出部120は、右画像上の遠方領域R2に探索範囲601を設定し、該探索範囲601内でテンプレート602を走査させ、パタンマッチングによって遠方領域R2の物体を検出する。これにより、遠方領域R2において、距離データによらず、右画像に基づいて正確に物体を検出することができる。
また、遠方物体検出部120は、右画像の境界Rbにおける画素の縦方向の座標位置とV-Disparity画像の境界画素位置506との間の推定誤差αを用い、探索範囲601の縦方向の下端を境界画素位置506と推定誤差αとの和となる位置に設定している。これにより、推定誤差αを考慮したより適切な範囲に探索範囲601を設定することができる。
また、遠方物体検出部120は、右画像の境界Rbにおいて想定される最大高さの物体の画像縦幅Hを用い、探索範囲601の縦方向の上端を境界画素位置506から画像縦幅Hと推定誤差αを減じた位置に設定している。これにより、推定誤差α及び画像縦幅Hを考慮したより適切な範囲に探索範囲601を設定することができる。
また、本実施形態の物体検出装置100は、右画像を用いて車両110前方の道路形状を設定する道路形状設定部201を備えている。そして、遠方物体検出部120は、探索範囲601の左右端の位置を道路形状の画像領域の左右端の位置に設定している。これにより、探索範囲601をさらに絞り込み、処理時間を短縮することができる。
また、遠方物体検出部120は、大きさの異なる複数のテンプレート602を用いて繰り返し探索範囲601を走査している。これにより、遠方領域R2内で車両110に近い先行車両から、車両110から遠い先行車両まで、漏れなく検出することができる。
また、本実施形態の物体検出装置100は、右画像上に表示された互いに重なっている物体の検出結果702,703のうち、距離が遠い方の物体の検出結果703を消去する遠近物体統合部121を備えている。これにより、誤検出によって検出された可能性の高い検出結果703を消去し、誤検出を低減することができる。
また、近傍物体検出部119は、右画像の近傍領域R1の画素毎に算出した視差が各画素に格納された視差画像を用い、視差画像の各画素の視差である距離データが、奥行方向及び横方向に連続した一群の距離データを、視差画像から抽出することで、近傍領域R1の物体を検出している。これにより、近傍物体検出部119は、視差に基づいて近傍領域R1の物体を正確に検出することができる。
以上、図面を用いて本発明の実施の形態を詳述してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲における設計変更等があっても、それらは本発明に含まれるものである。
例えば、前述の実施形態では、物体検出装置によって遠方の先行車両を検出する例を説明したが、本発明の物体検出装置は、先行車両の検出以外にも、歩行者や、その他の障害物を検出する場合にも適用できる。
また、前述の実施形態では、ステレオカメラ装置を使用する例を説明したが、ステレオカメラ以外にも、単眼カメラとレーザレーダ、単眼カメラとミリ波レーダ等、画像情報と距離情報がセンサ出力値として得られるセンサ構成にも適用できる。
また、前述の実施形態では、物体検出装置によって路面上に存在する先行車両を検出して走行制御を行う自動車向け運転支援装置の例について説明したが、本発明は、自動車向け運転支援装置以外にも、海上の障害物を検出する船舶向けの周辺監視装置および運転支援装置、又は地平面上の障害物を検出する航空機向けの周辺監視装置および運転支援装置などにも適用できる。
また、前術の実施形態では、車両から離れた遠方領域においては、カメラの右画像のみを用いて物体検出を行っているが、右画像又は左画像と視差画像を併用して物体を検出してもよい。
100 物体検出装置、101 路面、102,103 先行車両(物体)、104 ガードレール(物体)、110 車両、112 左カメラ(カメラ)、113 右カメラ(カメラ)、116 視差画像取得部(視差取得部)、117 路面高さ推定部(路面推定部)、118 遠近境界距離設定部(遠近境界設定部)、119 近傍物体検出部、120 遠方物体検出部、121 遠近物体統合部、122 走行制御部、201 道路形状設定部、202 仮想平面設定部、203 直線検出部、204 最遠方距離検出部(境界画素位置検出部)、302 台形領域(道路形状)、303 カーブ領域(道路形状)、400,401 路面、502,503 路面、504 距離の信頼性が高い領域、505 距離の信頼性が低い領域、506 境界画素位置、601 探索範囲、602 テンプレート、H 画像縦幅、R1 近傍領域、R2 遠方領域、Rb 境界、α 推定誤差

Claims (8)

  1. 2つのカメラの画像に基づいて車両前方の物体を検出する物体検出装置であって、
    前記2つのカメラの各画像を照合して画素毎に視差を算出する視差取得部と、
    前記2つのカメラの一方の単画像において、前記車両から近い近傍領域と前記車両から遠い遠方領域との間の境界を設定する遠近境界設定部と、
    前記視差に基づいて前記近傍領域の物体を検出する近傍物体検出部と、
    前記単画像に基づいて前記遠方領域の物体を検出する遠方物体検出部と
    前記視差に基づいて前記車両前方の路面までの距離を算出し、該距離の信頼性が高い領域と、該距離の信頼性が低い領域との間の境界画素位置を検出する路面推定部と、
    備え、
    前記遠近境界設定部は、前記境界画素位置に基づいて前記境界を設定し、
    前記路面推定部は、
    横軸を前記視差、縦軸を前記単画像の各画素の縦方向の座標位置とする仮想平面に、前記単画像の各画素に対応する前記視差及び前記座標位置のデータを投影したV-Disparity画像を出力する仮想平面設定部と、
    前記V-Disparity画像において最も支配的な直線を検出する直線検出部と、
    前記V-Disparity画像における前記直線と前記データの位置とのずれに基づいて、前記境界画素位置を検出する境界画素位置検出部と、
    を備えることを特徴とする物体検出装置。
  2. 前記遠方物体検出部は、前記単画像上の前記遠方領域に探索範囲を設定し、該探索範囲内でテンプレートを走査させ、パタンマッチングによって前記遠方領域の物体を検出することを特徴とする請求項に記載の物体検出装置。
  3. 前記遠方物体検出部は、前記単画像の前記境界における画素の縦方向の座標位置と前記V-Disparity画像の前記境界画素位置との間の推定誤差を用い、前記探索範囲の縦方向の一端を前記境界画素位置と前記推定誤差との和となる位置に設定することを特徴とする請求項に記載の物体検出装置。
  4. 前記遠方物体検出部は、前記単画像の前記境界において想定される最大高さの物体の画像縦幅を用い、前記探索範囲の縦方向の他端を前記境界画素位置から前記画像縦幅と前記推定誤差を減じた位置に設定することを特徴とする請求項に記載の物体検出装置。
  5. 前記単画像を用いて前記車両前方の道路形状を設定する道路形状設定部をさらに備え、
    前記遠方物体検出部は、前記探索範囲の左右端の位置を前記道路形状の画像領域の左右端の位置に設定することを特徴とする請求項に記載の物体検出装置。
  6. 前記遠方物体検出部は、大きさの異なる複数の前記テンプレートを用いて繰り返し前記探索範囲を走査することを特徴とする請求項に記載の物体検出装置。
  7. 前記単画像上に表示された互いに重なっている前記物体の検出結果のうち、距離が遠い方の物体の検出結果を消去する遠近物体統合部をさらに備えることを特徴とする請求項1に記載の物体検出装置。
  8. 前記近傍物体検出部は、前記単画像の前記近傍領域の画素毎に算出した視差が各画素に格納された視差画像を用い、前記視差画像の各画素の前記視差である距離データが、奥行方向及び横方向に連続した一群の前記距離データを、前記視差画像から抽出することで、前記近傍領域の前記物体を検出することを特徴とする請求項1に記載の物体検出装置。
JP2014171960A 2014-08-26 2014-08-26 物体検出装置 Active JP6440411B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014171960A JP6440411B2 (ja) 2014-08-26 2014-08-26 物体検出装置
US15/500,814 US10140526B2 (en) 2014-08-26 2015-08-03 Object detecting device
PCT/JP2015/071899 WO2016031494A1 (ja) 2014-08-26 2015-08-03 物体検出装置
EP15835840.8A EP3188118B1 (en) 2014-08-26 2015-08-03 Object detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014171960A JP6440411B2 (ja) 2014-08-26 2014-08-26 物体検出装置

Publications (2)

Publication Number Publication Date
JP2016045891A JP2016045891A (ja) 2016-04-04
JP6440411B2 true JP6440411B2 (ja) 2018-12-19

Family

ID=55399395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014171960A Active JP6440411B2 (ja) 2014-08-26 2014-08-26 物体検出装置

Country Status (4)

Country Link
US (1) US10140526B2 (ja)
EP (1) EP3188118B1 (ja)
JP (1) JP6440411B2 (ja)
WO (1) WO2016031494A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6769477B2 (ja) * 2016-03-10 2020-10-14 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6406289B2 (ja) * 2016-03-14 2018-10-17 オムロン株式会社 路面形状測定装置、測定方法、及び、プログラム
US20170309181A1 (en) * 2016-04-26 2017-10-26 Hyundai Motor Company Apparatus for recognizing following vehicle and method thereof
JP6733302B2 (ja) * 2016-05-17 2020-07-29 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6763198B2 (ja) * 2016-05-25 2020-09-30 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6816401B2 (ja) * 2016-08-09 2021-01-20 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
US9928426B1 (en) * 2016-09-16 2018-03-27 Hong Kong Applied Science and Technology Research Institute Company Limited Vehicle detection, tracking and localization based on enhanced anti-perspective transformation
JP7206583B2 (ja) * 2016-11-25 2023-01-18 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP6950170B2 (ja) * 2016-11-30 2021-10-13 株式会社リコー 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
JP6794243B2 (ja) * 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 物体検出装置
JP2018136803A (ja) * 2017-02-23 2018-08-30 株式会社日立製作所 画像認識システム
JP7031157B2 (ja) * 2017-07-18 2022-03-08 日産自動車株式会社 物体検出方法及び物体検出装置
DE112018004507T5 (de) * 2017-10-12 2020-06-10 Sony Corporation Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm
CN107977649B (zh) * 2017-12-21 2020-02-07 海信集团有限公司 一种障碍物识别方法、装置及终端
DE112019001657T5 (de) * 2018-03-29 2021-01-14 Sony Corporation Signalverarbeitungsvorrichtung und signalverarbeitungsverfahren, programm und mobiler körper
JP7210906B2 (ja) * 2018-05-31 2023-01-24 株式会社デンソー 車両の自動運転制御装置及びプログラム
CN110927724B (zh) * 2019-11-11 2020-11-27 中国地质环境监测院 毫米波雷达泥石流智能监测系统与方法
US20230104858A1 (en) * 2020-03-19 2023-04-06 Nec Corporation Image generation apparatus, image generation method, and non-transitory computer-readable medium
JP7380443B2 (ja) * 2020-06-22 2023-11-15 トヨタ自動車株式会社 部分画像生成装置及び部分画像生成用コンピュータプログラム
CN112883909A (zh) * 2021-03-16 2021-06-01 东软睿驰汽车技术(沈阳)有限公司 基于包围盒的障碍物位置检测方法、装置和电子设备
CN113506264B (zh) * 2021-07-07 2023-08-29 北京航空航天大学 道路车辆数识别方法和装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4862357A (en) * 1987-01-28 1989-08-29 Systemone Holdings, Inc. Computer reservation system with means to rank travel itineraries chosen in terms of schedule/fare data
JPH10143659A (ja) 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
JP4660569B2 (ja) * 2008-03-21 2011-03-30 株式会社東芝 物体検出装置及び物体検出方法
CN103177236B (zh) * 2011-12-22 2016-06-01 株式会社理光 道路区域检测方法和装置、分道线检测方法和装置
JP2013140515A (ja) 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc 立体物検出装置及びプログラム
JP2013161187A (ja) * 2012-02-02 2013-08-19 Toyota Motor Corp 物体認識装置
CN103679127B (zh) * 2012-09-24 2017-08-04 株式会社理光 检测道路路面的可行驶区域的方法和装置
CN103854008B (zh) * 2012-12-04 2019-10-18 株式会社理光 路面检测方法和装置

Also Published As

Publication number Publication date
US10140526B2 (en) 2018-11-27
JP2016045891A (ja) 2016-04-04
EP3188118A4 (en) 2018-04-04
EP3188118A1 (en) 2017-07-05
WO2016031494A1 (ja) 2016-03-03
US20170220877A1 (en) 2017-08-03
EP3188118B1 (en) 2021-12-15

Similar Documents

Publication Publication Date Title
JP6440411B2 (ja) 物体検出装置
US11500101B2 (en) Curb detection by analysis of reflection images
JP6151150B2 (ja) 物体検出装置及びそれを用いた車両
CN108351207B (zh) 立体相机装置
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
EP3258214B1 (en) Object detection device
JP5407898B2 (ja) 対象物検出装置及びプログラム
JP2017083326A (ja) 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
CN107491065B (zh) 利用障碍物的地面边界信息检测物体的侧面的方法和装置
CN108475471B (zh) 车辆判定装置、车辆判定方法和计算机可读的记录介质
EP3115933A1 (en) Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
KR20190059894A (ko) 카메라 영상에서 대상의 감지
JP2018060422A (ja) 物体検出装置
JP6815963B2 (ja) 車両用外界認識装置
JP2019148889A (ja) 道路境界検出装置
US11443619B2 (en) Vehicle recognition apparatus and vehicle recognition method
US11884303B2 (en) Apparatus and method for determining lane change of surrounding objects
JP6416654B2 (ja) 白線検出装置
JP7134780B2 (ja) ステレオカメラ装置
EP3287948B1 (en) Image processing apparatus, moving body apparatus control system, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181120

R150 Certificate of patent or registration of utility model

Ref document number: 6440411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250