JP6631691B2 - 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム - Google Patents

画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム Download PDF

Info

Publication number
JP6631691B2
JP6631691B2 JP2018504009A JP2018504009A JP6631691B2 JP 6631691 B2 JP6631691 B2 JP 6631691B2 JP 2018504009 A JP2018504009 A JP 2018504009A JP 2018504009 A JP2018504009 A JP 2018504009A JP 6631691 B2 JP6631691 B2 JP 6631691B2
Authority
JP
Japan
Prior art keywords
pixel
map
image processing
distance
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018504009A
Other languages
English (en)
Other versions
JPWO2017154305A1 (ja
Inventor
高橋 禎郎
禎郎 高橋
聖也 天野
聖也 天野
洋義 関口
洋義 関口
横田 聡一郎
聡一郎 横田
佑 山田
佑 山田
信一 住吉
信一 住吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JPWO2017154305A1 publication Critical patent/JPWO2017154305A1/ja
Application granted granted Critical
Publication of JP6631691B2 publication Critical patent/JP6631691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/004Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラムに関する。
自動車の安全性において、従来は歩行者や自動車と衝突したときに、いかに歩行者を守れるか、乗員を保護できるかの観点から自動車のボディー構造などの開発が行われてきた。しかしながら近年、情報処理技術、画像処理技術の発達により、人や自動車を高速に検出する技術が開発されてきている。これらの技術を応用して、衝突する前に自動的にブレーキをかけ、衝突を未然に防ぐという自動車も既に発売されている。自動的にブレーキをかけるには人や他車までの距離を正確に測定する必要があり、そのためには、ミリ波レーダ、レーザーレーダによる測距、ステレオカメラによる測距などが実用化されている。
ステレオカメラによる測距においては、一般的に左右2つの撮像画像から視差演算処理を実行して視差画像を生成する。この視差画像上に出現する視差値を使うことにより、撮像画像に映っている物体までの距離情報を計測することができる。また、視差画像の視差塊の大きさを用いて、物体の高さや横幅、物体の奥行き情報を検知することができる。また、視差と座標の関係性により、三次元的な物体の存在位置を把握することもできる。
ステレオカメラによる測距に関し、例えば特許文献1には、監視領域を含む景色を撮像し、一対の画像を時系列的に出力するステレオカメラと、一対の画像に基づいて、ステレオマッチングにより距離データを算出するステレオ画像処理部と、距離データに基づいて、監視領域内に存在する立体物を認識する認識部等を有する移動物体検出装置が開示されている。
特開2006−134035号公報
本発明は、対象物の認識に係る処理速度を速め、対象物の誤認識を低減させることを目的とする。本発明の画像処理装置は、x座標情報と距離情報を有し、頻度値が対応付けられた画素で構成される第1のマップを生成する第1のマップ生成手段と、第1のマップにおいて所定の条件を満たす画素である注目画素を探索する探索手段と、第1のマップにおいて注目画素の周辺に位置する画素を、注目画素とともに有効化する有効化手段と、を備えることを特徴とする。
本発明によれば、対象物の認識に係る処理速度を速め、対象物の誤認識を低減させることが可能になる。
本発明の実施形態における機器制御システム概略構成図である。 本発明の実施形態における撮像装置の概略構成図である。 本発明の実施形態における画像処理装置の機能ブロック図である。 本発明の実施形態におけるVマップ生成処理について説明する模式図である。 本発明の実施形態におけるVマップ生成処理について説明する模式図である。 本発明の実施形態におけるUマップ生成処理について説明する模式図である。 本発明の実施形態におけるUマップ生成処理について説明する模式図である。 本発明の実施形態におけるUマップ生成処理について説明する模式図である。 本発明の実施形態におけるリアルUマップ生成処理について説明する模式図である。 本発明の実施形態におけるリアルUマップ生成処理について説明する模式図である。 本発明の実施形態における画像処理について説明する模式図である。 本発明の実施形態における画像処理について説明する模式図である。 本発明の実施形態における有効化範囲の変更処理例について説明する模式図である。 本発明の実施形態における有効化範囲の変更処理例について説明する模式図である。 本発明の実施形態における処理手順を示すフローチャートである。 従来技術の課題を説明するための模式図である。 従来技術の課題を説明するための模式図である。 従来技術の課題を説明するための模式図である。
本発明の実施形態における画像処理装置に関し以下図面を用いて説明するが、本発明の趣旨を越えない限り、何ら本実施形態に限定されるものではない。なお、各図中、同一又は相当する部分には同一の符号を付しており、その重複説明は適宜に簡略化乃至省略する。また、以下に記載する実施形態は本発明の最良の形態であって、本発明に係る特許請求の範囲を限定するものではない。
本実施形態においては、画像処理装置が、移動体としての車両に取り付けられたステレオカメラ等の撮像装置により撮像された、該車両の前方を走行する他の車両等の物体を認識する例を用いて説明する。他方、移動体としては車両に限定されず、船舶、航空機等にも適用可能である。
そして、例えば画像処理装置による処理結果を用いて車両の運行等を制御する。なお、ここでの制御には車両等それ自体を制御する概念に加え、車両等が備える所定の機器、例えばブレーキシステム、操舵システム、エンジン制御システム等の各ユニットを制御する概念も含まれる。
また、画像処理装置は例えば情報処理装置等として単独で構成されるものであっても、画像処理装置が有する処理機能がステレオカメラ等の撮像装置が有する処理基板等に組み込まれて構成されるものであってもよい。
<本実施形態における機器制御システムについて>
本実施形態における機器制御システムについて図1を参照して説明する。ここでは、機器として車両を制御するシステムを例にその概略を説明する。車両1は矢印A方向がフロントノーズであるとする。車両1は、撮像ユニット2、画像処理ユニット3、制御ユニット4を備えている。撮像ユニット2は例えば車内のルームミラー付近に設置され、フロントガラス5越しに車両1の前方を走行する他の車両等を撮像する。
撮像ユニット2により撮像された画像に基づいて画像処理ユニット3が物体を認識し、その認識結果を利用して制御ユニット4により車両の走行スピード、他の車両との走行間隔、走行レーン、ブレーキのタイミング等を制御する。なお、撮像ユニット、画像処理ユニット、制御ユニットなる用語は、ここでの記載内容と他の記載内容とを区別するために便宜的につけたものであり、ユニットとしたことについて他意はない。すなわち、撮像ユニット、画像処理ユニット、制御ユニットは、それぞれ、撮像装置又は撮像手段、画像処理装置又は画像処理手段、制御装置又は制御手段と読み替えてもよい。
<本実施形態における撮像装置について>
本実施形態における撮像装置について図2を参照して説明する。本実施形態における撮像装置はステレオカメラ10と、画像処理基板20で構成されている。
ステレオカメラ10は、2台のカメラが平行に組み付けられて構成される。ステレオカメラ10は、左レンズ11L、右レンズ11Rに対応して、画像センサ12L及び画像センサコントローラ13L、画像センサ12R及び画像センサコントローラ13Rを備えている。なお、本実施形態においては、2台のカメラによりステレオカメラ10が構成されているが、本発明としては、3台以上のカメラで構成されることを妨げない。
画像センサコントローラ13L、13Rは、画像センサ12L、12Rの露光制御、A/D変換、画像読み出し制御、外部回路との通信、画像データの送信の役割を担う。ステレオカメラ10は、画像処理基板20とデータバス27、シリアルバス28で接続されている。ステレオカメラ10から、輝度画像データと視差画像データが出力される。
ステレオカメラ10から出力された輝度画像データはデータバス27を介して画像センサ12L、12Rから画像処理基板20に転送される。また、シリアルバス28は、画像処理基板20からのセンサ露光制御値変更、画像読み出しパラメータ変更、各種設定データの送受信を行う。
画像処理基板20は、CPU21、FPGA22、RAM23、ROM24、シリアルI/F25、データI/F26、データバス27、シリアルバス28を備えている。
CPU21は画像処理基板20の全体の動作制御、画像処理、及び画像認識処理を実行する。FPGA22はRAM23に保存された画像データに対してリアルタイム性が要求される処理を実行する。FPGA22は、例えばガンマ補正、歪み補正すなわち左右画像の平行化、ブロックマッチングによる視差演算を行って視差画像を生成し、RAM23に書き戻す。
CPU21はステレオカメラ10の画像センサコントローラ13L、13Rの制御及び画像処理基板20の全体的な制御を担う。また、CPU21は、路面形状検出、ガードレール検出、オブジェクト検出を実行するプログラムをROM24からロードして、RAM23に蓄えられた輝度画像及び視差画像を入力として各種処理を実行する。さらに、CPU21は、検出データをシリアルI/F25又はデータI/F26から外部へ出力する。
CPU21は、処理の実行に際し、データI/F26を利用して、車速、加速度、舵角、ヨーレートなど車両の情報を入力して路面形状検出などの各種処理のパラメータとして使用する。外部に出力されるデータは自動緊急ブレーキや自動速度制御等の車両の制御を実行するための入力データとして使用される。なお、CPU21やFPGA22で実現される機能の一部は、画像処理基板20の外部に持たせてもよい。
<本実施形態における画像処理装置の機能ブロックについて>
本実施形態における画像処理装置の機能ブロックについて図3を参照して説明する。本実施形態における画像処理装置30は、図3に示すように、第1のマップ生成部31、探索部32、有効化部33、及び第2のマップ生成部34を備えて構成されている。
本実施形態における機能ブロックを説明する前提として、画像処理装置30が、2つの撮像手段である2台のカメラからなるステレオカメラ10により撮像された撮像画像から視差画像を生成する処理について説明する。本処理は、図2に示したFPGA22によりその機能が実現される。
より具体的には、画像処理装置30は、ステレオカメラ10から取得した輝度画像データから視差画像を得るために、ステレオカメラ10で撮像した撮像画像間の対応画像部分の視差値を演算する。
ここでの視差値とは、ステレオカメラ10で撮像した一方の画像を基準画像、他方を比較画像とし、撮像領域内の同一地点に対応した基準画像上の画像部分に対する比較画像上の画像部分の位置ズレ量を、当該画像部分の視差値として算出したものである。そして、三角測量の原理を利用することで、この視差値から当該画像部分に対応した撮像領域内の当該同一地点までの距離を算出することができる。視差値は距離値と等価として扱えるため、本実施形態においては、視差画像を距離画像の一例として、また、視差情報を距離情報の一例として説明する。
ステレオカメラ10からは撮影画像として輝度画像データが出力されるが、このときステレオカメラ10がカラーの場合は、RGB信号から輝度信号(Y)を得るカラー輝度変換を行う。例えば以下の式〔1〕により輝度信号を得る。
Y=0.3R+0.59G+0.11B・・・〔1〕
なお、ステレオカメラ10から取得した輝度画像データに対して、画像処理装置30は、平行化画像生成処理を行う。この平行化画像生成処理は、ステレオカメラ10を構成する2つのカメラにおける光学系の歪みや左右のカメラの相対的な位置関係から、各カメラから出力されるステレオ画像を、2つのカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像となるように変換する処理である。
このように平行化画像生成処理を行った後、画像処理装置30は、視差画像データを生成する視差画像生成処理を行う。視差画像生成処理では、まず、2つのカメラのうちの一方のカメラから取得した輝度画像データを基準画像データとし、他方のカメラから取得した輝度画像データを比較画像データとし、これらを用いて両者の視差を演算して、視差画像データを生成して出力する。この視差画像データは、基準画像データ上の各画像部分について算出される視差値dに応じた画素値をそれぞれの画像部分の画素値として表した視差画像を示すものである。
具体的には、画像処理装置30は、基準画像データのある行について、一つの注目画素を中心とした複数画素、例えば16画素×1画素からなるブロックを定義する。一方、画像処理装置30は、比較画像データにおける同じ行において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向へずらし、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。
そして、画像処理装置30は、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、画像処理装置30は、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値dとして算出する。このような視差値dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得ることができる。
マッチング処理に用いるブロックの特徴量としては、例えば、ブロック内の各画素の値である輝度値を用いることができ、相関値としては、例えば、基準画像データのブロック内の各画素の値である輝度値と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値である輝度値との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが最も相関があるといえる。
画像処理装置30でのマッチング処理をハードウェア処理によって実現する場合には、例えばSSD(Sum of Squared Difference)、ZSSD(Zero-mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、ZSAD(Zero-mean Sum of Absolute Difference)などの方法を用いることができる。
なお、マッチング処理では画素単位での視差値しか算出できないため、1画素未満のサブピクセルレベルの視差値が必要な場合には推定値を用いる必要がある。その推定方法としては、例えば、等角直線方式、二次曲線方式等を利用することができる。ただし、このサブピクセルレベルの推定視差値には誤差が発生するため、この推定誤差を減少させるEEC(推定誤差補正)などを用いてもよい。
第1のマップ生成部31は、x、yの座標情報を有し、かつ、距離情報を保有する画素で構成される距離画像から、x座標情報と距離情報を有し、頻度値が対応付けられた画素で構成される第1のマップを生成するマップ生成手段である。第1のマップ生成部31は、図2に示したCPU21によりその機能が実現される。本実施形態において「第1のマップ」はUマップに相当するが、後述する「第2のマップ」と便宜上区別するための名称にすぎない。
また、第1のマップ生成部31は、第1のマップを生成するにあたり、Vマップを生成する。さらに、第1のマップ生成部31は、第1のマップから、第1のマップのx軸方向を実距離に変換した第2のマップを生成する。本実施形態において「第2のマップ」は、リアルUマップに相当するが、前述の「第1のマップ」と便宜上区別するための名称にすぎない。なお、本実施形態においては、複数のマップは互いに順序立てて作成されるものとして説明しているが、これに限られない。例えば、第2のマップを、2つの撮像手段によって得られる2つの撮像画像から直接生成しても良い。
第1のマップ生成部31によるVマップ生成処理について図4A−4Bを参照して説明する。第1のマップ生成部31は、生成された視差画像に基づいてVマップを生成する。Vマップの生成は、視差画像における路面位置を推定し、路面上に存在する物体を認識するために行われる。路面位置を特定することで路面からの高さ情報を得ることができ、路面上に存在する物体の大きさを特定することができる。
視差画像データに含まれる各視差画像データは、x方向位置とy方向位置と視差値dとの組(x、y、d)で示される。第1のマップ生成部31は、この組(x、y、d)のうち、X軸にd、Y軸にy、Z軸に頻度を設定して、2次元のヒストグラムを生成する。この2次元のヒストグラムがVマップに相当する。つまり、第1のマップ生成部31は、視差画像の各画素において、(d、y)を持つときにその度数を一つカウントアップする。
図4Aは、路面103上を車両101が矢印C方向に走行しており、路面103の左側に電柱102が存在する様子を撮像した撮像画像である。これを第1のマップ生成部31により生成したVマップが図4Bである。図4Bに示すように、視差画像からVマップに変換するとき、路面から一定の高さにある視差値をVマップ上に対応付けてクラスタリングすることによって、路面上の物体を認識することができる。クラスタリングにより、Vマップ上において車両101v、電柱102v、路面103vを認識することができる。
また、視差値をVマップ上に対応付ける領域(以下「投票領域」という。)を設定する必要がある。本実施形態における図4Bに斜線で示すB領域は、路面103より下の部分を示している。路面103より下の部分において視差が検出されることはないため、B領域には視差値の対応付けはされない。その他、カメラを搭載した車両の走行状態によって、路面推定範囲が変化すること等を考慮して投票領域を決定することが好ましい。
また、第1のマップ生成部31は、路面103の形状を検出する路面形状検出処理を行う。これは、Vマップにおいて路面と推定される位置を直線近似する処理である。直線近似の方法としては、例えば最小二乗法やハフ変換を用いればよい。例えば、路面が平坦な場合は一本の直線で近似可能であるが、途中で勾配が変わる場合には、マップの区間を分割して精度よく直線近似する必要がある。
なお、Vマップにおいて路面形状検出処理を行う場合、上記のように投票領域の制限を行っても、視差の大きい領域と視差の小さい領域の2領域に分けて路面形状検出を行ってもよい。
第1のマップ生成部31は、路面103の高さを算出してテーブル化する路面高さテーブル算出処理を行う。Vマップから路面を表す直線式が得られ、視差dが決まればそのときのy座標が決定される。このy座標が路面の高さとなり、これを必要な視差の範囲でテーブル化する。
次に、第1のマップ生成部31によるUマップ生成処理の概略について図5A−5Cを参照して説明する。第1のマップ生成部31は、例えばガードレールや路面に沿った立ち壁等の存在を推定するためにUマップを生成する。第1のマップ生成部31は、視差画像データに含まれる各視差画素データにおけるx方向位置とy方向位置と視差値dとの組(x、y、d)を、X軸にx、Y軸にd、Z軸に頻度を設定して、X−Yの2次元ヒストグラム情報を生成する。この2次元ヒストグラム情報がUマップである。
本実施形態においては、第1のマップ生成部31は、上述の路面高さテーブルによってテーブル化された各路面部分の高さに基づいて、路面からの高さが所定の高さの範囲(たとえば20cmから3m)にある視差画像の点(x、y、d)について頻度Uマップを生成する。
図5Aは、片側1車線の道路上のうち、左車線を車両101aが矢印D方向に走行し、右車線を車両101bが矢印E方向に走行している状態を撮像した撮像画像である。また、道路両脇には、ガードレール105a、105bが設置されている。
図5Bは、図5Aに示す撮像画像から変換された頻度Uマップを示す図である。ガードレール105a、105bは左右両端から中央上部に延びる直線上になる。ここでは、Uマップ変換後のガードレール105a、105bを105au、105buと表記している。
他方、車両101a、車両101bはガードレール105au、105buの間で、水平線分と、車の側面が見えて視差が検出されている場合は斜め線が水平線分に連結した形状となる。ここでは、Uマップ変換後の車両101a、車両101bを101au、101buと表記している。
図5Cは、高さUマップを示した図である。第1のマップ生成部31は、頻度Uマップの生成と同時に高さUマップを生成する。第1のマップ生成部31は、視差画像データに含まれる各視差画素データにおけるx方向位置とy方向位置と視差値dとの組(x、y、d)を、X軸にx、Y軸にd、Z軸に路面からの高さを設定して、X−Yの2次元ヒストグラム情報を生成する。この2次元ヒストグラム情報が高さUマップである。このときの高さの値は路面からの高さが最高のものである。
図5Cにハッチングの濃さで分けて示すように、車両101au、101buのハッチングはガードレール105au、105buのそれより濃くなっており、車両101au、101buの高さはガードレール105au、105buの高さよりも大きくなる。これにより物体の高さ情報を物体認識に使用することができる。
第2のマップ生成部34は、Uマップのx軸方向を実距離に変換したリアルUマップを生成する第2のマップ生成手段である。リアルUマップ生成処理について図6A−6Bを参照して説明する。リアルUマップは、上述したUマップの横軸を画像の画素単位から実際の距離単位に変換し、縦軸の視差値を距離に応じた間引き率が適用された間引き視差に変換したものである。なお、図6Aは図5Bと同じ図である。ここでは横軸を実距離に変換した例を示しているが、実距離相当の単位に変換できればよい。
縦軸の間引き視差は、遠距離(ここでは50m以上)については間引きなし、中距離(20m以上、50m未満)については1/2に間引き、近距離(10m以上、20m未満)については1/3に間引き、最近距離(10m未満)については、1/8に間引いたものである。
つまり、遠方ほど、間引く量を少なくしている。その理由は、遠方では物体が小さく写るため、視差情報が少ない、距離の分解能も小さいため間引きを少なくし、近距離の場合は物体が大きく写るため、視差情報が多く距離の分解能も大きいため間引きを多くする。
図6Bは第2のマップ生成部34により生成されたリアルUマップの例である。本図は、路面や路面上を走行する車両等を上から俯瞰したような状態となっている。ガードレール105au、105buは垂直の線状で表され、変換後のガードレール105au、105buを105aru、105bruとしている。また、車両101au、101buの形も実際の形状に近いものに変換されている。変換後の車両101au、101buを101aru、101bruと表記している。
なお、図5C同様、リアルUマップについても頻度マップだけでなく、高さリアルUマップを生成することができる。
探索部32は、Uマップにおいて所定の条件を満たす画素である注目画素を探索する探索手段である。所定の条件とは、例えば、探索した画素が保有する高さ情報が所定の閾値以上であり、探索した画素を含む周辺領域の画素密度が所定の密度閾値以上である等の条件である。
具体的には、探索された画素を含めた所定の範囲にマスク処理を施し、同マスク内に所定の閾値以上の画素が存在する場合に、探索された画素を注目画素とすることが好ましい。例えば探索された画素を含む周辺の画素領域に5×5ピクセルのマスクを設定した場合、同マスク内に6ピクセル以上の画素が存在する場合に、探索された画素を注目画素とすればよい。また、所定の閾値以上の画素が存在する場合に限らず、同マスク内の所定割合以上の領域を複数の画素が占めている場合に、探索された画素を注目画素としてもよい。
例えば、探索された画素を含むマスク内の50%以上の領域を複数の画素が占めている場合に、探索された画素を注目画素とすればよい。
また、本実施形態においては、探索部32は、Uマップのy軸方向に沿ってステレオカメラ10に近い側から遠い側に向かって注目画素を探索する。ステレオカメラに近い側から探索するのは、本実施形態においては、ステレオカメラ等の撮像視点と距離が近い画素を注目画素として捉えたいからである。注目画素がステレオカメラから近い側にあるか否かは、当該画素が保有する距離情報で判定できる。そして、ステレオカメラの撮像視点と距離が近い画素を注目画素として判定するために上記の距離閾値等を用いればよい。
また、本実施形態において、探索部32はUマップにおいて画素列ごとに探索された画素より遠い側の画素を非探索対象とする。つまり、探索部32は、ある画素列において注目画素を探索した場合、その画素列についての画素の探索は行わず、次の画素列において画素の探索を行う。これにより、探索対象の画素列において探索された注目画素以降の探索は行わないため、画素探索に要する時間を削減できる。よって、処理速度の高速化を図ることが可能になる。実際の処理の一例としては、注目画素が保有する距離情報が上記距離閾値を越えているものを非探索対象等とすればよい。
有効化部33は、Uマップにおいて注目画素の周辺に位置する画素を、注目画素とともに有効化する有効化手段である。本実施形態において「有効化」とは、探索部32により探索された画素を、対象物を認識するための画素として採用または決定等することをいう。
本実施形態によれば、探索部32により画素列ごとに探索された、注目画素について有効化処理を行い、探索された注目画素より遠い画素は上述の通り探索されず、よって有効化されることもない。よって、従来は対象物でない物体に相当する画素や、誤マッチングによる画素まで処理対象としていたところ、本実施形態では、そのような画素に対する処理は省略されるため、処理の高速化とともに対象物の誤認識を低減することができる。
また、有効化部33は、探索部32により探索された注目画素のy軸方向における第1の範囲内に位置する画素を有効化する。これは、対象物を認識するためには、対象物の大きさに見合う画素塊として有効化することが好ましいからである。
また、有効化部33は、注目画素の距離情報に応じて第1の範囲を変更する。例えば、撮像視点からある一定の距離までの近距離領域における注目画素の距離のm%の画素領域を有効化範囲とすればよい。これに対して上記の一定の距離を超える撮像視点から遠い遠距離領域における注目画素の距離の2m%の画素領域を有効化範囲とすればよい。遠距離領域では、視差の分散から画素が伸びる傾向があるため、近距離領域より長い領域を有効化範囲とすることが好ましい。
他方、有効化部33は、リアルUマップに変換された注目画素を、リアルUマップ上で有効化することもできる。この場合、有効化部33は、リアルUマップに変換された注目画素のx軸方向における第2の範囲内に位置する画素を有効化する。そして、有効化部33は、注目画素の距離情報が小さいときに、第2の範囲を大きくすることもできる。例えば、撮像視点からある一定の距離までの近距離領域における注目画素の幅の2n%の画素領域を有効化範囲とすればよい。これに対して上記の一定の距離を超える撮像視点から遠い遠距離領域における注目画素の幅のn%の画素領域を有効化範囲とすればよい。なお、注目画素の周辺に位置する画素を追加画素として有効化してもよい。近距離領域では、物体が大きく写るため、視差データが多く、距離分解能も大きい。近距離領域では視差がばらける傾向があるため、近距離領域における有効化範囲を遠距離領域の有効化範囲より大きくすることが好ましい。
上記のように、有効化部33は、探索部32によりUマップにおいて探索された画素がリアルUマップ上に変換された変換後の画素を有効化することが好ましい。なお、このことはUマップにおいて探索された画素をUマップ上で有効化することを妨げるものではない。
一方、Uマップにおいて探索された画素をUマップ上で有効化した後、有効化された画素をリアルUマップ上に変換した場合、リアルUマップ上で有効化された画素塊に歪みが生じたり、変換処理に時間がかかることがある。よって、Uマップにおいて探索された画素を注目画素としてリアルUマップに変換してから変換後の画素を有効化処理することにより、処理精度を高く、処理時間も軽減させることができる。
なお、有効化部33による注目画素の有効化処理の後、画像処理装置30は、対象物の認識処理を行う。リアルUマップで有効化した画素塊の位置、幅と最小視差から視差画像で認識すべき範囲を決定することができる。本実施形態では、上述の通り注目画素が有効化され、注目画素以外の非探索画素については有効化されないため、有効化した画素塊等から決定される認識範囲には、認識精度を低下させる要素が含まれず、その結果、誤認識を低減することが可能になる。
<本実施形態における画像処理の具体例について>
本実施形態における画像処理について図7A−7Bに係る具体例を参照して説明する。説明の前提として、従来技術における課題についても図10A−10Cに示す具体例を参照して説明する。図10Aは、図5Aに示した撮像画像のガードレール105a、105b外側に樹木201a、201bを追加して描かれたものである。
図10Bは、図10Aの撮像画像を基に生成された視差画像から生成したUマップを示す図である。図10Bには、樹木201a、201bに対応する画素領域201au、201buが表示されている。
図10Cは、図10BのUマップから変換されたリアルUマップを示す図である。図10Cに示すように、Uマップにおける画素領域201au、201buに対応する画素領域201aru、201bruが表示されている。
上述において、従来はUマップ上の全ての領域について画素探索を行っていたため、ガードレール105a、105bより外側の樹木201a、201bに対応する画素領域201au、201buについても探索対象としていた。道路を走行する車両が必要とする情報は、通常は前方を走行する他の車両や道路を横断する人などの情報であり、ガードレール外の樹木の情報は不要であり、樹木等も探索対象とすれば、それだけ処理時間がかかる。
そこで、本実施形態においては、図7Aに示すように、Uマップのy軸方向に図の左の画素列から順に、図の下側の撮影視点から図の上側の遠距離方向に向かって(矢印参照)、探索部32が注目画素を探索する。そして、上述した所定の条件を満たす注目画素を探索すると(濃いハッチング部参照)、これを図7Bに示すリアルUマップ上に変換し、有効化部33が変換後の画素の周辺領域の画素を有効化する。なお、図7B有効化後の画素を示したものであるが、図7Aに示す各画素と対応するものではなく
、便宜的に示したものにすぎない。
本実施形態では、注目画素以降の画素(薄いハッチング部参照)は非探索画素として、探索対象としないことにより、その分の処理時間を低減することができる。また、非探索画素として、注目画素以降の画素をそもそも探索対象としないため、リアルUマップ上に変換されることもなく、仮に変換された場合の処理結果を使用した場合における誤認識を低減することができる。
<本実施形態における有効化範囲の変更処理例について>
本実施形態における有効化範囲の変更処理例について図8A−8Bを参照して説明する。まず、撮影視点から遠距離領域における注目画素PFについては、近距離領域における注目画素PNのより、有効化範囲を大きくする処理について図8Aを参照して説明する。本例では、符号dnを便宜的に近距離と遠距離との境界線とする。すなわち、dnより下側(手前側)を近距離領域とし、dnより上側(奥側)を遠距離領域とする。
近距離領域における注目画素PNについては、その距離のm%の領域を有効化範囲とする。他方、遠距離領域における注目画素PFについては、その距離の2m%の領域を有効化範囲とする。すなわち、遠距離領域における注目画素PFの有効化範囲は、近距離領域における注目画素PNの有効化範囲より大きい。視差が分散し、画素が伸びやすい遠距離領域では、y軸方向の有効化範囲を大きくすることで誤認識を低減させ、遠距離領域のような懸念のない近距離領域では、y軸方向の有効化範囲を小さくすることで処理速度を向上させることができる。
次に、撮影視点から近距離領域における注目画素PNについては、遠距離領域における注目画素PFのより、有効化範囲を大きくする処理について図8Bを参照して説明する。符号dnは図8Aと同様に近距離と遠距離との境界線である。
遠距離領域における注目画素PFについては、その幅のn%の領域を有効化範囲とする。他方、近距離領域における注目画素PNについては、その幅の2n%の領域を有効化範囲とする。すなわち、近距離領域における注目画素PNの有効化範囲は、遠距離領域における注目画素PFの有効化範囲より大きい。視差がばらけやすい近距離領域では、x軸方向の有効化範囲を大きくすることで、誤認識を低減させ、近距離領域のような懸念のない遠距離領域では、x軸方向の有効化範囲を小さくすることで、処理速度を向上させることができる。
<本実施形態における処理手順について>
本実施形態における処理手順について図9を参照して説明する。まず、画像処理装置30は、ステレオカメラ10で撮像された撮像画像から視差画像を生成する(ステップS1)。次に、第1のマップ生成部31は、生成された視差画像を基に、Vマップ、Uマップを生成し、第2のマップ生成部34は、UマップからリアルUマップを生成する(ステップS2)。
探索部32は、生成されたUマップにおいてy軸方向に画素列を探索する(ステップS3)。探索部32により上記の条件を満たす注目画素が探索された場合(ステップS4、YES)、探索された注目画素をリアルUマップ上に変換する(ステップS5)。他方、探索部32により上記の条件を満たす注目画素が探索されない場合(ステップS4、NO)、画像処理装置30は全ての画素列が探索されたか否かを判定する(ステップS7)。画像処理装置30により全ての画素列が探索された場合(ステップS7、YES)、処理を終了し、そうでない場合(ステップS7、NO)、次の画素列を探索する(ステップS3)。
一方、有効化部33がリアルUマップ上に変換された注目画素を有効化すると(ステップS6)、画像処理装置30は全ての画素列が探索されたか否かを判定する(ステップS7)。画像処理装置30により全ての画素列が探索された場合(ステップS7、YES)、処理を終了し、そうでない場合(ステップS7、NO)、次の画素列を探索する(ステップS3)。
なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、上述した本実施形態の画像処理装置における各処理を、ハードウェア、又は、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。
なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリにインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
また、上述した本実施形態においては、ステレオカメラを前提として記載しているが、これに限られない。例えば、レーザーレーダ等の距離情報と視差画像を組み合わせて距離画像を生成し、生成された距離画像に対して本実施形態の画像処理装置を適用することができる。
本国際特許出願は2016年3月10日に出願した日本国特許出願第2016−046975号に基づきその優先権を主張するものであり、日本国特許出願第2016−046975号の全内容を本願に援用する。
1 車両
2 撮像ユニット
3 画像処理ユニット
4 制御ユニット
5 フロントガラス
10 ステレオカメラ
11L 左レンズ
11R 右レンズ
12L、12R 画像センサ
13L、13R 画像センサコントローラ
20 画像処理基板
21 CPU
22 FPGA
23 RAM
24 ROM
25 シリアルI/F
26 データI/F
27 データバス
28 シリアルバス
30 画像処理装置
31 第1のマップ生成部
32 探索部
33 有効化部
34 第2のマップ生成部

Claims (12)

  1. x座標情報と距離情報と頻度値が対応付けられた画素で構成される第1のマップを生成する第1のマップ生成手段と、
    前記第1のマップにおいて所定の条件を満たす前記画素である注目画素を、距離情報で示される距離が近い側から遠い側に向かって探索する探索手段と、
    前記第1のマップにおいて前記注目画素の周辺に位置する画素を、前記注目画素とともに有効化する有効化手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記有効化手段は、前記注目画素から距離情報方向における第1の範囲内に位置する画素を有効化することを特徴とする請求項1記載の画像処理装置。
  3. 前記有効化手段は、前記注目画素の距離情報に応じて前記第1の範囲を変更することを特徴とする請求項3記載の画像処理装置。
  4. 前記第1のマップのx軸方向を実距離相当の単位に変換した第2のマップを生成する第2のマップ生成手段をさらに備え、
    前記有効化手段は、前記第2のマップに変換された前記注目画素を、前記第2のマップ上で有効化することを特徴とする請求項1から4の何れか1項に記載の画像処理装置。
  5. 前記有効化手段は、前記第2のマップに変換された前記注目画素のx軸方向における第2の範囲内に位置する画素を有効化することを特徴とする請求項5記載の画像処理装置。
  6. 前記有効化手段は、前記注目画素の距離情報が小さいときに、前記第2の範囲を大きくすることを特徴とする請求項6記載の画像処理装置。
  7. 前記探索手段は、探索した前記画素が保有する高さ情報が所定の閾値以上であり、及び/又は探索した前記画素を含む周辺領域の画素密度が所定の密度閾値以上であることを前記所定の条件として前記注目画素を探索することを特徴とする請求項1から7の何れか1項に記載の画像処理装置。
  8. x座標情報と距離情報と頻度値が対応付けられた画素で構成されるマップを生成するマップ生成手段と、
    前記マップにおいて所定の条件を満たす前記画素である注目画素を、距離情報で示される距離が近い側から遠い側に向かって探索する探索手段と、
    前記マップにおいて前記注目画素の周辺に位置する画素を、前記注目画素とともに有効化する有効化手段と、
    前記有効化手段により有効化された画素に基づいて対象物を検出する検出手段と、
    前記検出手段による検出結果に基づいて所定の機器を制御する制御手段と、
    を備えることを特徴とする機器制御システム。
  9. 2つの撮像手段と、
    前記2つの撮像手段により撮像された撮像画像から、x座標情報と距離情報と頻度値が対応付けられた画素で構成されるマップを生成するマップ生成手段と、
    前記マップにおいて所定の条件を満たす前記画素である注目画素を、距離情報で示される距離が近い側から遠い側に向かって探索する探索手段と、
    前記マップにおいて前記注目画素の周辺に位置する画素を、前記注目画素とともに有効化する有効化手段と、
    を備えることを特徴とする撮像装置。
  10. コンピュータが、x座標情報と距離情報と頻度値が対応付けられた画素で構成されるマップを生成するステップと、
    コンピュータが、前記マップにおいて所定の条件を満たす前記画素である注目画素を、距離情報で示される距離が近い側から遠い側に向かって探索するステップと、
    コンピュータが、前記マップにおいて前記注目画素の周辺に位置する画素を、前記注目画素とともに有効化するステップと、
    を備えることを特徴とする画像処理方法。
  11. x座標情報と距離情報と頻度値が対応付けられた画素で構成されるマップを生成する処理と、
    前記マップにおいて所定の条件を満たす前記画素である注目画素を、距離情報で示される距離が近い側から遠い側に向かって探索する処理と、
    前記マップにおいて前記注目画素の周辺に位置する画素を、前記注目画素とともに有効化する処理と、
    をコンピュータに実行させることを特徴とするプログラム。
  12. 請求項9に記載の機器制御システムを有し、前記制御手段により制御される移動体。
JP2018504009A 2016-03-10 2016-12-16 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム Active JP6631691B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016046975 2016-03-10
JP2016046975 2016-03-10
PCT/JP2016/087525 WO2017154305A1 (ja) 2016-03-10 2016-12-16 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JPWO2017154305A1 JPWO2017154305A1 (ja) 2018-12-27
JP6631691B2 true JP6631691B2 (ja) 2020-01-15

Family

ID=59790143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018504009A Active JP6631691B2 (ja) 2016-03-10 2016-12-16 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム

Country Status (4)

Country Link
US (1) US11054245B2 (ja)
EP (1) EP3428876A4 (ja)
JP (1) JP6631691B2 (ja)
WO (1) WO2017154305A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108759667B (zh) * 2018-05-29 2019-11-12 福州大学 车载摄像头下基于单目视觉与图像分割的前车测距方法
JP2020190438A (ja) 2019-05-20 2020-11-26 株式会社リコー 計測装置および計測システム
US11343485B1 (en) * 2020-08-24 2022-05-24 Ambarella International Lp Virtual horizontal stereo camera

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3556319B2 (ja) * 1995-04-10 2004-08-18 富士通株式会社 距離計測装置
JP2006134035A (ja) 2004-11-05 2006-05-25 Fuji Heavy Ind Ltd 移動物体検出装置および移動物体検出方法
JP2007102545A (ja) 2005-10-05 2007-04-19 Ricoh Co Ltd 電子文書作成装置、電子文書作成方法及び電子文書作成プログラム
JP4647515B2 (ja) 2006-02-20 2011-03-09 株式会社リコー 座標検出装置、筆記具および座標入力システム
JP4166253B2 (ja) * 2006-07-10 2008-10-15 トヨタ自動車株式会社 物体検出装置、物体検出方法、および物体検出用プログラム
EP1916538A3 (en) * 2006-10-27 2011-02-16 Panasonic Electric Works Co., Ltd. Target moving object tracking device
JP5316805B2 (ja) 2009-03-16 2013-10-16 株式会社リコー 車載カメラ装置の画像調整装置及び車載カメラ装置
JP5376313B2 (ja) 2009-09-03 2013-12-25 株式会社リコー 画像処理装置及び画像撮像装置
JP5664152B2 (ja) 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
JP6102088B2 (ja) 2011-09-01 2017-03-29 株式会社リコー 画像投影装置、画像処理装置、画像投影方法、画像投影方法のプログラム及びそのプログラムを記録した記録媒体
JP5499011B2 (ja) * 2011-11-17 2014-05-21 富士重工業株式会社 車外環境認識装置および車外環境認識方法
JP2014131257A (ja) 2012-11-27 2014-07-10 Ricoh Co Ltd 画像補正システム、画像補正方法及びプログラム
JP6398347B2 (ja) 2013-08-15 2018-10-03 株式会社リコー 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
JP6417886B2 (ja) 2013-12-12 2018-11-07 株式会社リコー 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP6340850B2 (ja) * 2014-03-18 2018-06-13 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP6519262B2 (ja) 2014-04-10 2019-05-29 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP2016001170A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理プログラム、及び、処理方法
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP6417729B2 (ja) 2014-06-09 2018-11-07 株式会社リコー 画像処理装置、画像処理方法、プログラム、視差データの生産方法、機器制御システム
JP6550881B2 (ja) 2014-07-14 2019-07-31 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US20160019429A1 (en) 2014-07-17 2016-01-21 Tomoko Ishigaki Image processing apparatus, solid object detection method, solid object detection program, and moving object control system
US9726604B2 (en) 2014-11-12 2017-08-08 Ricoh Company, Ltd. Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices

Also Published As

Publication number Publication date
EP3428876A4 (en) 2019-01-23
JPWO2017154305A1 (ja) 2018-12-27
EP3428876A1 (en) 2019-01-16
US20190003822A1 (en) 2019-01-03
WO2017154305A1 (ja) 2017-09-14
US11054245B2 (en) 2021-07-06

Similar Documents

Publication Publication Date Title
JP6743882B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
EP2889641B1 (en) Image processing apparatus, image processing method, program and image processing system
JP5690688B2 (ja) 外界認識方法,装置,および車両システム
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP6687039B2 (ja) 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
WO2017138245A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2013109760A (ja) 対象検知方法及び対象検知システム
US11270133B2 (en) Object detection device, object detection method, and computer-readable recording medium
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
JP6631691B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム
CN111144415B (zh) 一种微小行人目标的检测方法
JP2018092605A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP2021148730A (ja) 位置推定方法、位置推定装置、及び、プログラム
JP6677141B2 (ja) 駐車枠認識装置
CN112400094B (zh) 物体探测装置
JP2018146495A (ja) 物体検出装置、物体検出方法、物体検出プログラム、撮像装置、及び、機器制御システム
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP6677142B2 (ja) 駐車枠認識装置
JP6943092B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
JP2018088237A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
JP2018092608A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
WO2023112127A1 (ja) 画像認識装置、および、画像認識方法
JP2017045395A (ja) 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム
CN115063772A (zh) 一种车辆编队后车检测方法、终端设备及存储介质

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20180905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R151 Written notification of patent or utility model registration

Ref document number: 6631691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151