JP2016070814A - カメラキャリブレーション装置及びカメラキャリブレーションシステム - Google Patents

カメラキャリブレーション装置及びカメラキャリブレーションシステム Download PDF

Info

Publication number
JP2016070814A
JP2016070814A JP2014201547A JP2014201547A JP2016070814A JP 2016070814 A JP2016070814 A JP 2016070814A JP 2014201547 A JP2014201547 A JP 2014201547A JP 2014201547 A JP2014201547 A JP 2014201547A JP 2016070814 A JP2016070814 A JP 2016070814A
Authority
JP
Japan
Prior art keywords
camera
vehicle
calibration
video
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014201547A
Other languages
English (en)
Other versions
JP6371185B2 (ja
Inventor
盛彦 坂野
Morihiko Sakano
盛彦 坂野
啓二 佐藤
Keiji Sato
啓二 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2014201547A priority Critical patent/JP6371185B2/ja
Priority to PCT/JP2015/077517 priority patent/WO2016052505A1/ja
Priority to EP15845604.6A priority patent/EP3203724B1/en
Priority to CN201580020606.4A priority patent/CN106233711B/zh
Priority to US15/306,672 priority patent/US10594943B2/en
Publication of JP2016070814A publication Critical patent/JP2016070814A/ja
Application granted granted Critical
Publication of JP6371185B2 publication Critical patent/JP6371185B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車両の積載状態が変化する状況下でもキャリブレーションを実施できると共に、例えば白線に対する車両の平行性を利用することなく、全てのカメラパラメータを精緻に推定してキャリブレーションを実施することのできるカメラキャリブレーション装置及びカメラキャリブレーションシステムを提供する。【解決手段】カメラにより撮影した映像を取得する映像取得部202と、映像から所定の特徴量を抽出する特徴抽出部203と、所定の特徴量に基づいて車両の姿勢を推定する姿勢推定部301と、過去に実施したキャリブレーションから得られる情報に基づいてカメラの地面に対する並進方向の位置を補正する並進補正部304と、車両の姿勢とカメラの地面に対する並進方向の位置とに基づいて、カメラの地面に対する姿勢に関するカメラパラメータを算出するカメラパラメータ算出部305と、を備えている。【選択図】図6

Description

本発明は、カメラキャリブレーション装置及びカメラキャリブレーションシステムに関する。
従来、ドライバーによる周囲確認を支援する目的で、車載カメラの普及が進められている。また、近年では、車両周囲に取り付けられた複数のカメラで撮像された各映像を視点変換し、その映像を合成して生成した車両周囲の俯瞰映像(車両を真上から見下ろしたような映像)をドライバーに提示するシステムの実用化が進められている。
上記のように各カメラで撮像した映像を俯瞰視点に変換して合成映像を生成するためには、焦点距離やレンズ歪みなどの光学的特性や撮像素子サイズなどのカメラ固有の情報(内部パラメータ)、及び各カメラの取り付け位置や角度に関する情報(外部パラメータ)が必要になる。このような内部パラメータと外部パラメータを合わせたカメラパラメータを用いて、各カメラで撮像された映像の俯瞰視点変換を行い、その映像から得られた俯瞰映像を合成することで、俯瞰視点から撮影した映像を仮想的に生成することができる。
ところで、各カメラは設計値に準じた位置や角度で車両に取り付けられるが、その際、必然的に誤差が生じる。このような誤差があるにも関わらず、設計値に基づいて俯瞰映像を生成した場合、必ずしも俯瞰視点から撮影した映像にはならず、誤差の分だけズレのある映像が生成される。特に、複数の映像を合成する場合、そのズレの影響が合成画像における各カメラの画像の境界領域に顕著に現れ、単一カメラの場合よりも見た目に与える影響は大きくなる。このような問題を解決するため、キャリブレーションあるいは校正と呼ばれる、カメラパラメータの設計値からの誤差の補正が行われる。
このキャリブレーションは、極めて高精度に前記誤差を補正することが要求されるため、カメラの据え付け状態を機械的に調整する方法ではなく、現在の据え付け状態を撮影した映像から推定する方法が採用される。撮影した映像から据え付け状態を推定する方法としては、一般に、紙や板などに印字されたパターン(キャリブレーションチャート)を予め決められた位置に精密に設置して撮影し、実際に撮影された映像が、設計値どおりに製造・設置されたカメラで撮影した場合の映像と一致するようにカメラパラメータを修正する方法が採用され、その際には、カメラの取り付け状態そのものを調整するのではなく、カメラの取り付け位置や角度に関するプログラム中の数値を画像の変換を介して修正する方法が採用されている。
ところで、車両の出荷時に工場の生産ラインなどでキャリブレーションを行う際には、人が誰も乗っていない空車状態、あるいは、運転席にドライバーが乗っている場合などの特定の積載状態を再現してキャリブレーションが実施される。したがって、空車状態、あるいは、特定の積載状態などといった、実際にキャリブレーションを行った状態と同じ状態では、映像にズレは生じない。
しかしながら、実際にユーザーが車両を使用する際には、乗車する人数や座る場所、荷物の積載状態などが種々に変化する。そして、車両の積載状態が変化すると、車両の姿勢も変化し、それに伴って、地面に対するカメラの据え付け状態も変化する。すなわち、カメラパラメータが変化して誤差が生じることとなり、そのカメラパラメータの誤差によって、映像にズレが生じるといった問題があった。
このような問題に対し、特許文献1、2には、車両の走行中にカメラパラメータを補正する技術が開示されている。
特許文献1に開示されている車両用カメラのオンラインキャリブレーション方法は、少なくとも二つのカメラで路面の隣接部分を撮像し、画像フレーム内で長手方向の道路特徴を特定し、二つの画像フレーム間の単一のラインに一致するように二つのカメラで撮影された少なくとも二つの画像フレーム内で特定された長手方向の道路特徴を選択し、単一のラインの一致度を分析して二つの画像フレーム間のラインのオフセットを決定し、カメラのキャリブレーションのために決定されたラインのオフセットを適用する方法である。
また、特許文献2に開示されている車両用カメラのオンラインキャリブレーション方法は、カメラで路面の一部を撮像し、画像フレーム内で長手方向の道路特徴を特定し、特定された長手方向の道路特徴に沿ってポイントを抽出すると共に、予め知られたカメラパラメータを考慮した透視マッピングによってその抽出ポイントを仮想道路平面に変換し、変換された抽出ポイントを車両に対して分析してそのポイントの車両に平行なラインからの偏差を決定し、カメラのオフセット補正を定義するために測定された偏差を用いる方法である。
国際公開第2012/143036号 国際公開第2012/139660号
しかしながら、特許文献1に開示されている車両用カメラのオンラインキャリブレーション方法においては、長手方向の特徴量のみを使用してキャリブレーションを実現しようとしているため、特定の外部パラメータを正確に推定できないことが本発明者等による解析により確認されている。
また、特許文献2に開示されている車両用カメラのオンラインキャリブレーション方法においては、白線に対する車両の平行性を利用してキャリブレーションを実現しようとしているため、当該車両が白線に対して平行な場合しかキャリブレーションを実施できないといった問題がある。また、白線に対する車両の平行性を担保するために、車両の速度がある速度(50km)以上である場合しかキャリブレーションが実施されないようになっており、例えば街中などの低速で走行する場合には、キャリブレーションを実施できないといった問題もある。
本発明は、前記問題に鑑みてなされたものであって、その目的とするところは、車両の積載状態が変化する状況下でもキャリブレーションを実施できると共に、例えば白線に対する車両の平行性を利用することなく、全てのカメラパラメータを精緻に推定してキャリブレーションを実施することのできるカメラキャリブレーション装置及びカメラキャリブレーションシステムを提供することにある。
上記する課題を解決するために、本発明に係るカメラキャリブレーション装置は、車両に搭載されて前記車両の周囲の環境を撮影する複数のカメラのキャリブレーションを実施するカメラキャリブレーション装置であって、前記カメラにより撮影した映像を取得する映像取得部と、前記映像から所定の特徴量を抽出する特徴抽出部と、前記所定の特徴量に基づいて前記車両の姿勢を推定する姿勢推定部と、過去に実施したキャリブレーションから得られる情報に基づいてカメラの地面に対する並進方向の位置を補正する並進補正部と、前記車両の姿勢と前記カメラの地面に対する並進方向の位置とに基づいて、カメラの地面に対する姿勢に関するカメラパラメータを算出するカメラパラメータ算出部と、を備えていることを特徴とする。
また、本発明に係るカメラキャリブレーションシステムは、前記カメラキャリブレーション装置と、撮像する映像の一部が重畳もしくは隣接するように前記車両に搭載された前記複数のカメラと、前記カメラキャリブレーション装置から得られる各カメラのカメラパラメータを用いて前記複数のカメラで撮像された映像同士を補正して合成映像を生成する合成映像生成装置と、前記合成映像を表示する表示装置と、を備えていることを特徴とする。
本発明によれば、車両の積載状態が変化する状況下でもキャリブレーションを実施できると共に、例えば白線に対する車両の平行性を利用することなく、全てのカメラパラメータを精緻に推定してキャリブレーションを実施することができるため、あらゆる状況下で車両の積載状態に応じた高精度の俯瞰映像を生成することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明に係るカメラキャリブレーションシステムの実施形態の全体構成を示すシステム構成図。 製品出荷時及び使用時キャリブレーションを実施するまでの手順を説明したフロー図。 使用時キャリブレーションの実施前の俯瞰映像の一例を示す図。 使用時キャリブレーションの実施過程における俯瞰映像の一例を示す図。 使用時キャリブレーションの実施後の俯瞰映像の一例を示す図。 図1に示すカメラキャリブレーション装置の内部構成の一例を示す構成図。 図6に示すカメラキャリブレーション装置によるキャリブレーション処理を説明したフロー図。 図1に示すカメラキャリブレーション装置の内部構成の他例を示す構成図。 図8に示すカメラキャリブレーション装置によるキャリブレーション処理を説明したフロー図。 図1に示すカメラキャリブレーション装置の内部構成の更に他例を示す構成図。 図10に示すカメラキャリブレーション装置によるキャリブレーション処理を説明したフロー図。
以下、本発明に係るカメラキャリブレーション装置及びカメラキャリブレーションシステムの実施形態を図面を参照して説明する。なお、以下では、4台のカメラを使用し、隣接する2台のカメラで撮像した映像の一部が重畳もしくは隣接する場合について説明するが、システム全体のカメラの台数や重畳もしくは隣接部分を撮像するカメラの台数は、使用者等の要請に応じて適宜変更することができる。
<カメラキャリブレーションシステムの実施形態>
図1は、本発明に係るカメラキャリブレーションシステムの実施形態を具現化したシステム構成を示したものである。図示するカメラキャリブレーションシステム100は、主に、4台のカメラ111〜114と、演算装置101と、RAM102と、ROM103と、表示装置104と、車速センサ105と、舵角センサ106と、ヨーレートセンサ107と、入力装置108と、通信装置109とを備えている。
各カメラ111〜114は、車両1に搭載され、例えば当該車両1の前後左右に設置される。例えば、前後に設置されるカメラは、ナンバープレート付近の車体に取り付けられ、左右に設置されるカメラは、サイドミラーの下部などに取り付けられる。ここでは、カメラ111を車両1の前側、カメラ112を車両1の後ろ側、カメラ113を車両1の左側、カメラ114を車両1の右側に取り付けたものとする(図3参照)。各カメラ111〜114は、地面と平行な水平面に対して平行から鉛直下方に向かう方向に光軸が向くように取り付けられる。各カメラ111〜114は、事前に取り決めた既知の設計情報にしたがって取り付けられるが、実際には取り付け誤差が発生しており、この誤差は未知である。また、各カメラ111〜114には、車両1の全周囲の映像を取得できるように、広角の魚眼カメラが採用される。魚眼カメラは広角の映像を取得するために、既知の歪み関数に基づいて画像を歪ませている。各カメラ111〜114で撮影された4つの映像は、演算装置101に送信される。
車速センサ105と舵角センサ106とヨーレートセンサ107は、それぞれ車速、舵角、ヨーレートを観測するセンサであり、各センサで観測されたセンサ情報は演算装置101に送信され、演算装置101における演算処理で利用される。
入力装置108は、例えばスイッチやボタンなどといった、ユーザーの操作を受け付ける装置であり、キャリブレーション機能のオン/オフ、キャリブレーション結果の初期化、キャリブレーション方法の変更などに利用される。ユーザーの操作を介して当該入力装置108に入力された各種情報は、演算装置101に送信される。
通信装置109は、不図示の外部機器との通信に使用される装置であり、演算装置101は、当該通信装置109を介して外部機器から各種情報を受信すると共に、演算装置101で演算された各種情報を外部機器へ送信する。
RAM102には、演算装置101における演算処理過程で必要となる数値データ、演算処理途中の処理結果に対するプログラムの変数などが書き込まれる。また、書き込まれたデータは、演算装置101の演算処理過程で適宜必要に応じて読み出されて演算処理に使用される。また、RAM102には、各カメラ111〜114によって撮影された映像データなども格納される。
ROM103には、例えば、キャリブレーションを実行するプログラムや、プログラムで必要となる情報のうちで書き換えをせずに利用される情報が事前に格納される。例えば、各カメラの設置位置や角度の設計値(外部パラメータ)、各カメラの焦点距離、画素サイズ、光軸中心、歪み関数など(内部パラメータ)のカメラパラメータが格納される。
演算装置101は、各カメラ111〜114や車速センサ105、舵角センサ106、ヨーレートセンサ107、入力装置108、通信装置109などから送信される種々の情報を受け取って、プログラムなどに基づき計算処理を実施する装置である。演算装置101は、例えば、各カメラ111〜114から入力された映像を視点変換・合成し、上方から地面を見下ろしたような映像(俯瞰映像)を生成する計算処理を実施する。詳細には、魚眼カメラからなる各カメラ111〜114で撮影された映像について、ROM103などに事前に格納された既知の歪み関数を用いて映像の歪みを除去した映像を生成し、歪みを除去した各映像を、ROM103などに事前に格納された既知のカメラ取り付けに関する設計値などに基づいて、俯瞰視点から見た映像に視点変換・合成する(合成映像生成装置115)。このような視点変換・合成処理は、公知のカメラの幾何変換式を使って、俯瞰視点映像の特定の画素とそれに対応する各カメラ111〜114の特定の画素を計算し、その画素の輝度値を俯瞰視点映像の画素に割り当てることによって実現できる。対応する画素が小数点を含み、該当する画素がない場合は、公知の輝度の補間処理によって周辺画素の中間輝度を割り当てる処理が行われる。また、演算装置101は、車速センサ105、舵角センサ106、ヨーレートセンサ107、通信装置109の出力結果を用いて演算処理を実行したり、入力装置108の入力結果に従って動作プログラムの切り替え処理を実行する。
また、演算装置101には、視点変換・合成されて生成された俯瞰映像が車両1を真上から見下ろした映像となるように、カメラのキャリブレーション(校正処理)を実施するカメラキャリブレーション装置116が内蔵されている。
表示装置104は、演算装置101の処理結果を受け取り、ディスプレイなどを用いてその処理結果をユーザーに提示する。例えば、ドライバーに対して各カメラ111〜114の4つの映像を視点変換・合成して生成した俯瞰映像を表示する。また、表示装置104は、車両1の後方を撮影するカメラ112の映像だけを表示するなど、演算装置101の出力に従って表示内容を切り替えることもできる。
図2は、製品出荷時及び使用時キャリブレーションを実施するまでの手順を説明したフロー図である。図示するように、製品出荷時のキャリブレーションS205は、例えば、カメラ取り付けS201、乗車状態再現S202、位置調整S203、キャリブレーションチャート撮影S204の後に実施される。
カメラ取り付けS201では、各カメラ111〜114を車体へ取り付け、乗車状態再現S202では、車両1に搭乗者が乗っている状態を再現する。例えば、運転席に体重60キロのドライバーが実際に乗ったり、それに相当する荷物を搭載するなどして、実際に発生する乗車状態を再現する。この乗車状態再現S202を実施する理由は、乗車状態によって車両1の姿勢が変化し、それに伴って地面に対するカメラ111〜114の角度などが変動するからである。カメラ111〜114の角度や位置が、設計した取り付け状態と異なる場合、合成映像における各カメラで撮影された映像同士の境界(以下、画像境界という)にズレが発生するため、この変動した角度等を考慮したうえでキャリブレーションを実施する必要があるので、この乗車状態再現S202によって、それに対応したカメラ取り付け状態を再現する。
位置調整S203では、車両1とキャリブレーションチャートが予め定められた位置関係になるように調整する。一般的なキャリブレーションでは、キャリブレーションチャートとカメラの位置関係を規定の位置関係に定めたうえでキャリブレーションを実施する。
キャリブレーションチャート撮影S204では、車両1に取り付けられたカメラ111〜114で、キャリブレーションチャートを撮影する。
そして、製品出荷時のキャリブレーションS205では、各カメラ111〜114で撮影された映像を使ってキャリブレーションを実施する。その際、例えば、公知の技術によってキャリブレーションを実施する。すなわち、設計通りにカメラ111〜114が取り付けられており、かつ規定の位置にキャリブレーションチャートが設置されている場合に、キャリブレーションチャートが映るべき位置を計算し、実際に撮影した映像中のキャリブレーションチャートがその映るべき位置に映るように、プログラム中の画像変換に使用しているカメラパラメータを調整する。このキャリブレーションS205に関しては、例えば、公知の技術である、キャリブレーションチャートと車両1の位置関係が不定でもキャリブレーションを実施できる技術を利用してもよく、この場合には、位置調整S203の手続きが不要になる。
ところで、このような手順でキャリブレーションを実施する場合、乗車状態再現S202で実施しているように、特定の乗車状態を想定した上でキャリブレーションを実施していることになり、乗車状態が製品出荷時に実施するキャリブレーション時と異なれば、俯瞰映像における映像境界にズレが生じる。したがって、特定の乗車状態でキャリブレーションを実施するだけでは不十分であり、例えば乗車状態に応じて、その都度キャリブレーションを実施する必要がある。そこで、製品出荷された後における走行中や駐停車中などを含む使用時にも、その際の乗車状態に応じたキャリブレーションを実施する。すなわち、図2に示すように、製品出荷時のキャリブレーションS205を実施した後、使用時のキャリブレーションS206を実施する。
使用時のキャリブレーションS206では、上記した問題に対応するために、演算装置101に内蔵されたカメラキャリブレーション装置116により、走行中や駐停車中などの車両1の使用時に各カメラ111〜114で撮影できる周囲環境の情報を用いて、乗車状態に応じたその都度のキャリブレーションを実施する。本実施形態は、例えば図2に示す手順により、工場などで一度キャリブレーションが実施された状態を前提とするものの、白線に対する車両の平行性、すなわち白線と車両の相対的な関係を必要とせずに、全てのカメラ111〜114に対するカメラパラメータを推定できる方式を実現するものである。通常、カメラにより撮影される映像の品質確認等を兼ねて、工場出荷時にはキャリブレーションが実施されるため、制約条件として、一度キャリブレーションが実施されたことを前提としても、得られるメリットは大きいと考えられる。
図3〜図5を参照して、上記したカメラキャリブレーション装置116による使用時のキャリブレーションS206を概説する。
図3は、使用時キャリブレーションの実施前の俯瞰映像の一例を示したものであり、図2のS201〜S205の処理などによる工場での製品出荷時キャリブレーションを実施した後、使用時の車両の積載状態が、製品出荷時キャリブレーションにおいて想定した積載状態から変化したときの俯瞰映像の一例を示したものである。図3に示すように、この俯瞰映像には、道路の白線が表示されているが、車両1の積載状態が事前に想定された積載状態と異なるため、地面に対する各カメラ111〜114の姿勢(角度や位置)が変化しており、各カメラ111〜114の映像境界において、白線にズレが生じている。
そこで、使用時キャリブレーションでは、このような状況において、俯瞰映像を補正して白線等のズレがなくなるように、キャリブレーションを実施する。本実施形態では、できるだけ多くのシーンでキャリブレーションを実施でき、かつ安定したキャリブレーションを実施するために、例えば白線などの長手方向の直線的特徴量(直線状を有する特徴量)を撮影した映像を用いてキャリブレーションを実施する。その際、図3に示すように、車両1の両側に直線的構造物(直線的特徴量、図示例では白線)が撮影されており、少なくとも、カメラ111に2本、カメラ112に2本、カメラ113に1本、カメラ114に1本の直線的構造物が撮影されている必要があり、また、カメラ111およびカメラ112に映る2本の直線的構造物はそれぞれ互いに平行である必要があるが、車両1と直線的構造物の相対的な角度や直線的構造物までの距離などといった、車両1と直線的構造物の相対的な関係は不要である。
より詳細には、この使用時キャリブレーションでは、カメラ111〜114のパラメータを直接推定せず、車両1の姿勢、すなわち車両1の姿勢を表すパラメータを推定し、車両1の姿勢を表すパラメータから各カメラ111〜114のカメラパラメータを推定して上記キャリブレーションを実施する。車両1の姿勢を推定するステップは、車両1のピッチ角を推定するステップと、車両1のロール角・高さを同時に推定するステップとに分かれている。車両1のピッチ角を推定するステップでは、車両1の前後に設置されたカメラ111およびカメラ112で撮影された平行な直線の平行性に基づいて車両1のピッチ角の推定を行う。車両1のピッチ角を推定してカメラパラメータの補正を実施すると、図4で示すような俯瞰映像が得られる。ここでは、カメラ111およびカメラ112に映る平行な直線が俯瞰映像上で平行になるようにカメラパラメータが補正される。その後、車両1のロール角・高さを同時に推定するステップでは、俯瞰映像の映像境界における直線のズレがなくなるように、車両1のロール角および高さを推定する。このように車両1のロール角および高さを推定してカメラパラメータの補正を実施し、車両姿勢の変動に伴った全カメラのカメラパラメータを推定してキャリブレーションを実施した結果、図5に示すように、映像境界においてズレのない俯瞰映像が得られる。
<カメラキャリブレーション装置の実施形態1>
図6は、図1に示すカメラキャリブレーション装置の内部構成の一例(実施形態1)を示したものであり、上記した使用時キャリブレーションを具現化し得るカメラキャリブレーション装置の内部構成を示したものである。また、図7は、図6に示すカメラキャリブレーション装置によるキャリブレーション処理を説明したフロー図である。なお、図6に示すカメラキャリブレーション装置によるキャリブレーション処理は、ROM103に予め格納されたプログラムがロードされて実施される。
図6に示すカメラキャリブレーション装置116は、主に、キャリブレーション実施判定部201と、映像取得部202と、特徴抽出部203と、キャリブレーション部204と、を備えている。
カメラキャリブレーション装置116のキャリブレーション実施判定部201は、カメラのキャリブレーションの実施が必要であるか否かを判定する(図7のS701)。例えば、各カメラ111〜114で撮影された俯瞰映像を構成する4つの映像の全てに白線が映っているシーンに関し、俯瞰映像の各映像境界において白線にズレが発生しているか否かを判定することで、カメラのキャリブレーションの実施が必要か否かを自動的に判定する。ここで、白線にズレが発生しているか否かは、例えば、映像から白線を公知の技術を用いて認識し、その映像中での位置を算出し、予め指定した映像境界位置における位置のズレ量を測定し、そのズレ量が予め指定した閾値を超えているか否かで判定することができる。また、例えばジャイロセンサなどといった車両の姿勢変化を直接推定するセンサを用いて、車両への積載状況が変化したことを検知することで、キャリブレーションの実施が必要か否かを判定するなどの方法を用いてもよい。また、後述する特徴抽出部203により抽出された直線的特徴量(例えばRAM102に一時的に格納された、破線を含む白線、縁石、道路端境界などに関する情報)などを利用し、俯瞰映像の各映像境界における直線的特徴量のズレ量と共に、映像中の車両の両側(周囲)にある互いに平行な直線的特徴量の平行性を用いて、カメラのキャリブレーションの実施が必要か否かを判定するなどの方法を用いてもよい。
キャリブレーション実施判定部201によりカメラのキャリブレーションの実施が必要であると判断された場合、映像取得部202は、車両1に取り付けられた4つのカメラ111〜114で撮影された映像をRAM102から取得する(図7のS702)。なお、各カメラ111〜114で撮影された映像に同期ズレがあると、それがキャリブレーションの誤差としてあらわれるため、RAM102には、各カメラ111〜114で撮影された映像が完全に同期して保存されるか、あるいは、映像のズレ時間を取得できるかの仕組みがあることが望ましい。なお、映像取得部202は、各カメラ111〜114から直接映像を取得してもよい。
特徴抽出部203は、映像取得部202で取得された各カメラ111〜114で撮影された映像において、キャリブレーションに用いる所定の特徴量、特に長手方向(すなわち、車両の前後方向)の直線的特徴量(例えば、破線を含む白線、縁石、道路端境界など)を抽出する(図7のS703)。この直線的特徴量は、例えば、各カメラ111〜114において、設計された歪み関数を用いて魚眼カメラの歪みを除去した映像を生成し、その映像において公知のエッジ抽出を実施し、エッジ特徴点に関して公知のハフ変換を用いる手法などによって抽出できる。
キャリブレーション部204は、特徴抽出部203で得られた特徴量などを利用してカメラのキャリブレーションを実施する。このキャリブレーション部204でのキャリブレーション処理は、工場などで一度キャリブレーションが実施された状態を前提とするものの、長手方向の特徴量に対する車両の平行性、すなわち長手方向の特徴量と車両の相対的な関係は必要とせず、長手方向の特徴量のみで全てのカメラパラメータを推定できる。このキャリブレーション処理では、各カメラ111〜114におけるカメラパラメータを直接推定するのではなく、車両1の姿勢を推定し、その車両1の姿勢を介して全てのカメラパラメータを推定する。各カメラは剛体である車体に取り付けられているため、車体の姿勢変化が発生した場合には、それに連動して各カメラの角度や位置も変動する。例えば、車両1の前側の座席に乗員が乗り、車両1の前側が沈み込めば、車両1の前側に取り付けられたカメラ111の角度は下向きになり、車両1の後ろ側に取り付けられたカメラ112は同じ量の角度だけ上向きになる。車両1の右側の座席に乗員が乗り、車両1の右側が沈み込めば、車両1の右側に取り付けられたカメラ114の角度は下向きになり、車両1の左側に取り付けられたカメラ113の角度は同じ量だけ上向きになる。また、その際には、車両1の前側に取り付けられたカメラ111と車両1の後ろ側に取り付けられたカメラ112は光軸に対してやや右側に回転する。このように、各カメラ111〜114の変動は車体姿勢の変動に連動する。また、車体姿勢の変動に対して、これらのカメラ111〜114の変動は一意に決定されることとなる。このような各カメラ111〜114の車体への連動性を考慮しつつカメラパラメータを推定するために、このキャリブレーション部204でのキャリブレーション処理では、各カメラ111〜114のカメラパラメータを個別に推定するのではなく、車両1の姿勢の推定を実施し、推定された車両1の姿勢から各カメラパラメータを計算する。
より詳細には、映像中の長手方向の直線のみを用いてキャリブレーションを実施する場合、各カメラ111〜114個別でカメラパラメータを推定すると、推定不可能なパラメータがある。例えば、仮に車両1と直線の平行性を用いてキャリブレーションを実施する場合、車両1の前側に取り付けられたカメラ111のロール角は、映像中の白線が完全に縦向きになるように補正すれば求めることができる。また、車両1の前側に取り付けられたカメラ111のピッチ角も、直線が複数本撮影されていれば、それらはともに車両1に対して平行であり、且つ直線同士も平行であるため、その直線の平行性を満たすように補正することで推定できる。しかしながら、車両1の前側に取り付けられたカメラ111のヨー角については、ヨー角を変動させても直線の平行性や映像中の直線の角度が変動しないため、補正するための特徴が不足しており、一意に決定することができない。そのため、カメラパラメータを推定することができず、完全にズレのない俯瞰映像を生成することができない。
それに対し、走行中などの使用中の車両1の姿勢推定を介してキャリブレーションを実施する場合には、長手方向の直線と車両の相対的な関係がない場合でも、長手方向の直線のみを用いて全てのカメラパラメータを推定できる。あるカメラパラメータを推定するためには、そのカメラパラメータの変動に対して、何らかの観測可能な変化があらわれなければならないが、車両姿勢のパラメータが変動する場合には、観測可能な長手方向の直線に変化があらわれる。具体的には、車両1のピッチ角が変動した場合、俯瞰映像における長手方向の直線の平行性が変化する。また、車両1のロール角が変動した場合、俯瞰映像の映像境界に長手方向の直線のズレが発生する。また、車両1の高さが変動した場合、車両1のロール角が変動する場合とは異なる長手方向の直線のズレが俯瞰映像の映像境界にて発生する。したがって、映像中の長手方向の直線のみで車両姿勢のパラメータを推定でき、車両姿勢が決まれば、車両1に取り付けられた各カメラ111〜114の位置や角度を計算できるため、映像中の長手方向の直線のみで全てのカメラパラメータを推定できる。
ただし、このキャリブレーション処理は、工場出荷時などにキャリブレーションが予め実施されている必要がある。工場出荷時にキャリブレーションが完了している場合、そのキャリブレーション時に想定した積載状態においては俯瞰映像にズレがない状態となっている。俯瞰映像におけるズレは、車両1の積載状態の変化に伴う車両姿勢の変動が原因で発生したものであるため、その車両姿勢の変動に伴うカメラ姿勢の変動をキャンセルすれば、元のズレがない俯瞰映像に戻すことができる。したがって、車両姿勢を推定し、その変動に伴うカメラの角度や位置を計算することで、ズレのない俯瞰映像を生成することができる。逆に言えば、キャリブレーションが予め実施されていない場合には、車両姿勢の変動分のカメラ角度や位置の補正を実施しても、初期の未キャリブレーション状態に戻るだけであって、映像のズレは残されたままとなるため、ズレのない俯瞰映像を生成することができない。そのため、このキャリブレーション処理では、事前にキャリブレーションが実施されている必要がある。
具体的には、キャリブレーション部204は、姿勢推定部301と並進補正部304とカメラパラメータ算出部305とを有し、姿勢推定部301は、ピッチ角推定302とロール角・高さ・回転中心推定部303とから構成されている。
姿勢推定部301のピッチ角推定302は、例えば、車両1の前後に取り付けられたカメラ111、112で撮影された映像における長手方向の直線(直線的特徴量)の平行性を用いて、車両1のピッチ角推定を実施する(図7のS704)。道路に描かれている白線、または、白線と道路端境界などといった平行な直線が走行中に撮影された場合、この平行な直線は、理想的な俯瞰視点映像においては、平行に表示されるはずである。しかし、車両1のピッチ角の変動がある場合、俯瞰視点映像においてこの平行な直線は「ハの字」状に表示され、平行ではなくなる。カメラ111、112を俯瞰視点に変換した場合に、その直線が平行になるように、車両1のピッチ角を推定する。詳細には、カメラ111、112のそれぞれにおける直線方程式の平行性に基づいて、例えば直線ベクトルの内積を評価関数とし、その内積がカメラ111、112ともにできるだけ1に近い値になるように、車両1のピッチ角の最適化を実施する。ここで使用される直線(直線的特徴量)については、上記した特徴抽出部203で得られている。なお、上記最適化は、最急降下法などの公知の技術を用いれば実現できる。すなわち、例えば、車両1のピッチ角に関する評価関数を求め、評価関数が目的の値に近づくように、車両1のピッチ角を微小変化させる処理を繰り返し実施すればよい。
姿勢推定部301のロール角・高さ・回転中心推定部303は、俯瞰映像の映像境界にあらわれている長手方向の直線(直線的特徴量)のズレがなくなるように、車両1のロール角、車両1の高さ、車両1の回転中心を推定する(図7のS705)。ここで、車両1のピッチ角については、ピッチ角推定部302で得られたピッチ角に固定する。詳細には、俯瞰映像の映像境界にあらわれている長手方向の直線のズレを表す評価関数を設計し、その評価関数が最小となるように、車両1のロール角、車両1の高さ、車両1の回転中心に関する各パラメータを最適化する。ここで、評価関数は、例えば、俯瞰映像の映像境界における直線のズレを、カメラ111とカメラ113の映像境界、カメラ111とカメラ114の映像境界、カメラ112とカメラ113の映像境界、カメラ112とカメラ114の映像境界でそれぞれ算出し、それらの総和をとったものとする。ここで使用される直線(直線的特徴量)については、上記した特徴抽出部203で得られている。なお、上記最適化は、公知の技術を用いて実施されるが、推定するパラメータが複数あるため、最急降下法などのような勾配法に基づくものではなく、大域的最適化法を選択することが望ましい。車両1のロール角、車両1の高さ、車両1の回転中心を微小変化させる処理を、俯瞰映像の映像境界における直線のズレを表す評価関数が最小化されるように繰り返し実施する。なお、ここでは、車両1の回転中心によって、各カメラパラメータが異なることを考慮し、車両1の回転中心も含めて最適化を実施する。
並進補正部304は、過去に実施したキャリブレーションから得られる情報などに基づいて、地面に対する車両1の並進(地面に対して平行な方向への移動)に相当するパラメータ(並進パラメータ)、すなわちカメラの高さを除く並進方向の位置(平面視における位置)を補正する(図7のS706)。ここでは、地面とカメラの絶対的な距離を示す情報を測定していないために、地面に対するカメラの位置を推定することはできないが、実際に生じ得る車体姿勢の変動の範囲では、カメラの並進方向のズレは極めて小さいため、例えばROM103等に保存された製品出荷時キャリブレーションを実施した際の値を利用する。カメラ同士の相対的な位置は、ロール角・高さ・回転中心推定部303によって得られているため、基準となるカメラ(基準カメラ)を一つ選定し(例えばカメラ111)、カメラ111の製品出荷時キャリブレーションの値と現在の値の並進方向の誤差分をキャンセルするように、カメラ111〜114の全ての位置を並進補正する。
カメラパラメータ算出部305は、姿勢推定部301で得られた車両1の姿勢と並進補正部304で得られたパラメータから、その車両1の姿勢に対応した各カメラ111〜114の姿勢に関するカメラパラメータを算出する(図7のS707)。なお、座標変換によって、対応する各カメラ111〜114のカメラパラメータを一意に計算できる。
このような構成とすることで、長手方向の特徴量に対する車両の平行性、すなわち長手方向の特徴量と車両の相対的な関係を必要とせず、長手方向の特徴量のみで、全てのカメラのカメラパラメータを精緻に推定でき、そのカメラパラメータを用いて車両の積載状態に応じた高精度の俯瞰映像を生成することができる。
<カメラキャリブレーション装置の実施形態2>
ところで、上記した使用時キャリブレーションを実施する際には、例えば、映像から長手方向の直線的特徴量を確実に抽出するために、当該車両が直線路を走行している状態(定常走行状態)で実施することが好ましい。
図8は、図1に示すカメラキャリブレーション装置の内部構成の他例(実施形態2)を示したものである。また、図9は、図8に示すカメラキャリブレーション装置によるキャリブレーション処理を説明したフロー図である。図8に示す形態のカメラキャリブレーション装置116Aは、図6に示すカメラキャリブレーション装置116に対して、主にセンサ情報取得部と定常走行判定部とデータ利用可否判定部を追加した点が相違しており、その他の構成はほぼ同様である。したがって、以下では、図6に示すカメラキャリブレーション装置116と異なる構成のみを詳述し、カメラキャリブレーション装置116と同様の構成には同様の符号を付してその詳細な説明は省略する。
図8に示すカメラキャリブレーション装置116Aは、主に、キャリブレーション実施判定部201Aと、映像取得部202Aと、特徴抽出部203Aと、キャリブレーション部204Aと、を備えると共に、センサ情報取得部205Aと、定常走行状態判定部206Aと、データ利用可否判定部207Aと、を備えている。
キャリブレーション実施判定部201Aが、カメラのキャリブレーションの実施が必要であるか否かを判定し(図9のS901)、カメラのキャリブレーションの実施が必要であると判断された場合、映像取得部202Aが、車両1に取り付けられた4つのカメラ111〜114で撮影された映像をRAM102から取得する(図9のS902)。それと共に、センサ情報取得部205Aは、車速センサ105、舵角センサ106、ヨーレートセンサ107などの各種センサのセンサ情報を取得する(図9のS903)。ここで、これらのセンサ情報は、映像と同期して取得されることが望ましい。なお、図9に示すS902とS903は、同時に実施してもよいし、S903の後にS902を実施してもよい。
定常走行状態判定部206Aは、車両が定常走行状態であるか否かを判定する(図9のS904)。ここで、定常走行状態とは、加減速や旋回による車両姿勢の変化がなく、直線路を走行している状態である。加減速や旋回による車両姿勢の変化がなく、直線路を走行していることを判定する理由は、車両姿勢が異なる際の映像は、カメラパラメータがそれぞれ異なり、キャリブレーション実施時の特徴量として同時に利用することはできないためであり、また、車両姿勢推定等に用いる特徴量として長手方向の直線的特徴量(例えば、破線を含む白線、縁石、道路端境界など)を用いるので、カーブ走行中などのキャリブレーションに必要な情報がとれないシーンの映像を除外するためである。加減速や旋回による車両姿勢の変化がないことのうち、例えば、加減速がないことは、車速センサ105から取得した情報に基づき、一定車速が一定時間続いていることなどから判定することができる。旋回による変化がないことは、例えば、ヨーレートセンサ107から取得した情報の絶対値が0に近い予め定めた一定の閾値よりも小さいことなどから判定することができる。また、一定以上の速度で舵角(舵角センサ106から取得した情報)が0に近い予め定めた一定の閾値よりも小さい値をとる場合には、ドライバーの操作状況から直線を走行しているとみなすこともできる。
定常走行状態判定部206Aにより車両が定常走行状態であると判定された場合、特徴抽出部203Aは、各カメラ111〜114で撮影された映像からキャリブレーションに用いる所定の特徴量を抽出する(図9のS905)。一方、車両が定常走行状態でないと判定された場合には、各カメラ111〜114で撮影された映像はキャリブレーションに用いることができないために棄却し、次のシーンの映像や各種センサのセンサ情報を取得する。
データ利用可否判定部207Aは、各カメラ111〜114で撮影された映像にキャリブレーションに利用可能な平行な白線(直線的特徴量)が映っているか否かを判定する(図9のS906)。詳細には、データ利用可否判定部207Aは、カメラ111〜114に映っている白線(直線的特徴量)を画像認識し、特徴抽出部203Aにより抽出した特徴量が直線状に並んでいること、及び、過去に撮影した映像と現時点で撮影された白線の映り方の差分が小さいことの双方を満たすか否かを判定する。特徴抽出部203Aにより抽出した特徴量が直線状に並んでいるか否かは、その白線の直線度を測定することで判定することができる。たとえば、白線の各エッジ点を直線フィッティングし、フィッティング誤差が予め定めたある一定の値以下である場合には、直線であるとみなすことができ、フィッティング誤差が予め定めたある一定の値よりも大きい場合には、直線ではないとみなすことができる。また、過去に撮影した映像と現時点で撮影された白線の映り方の差分が小さいか否かは、たとえば、車両ピッチ角推定処理と同様に白線が平行になる角度を算出し、過去に算出された角度の平均値からの角度誤差が予め定めたある一定の値以下である場合には、差分が小さいとみなすことができ、角度誤差が予め定めたある一定の値よりも大きい場合には、差分が大きいとみなすことができる。
データ利用可否判定部207Aによりデータ利用可能であると判定された場合、キャリブレーション部204Aは、上記と同様、特徴抽出部203Aで得られた特徴量などを利用して、各カメラの各カメラパラメータを算出してキャリブレーションを実施する(図9のS907〜S910)。一方、データ利用不可であると判定された場合には、各カメラ111〜114で撮影された映像はキャリブレーションに用いることができないために棄却し、次のシーンの映像や各種センサのセンサ情報を取得する。
このような構成とすることで、長手方向の特徴量に対する車両の平行性、すなわち長手方向の特徴量と車両の相対的な関係を必要とせず、長手方向の特徴量のみで、全てのカメラのカメラパラメータをより精緻に且つ効率的に推定でき、そのカメラパラメータを用いて車両の積載状態に応じたより高精度の俯瞰映像を生成することができる。
<カメラキャリブレーション装置の実施形態3>
また、上記した使用時キャリブレーションを実施する際には、同じ位置で撮影された直線的特徴量はデータとして意味がないため、映像中における違う位置で撮影された直線的特徴量が複数集められたことを確認した上で実施することが好ましい。
図10は、図1に示すカメラキャリブレーション装置の内部構成の更に他例(実施形態3)を示したものである。また、図11は、図10に示すカメラキャリブレーション装置によるキャリブレーション処理を説明したフロー図である。図10に示す形態のカメラキャリブレーション装置116Bは、図8に示すカメラキャリブレーション装置116Aに対して、主にデータ蓄積判定部を追加した点が相違しており、その他の構成はほぼ同様である。したがって、以下では、図8に示すカメラキャリブレーション装置116Aと異なる構成のみを詳述し、カメラキャリブレーション装置116Aと同様の構成には同様の符号を付してその詳細な説明は省略する。
図10に示すカメラキャリブレーション装置116Bは、主に、キャリブレーション実施判定部201Bと、映像取得部202Bと、特徴抽出部203Bと、キャリブレーション部204Bと、センサ情報取得部205Bと、定常走行状態判定部206Bと、データ利用可否判定部207Bと、を備えると共に、データ蓄積判定部208Bを備えている。
キャリブレーション実施判定部201Bが、カメラのキャリブレーションの実施が必要であるか否かを判定し(図11のS1101)、カメラのキャリブレーションの実施が必要であると判断された場合、映像取得部202Bが、車両1に取り付けられた4つのカメラ111〜114で撮影された映像をRAM102から取得する(図11のS1102)と共に、センサ情報取得部205Bが、各種センサのセンサ情報を取得する(図11のS1103)。
定常走行状態判定部206Bは、センサ情報取得部205Bで得られたセンサ情報等に基づいて、車両が定常走行状態であるか否かを判定し(図11のS1104)、車両が定常走行状態であると判定された場合、特徴抽出部203Bは、各カメラ111〜114で撮影された映像からキャリブレーションに用いる所定の特徴量を抽出する(図11のS1105)。また、データ利用可否判定部207Bは、特徴抽出部203Bにより抽出された抽出データ等に基づいて、その抽出データがキャリブレーションに利用可能であるか否かを判定し(図11のS1106)、データ利用可能であると判定された場合、その抽出データをデータ蓄積部としてのRAM102などに保存・蓄積していく(図11のS1107)。例えば、特徴抽出部203Bは、当該特徴抽出部203Bで得られた直線を表す方程式の係数を保存する。
データ蓄積判定部208Bは、キャリブレーションに必要な十分の量のデータが蓄積されてデータ蓄積が完了したか否かを判定する(図11のS1108)。車両1に取付けられたカメラ111〜114のそれぞれについて、同じ位置に撮影された直線的特徴量(例えば、破線を含む白線、縁石、道路端境界など)はデータとして意味がないため、違う位置(車両1の周囲の前後左右等)に撮影された直線的特徴量が複数集める必要がある。そこで、データ蓄積判定部208Bは、例えば、カメラ111〜114のそれぞれについて、予め幾つかの領域を設定しておき、その各領域を通る直線データが全領域について万遍無く得られたか否かを判断して、キャリブレーションに必要な量のデータが蓄積されたか否かを判定する。
データ蓄積判定部208Bによりキャリブレーションに必要な量のデータが蓄積されたと判定された場合、キャリブレーション部204Bは、データ蓄積部としてのRAM102などに蓄積された特徴量などを利用して、各カメラの各カメラパラメータを算出してキャリブレーションを実施する(図11のS1109〜S1112)。
このような構成とすることで、長手方向の特徴量に対する車両の平行性、すなわち長手方向の特徴量と車両の相対的な関係を必要とせず、長手方向の特徴量のみで、全てのカメラのカメラパラメータを更に精緻に且つ効率的に推定でき、そのカメラパラメータを用いて車両の積載状態に応じた更に高精度の俯瞰映像を生成することができる。
このように、本実施形態によれば、映像から抽出される所定の特徴量、特に直線的特徴量に基づいて車両の姿勢を推定し、製品出荷時などの過去に実施したキャリブレーションから得られる情報に基づいてカメラの地面に対する並進方向の位置を補正し、その車両の姿勢とカメラの地面に対する並進方向の位置とに基づいて、カメラの地面に対する姿勢に関するカメラパラメータを算出することにより、車両の積載状態が変化する状況下でもキャリブレーションを実施できると共に、例えば白線に対する車両の平行性を利用するといった制約を設けることなく、全てのカメラパラメータを精緻に推定してキャリブレーションを実施することができるため、あらゆる状況下で車両の積載状態に応じた高精度の俯瞰映像を生成することができる。
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1 車両
100 カメラキャリブレーションシステム
101 演算装置
102 RAM(データ蓄積部)
103 ROM
104 表示装置
105 車速センサ
106 舵角センサ
107 ヨーレートセンサ
108 入力装置
109 通信装置
111〜114 カメラ
115 合成映像生成装置
116 カメラキャリブレーション装置
201 キャリブレーション実施判定部
202 映像取得部
203 特徴抽出部
204 キャリブレーション部
205A センサ情報取得部
206A 定常走行状態判定部
207A データ利用可否判定部
208B データ蓄積判定部
301 姿勢推定部
302 ピッチ角推定部
303 ロール角・高さ・回転中心推定部
304 並進推定部
305 カメラパラメータ算出部

Claims (13)

  1. 車両に搭載されて前記車両の周囲の環境を撮影する複数のカメラのキャリブレーションを実施するカメラキャリブレーション装置であって、
    前記カメラにより撮影した映像を取得する映像取得部と、
    前記映像から所定の特徴量を抽出する特徴抽出部と、
    前記所定の特徴量に基づいて前記車両の姿勢を推定する姿勢推定部と、
    過去に実施したキャリブレーションから得られる情報に基づいてカメラの地面に対する並進方向の位置を補正する並進補正部と、
    前記車両の姿勢と前記カメラの地面に対する並進方向の位置とに基づいて、カメラの地面に対する姿勢に関するカメラパラメータを算出するカメラパラメータ算出部と、を備えていることを特徴とするカメラキャリブレーション装置。
  2. 前記並進補正部は、前記複数のカメラから選択される基準カメラの地面に対する並進方向の位置と前記車両の姿勢とに基づいて、各カメラの地面に対する並進方向の位置を補正することを特徴とする、請求項1に記載のカメラキャリブレーション装置。
  3. 前記姿勢推定部は、前記所定の特徴量に基づいて前記車両のピッチ角を推定するピッチ角推定部と、前記所定の特徴量に基づいて前記車両のロール角と高さと回転中心とを推定するロール角・高さ・回転中心推定部と、を有することを特徴とする、請求項1に記載のカメラキャリブレーション装置。
  4. 前記特徴抽出部は、前記映像から直線状を有する直線的特徴量を抽出すると共に、
    前記姿勢推定部は、前記映像中の前記車両の周囲にある互いに平行な直線的特徴量の平行性と、前記映像から生成される合成映像における各カメラで撮像された映像の境界でのズレ量と、に基づいて前記車両の姿勢を推定することを特徴とする、請求項1に記載のカメラキャリブレーション装置。
  5. 前記カメラキャリブレーション装置は、キャリブレーションを実施するか否かを判定するキャリブレーション実施判定部を更に備えていることを特徴とする、請求項1に記載のカメラキャリブレーション装置。
  6. 前記特徴抽出部は、前記映像から直線状を有する直線的特徴量を抽出すると共に、
    前記キャリブレーション実施判定部は、前記映像中の前記車両の周囲にある互いに平行な直線的特徴量の平行性と、前記映像から生成される合成映像における各カメラで撮像された映像の境界でのズレ量と、に基づいてキャリブレーションを実施するか否かを判定することを特徴とする、請求項5に記載のカメラキャリブレーション装置。
  7. 前記カメラキャリブレーション装置は、前記車両の速度、舵角、及びヨーレートから選択される少なくとも一つに基づいて、前記車両が定常走行状態であるか否かを判定する定常走行状態判定部を更に備えていることを特徴とする、請求項1に記載のカメラキャリブレーション装置。
  8. 前記カメラキャリブレーション装置は、前記映像にキャリブレーションに利用可能な特徴量が映っているか否かを判定するデータ利用可否判定部を更に備えていることを特徴とする、請求項1に記載のカメラキャリブレーション装置。
  9. 前記データ利用可否判定部は、前記特徴抽出部により前記映像から抽出された直線状の直線的特徴量に基づいて、前記映像にキャリブレーションに利用可能な特徴量が映っているか否かを判定することを特徴とする、請求項8に記載のカメラキャリブレーション装置。
  10. 前記カメラキャリブレーション装置は、前記所定の特徴量を蓄積するデータ蓄積部と、前記データ蓄積部におけるデータ蓄積が完了したか否かを判定するデータ蓄積判定部と、を更に備えていることを特徴とする、請求項1に記載のカメラキャリブレーション装置。
  11. 前記特徴抽出部は、前記映像から直線状を有する直線的特徴量を抽出すると共に、
    前記データ蓄積判定部は、前記映像中で前記直線的特徴量が映っている位置に基づいてデータ蓄積が完了したか否かを判定することを特徴とする、請求項10に記載のカメラキャリブレーション装置。
  12. 前記姿勢推定部は、前記データ蓄積部に蓄積された前記所定の特徴量に基づいて前記車両の姿勢を推定することを特徴とする、請求項10に記載のカメラキャリブレーション装置。
  13. 請求項1に記載のカメラキャリブレーション装置と、撮像する映像の一部が重畳もしくは隣接するように前記車両に搭載された前記複数のカメラと、前記カメラキャリブレーション装置から得られる各カメラのカメラパラメータを用いて前記複数のカメラで撮像された映像同士を補正して合成映像を生成する合成映像生成装置と、前記合成映像を表示する表示装置と、を備えていることを特徴とするカメラキャリブレーションシステム。
JP2014201547A 2014-09-30 2014-09-30 カメラキャリブレーション装置及びカメラキャリブレーションシステム Active JP6371185B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014201547A JP6371185B2 (ja) 2014-09-30 2014-09-30 カメラキャリブレーション装置及びカメラキャリブレーションシステム
PCT/JP2015/077517 WO2016052505A1 (ja) 2014-09-30 2015-09-29 カメラキャリブレーション装置及びカメラキャリブレーションシステム
EP15845604.6A EP3203724B1 (en) 2014-09-30 2015-09-29 Camera calibration device and camera calibration system
CN201580020606.4A CN106233711B (zh) 2014-09-30 2015-09-29 摄像机校准装置以及摄像机校准系统
US15/306,672 US10594943B2 (en) 2014-09-30 2015-09-29 Camera calibration device and camera calibration system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014201547A JP6371185B2 (ja) 2014-09-30 2014-09-30 カメラキャリブレーション装置及びカメラキャリブレーションシステム

Publications (2)

Publication Number Publication Date
JP2016070814A true JP2016070814A (ja) 2016-05-09
JP6371185B2 JP6371185B2 (ja) 2018-08-08

Family

ID=55630532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014201547A Active JP6371185B2 (ja) 2014-09-30 2014-09-30 カメラキャリブレーション装置及びカメラキャリブレーションシステム

Country Status (5)

Country Link
US (1) US10594943B2 (ja)
EP (1) EP3203724B1 (ja)
JP (1) JP6371185B2 (ja)
CN (1) CN106233711B (ja)
WO (1) WO2016052505A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180012494A (ko) * 2016-07-27 2018-02-06 현대모비스 주식회사 차량용 카메라 공차 보정 방법 및 그 장치
JP2018157496A (ja) * 2017-03-21 2018-10-04 クラリオン株式会社 キャリブレーション装置
JP2018160848A (ja) * 2017-03-23 2018-10-11 日産自動車株式会社 表示装置の制御方法および表示装置
JP2018177004A (ja) * 2017-04-13 2018-11-15 クラリオン株式会社 車載カメラのキャリブレーション装置
WO2019053929A1 (ja) 2017-09-12 2019-03-21 株式会社Jvcケンウッド 車両用装置、キャリブレーション結果判定システム、および、キャリブレーション結果判定方法、ならびに、プログラム
KR20190061136A (ko) * 2017-11-27 2019-06-05 현대모비스 주식회사 후방카메라의 캘리브레이션 장치 및 방법
JP2019100985A (ja) * 2017-12-07 2019-06-24 コニカミノルタ株式会社 3次元情報取得システム
WO2019176930A1 (ja) * 2018-03-15 2019-09-19 株式会社 村上開明堂 合成映像作成装置および合成映像作成方法並びに合成映像作成プログラム
DE102019107835A1 (de) 2018-03-30 2019-10-02 Panasonic Intellectual Property Management Co., Ltd. Bildkombiniervorrichtung, Verfahren zum Kombinieren von Bildern und Programm
JP2020060976A (ja) * 2018-10-10 2020-04-16 クラリオン株式会社 キャリブレーション装置及びキャリブレーション方法
JP2021513247A (ja) * 2018-06-05 2021-05-20 上▲海▼商▲湯▼智能科技有限公司Shanghai Sensetime Intelligent Technology Co., Ltd. 車載カメラ自己校正方法、車載カメラ自己校正装置、電子機器および記憶媒体

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9884623B2 (en) * 2015-07-13 2018-02-06 GM Global Technology Operations LLC Method for image-based vehicle localization
WO2017056484A1 (ja) * 2015-09-28 2017-04-06 京セラ株式会社 画像処理装置、ステレオカメラ装置、車両及び画像処理方法
KR102457264B1 (ko) * 2016-05-02 2022-10-20 현대모비스 주식회사 어라운드 뷰 모니터링 시스템 및 이의 카메라 자동 공차 보정 방법
JP6614042B2 (ja) * 2016-06-15 2019-12-04 株式会社Jvcケンウッド 姿勢変化判定装置、俯瞰映像生成装置、俯瞰映像生成システム、姿勢変化判定方法およびプログラム
CN107945136B (zh) * 2017-12-04 2021-09-24 深圳市路畅科技股份有限公司 一种鱼眼图像矫正方法、系统、设备及计算机存储介质
JP7314486B2 (ja) * 2018-09-06 2023-07-26 株式会社アイシン カメラキャリブレーション装置
JP7148064B2 (ja) * 2018-10-25 2022-10-05 株式会社アイシン カメラパラメータ推定装置、カメラパラメータ推定方法、およびカメラパラメータ推定プログラム
JP7188228B2 (ja) * 2019-03-27 2022-12-13 株式会社デンソーテン 画像生成装置
US10997737B2 (en) * 2019-05-02 2021-05-04 GM Global Technology Operations LLC Method and system for aligning image data from a vehicle camera
JP7251310B2 (ja) * 2019-05-22 2023-04-04 株式会社Jvcケンウッド カメラ位置検出装置、カメラユニット、カメラ位置検出方法、及びプログラム
WO2020263498A1 (en) * 2019-06-25 2020-12-30 Snap Inc. Vanishing point stereoscopic image correction
DE102019211459B4 (de) 2019-07-31 2021-02-18 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
US11885893B2 (en) * 2019-08-12 2024-01-30 Motional Ad Llc Localization based on predefined features of the environment
JP7065068B2 (ja) * 2019-12-13 2022-05-11 本田技研工業株式会社 車両周囲監視装置、車両、車両周囲監視方法およびプログラム
CN116328278A (zh) * 2023-03-06 2023-06-27 浙江大沩人工智能科技有限公司 一种多人跑步的实时测速方法、系统、装置和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013115540A (ja) * 2011-11-28 2013-06-10 Clarion Co Ltd 車載カメラシステム及びその較正方法、及びその較正プログラム
JP2014074591A (ja) * 2012-10-02 2014-04-24 Denso Corp キャリブレーション方法、及びキャリブレーション装置
JP2014074632A (ja) * 2012-10-03 2014-04-24 Isuzu Motors Ltd 車載ステレオカメラの校正装置及び校正方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4832321B2 (ja) * 2007-01-26 2011-12-07 三洋電機株式会社 カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
JP5064601B2 (ja) * 2009-06-29 2012-10-31 パナソニック株式会社 車載用映像表示装置
WO2012139660A1 (en) 2011-04-15 2012-10-18 Connaught Electronics Limited Online vehicle camera calibration based on road marking extractions
WO2012143036A1 (en) 2011-04-18 2012-10-26 Connaught Electronics Limited Online vehicle camera calibration based on continuity of features
WO2012145822A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
JP5923422B2 (ja) * 2012-09-24 2016-05-24 クラリオン株式会社 カメラのキャリブレーション方法及び装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013115540A (ja) * 2011-11-28 2013-06-10 Clarion Co Ltd 車載カメラシステム及びその較正方法、及びその較正プログラム
JP2014074591A (ja) * 2012-10-02 2014-04-24 Denso Corp キャリブレーション方法、及びキャリブレーション装置
JP2014074632A (ja) * 2012-10-03 2014-04-24 Isuzu Motors Ltd 車載ステレオカメラの校正装置及び校正方法

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180012494A (ko) * 2016-07-27 2018-02-06 현대모비스 주식회사 차량용 카메라 공차 보정 방법 및 그 장치
KR102528003B1 (ko) * 2016-07-27 2023-05-02 현대모비스 주식회사 차량용 카메라 공차 보정 방법 및 그 장치
JP2018157496A (ja) * 2017-03-21 2018-10-04 クラリオン株式会社 キャリブレーション装置
JP2018160848A (ja) * 2017-03-23 2018-10-11 日産自動車株式会社 表示装置の制御方法および表示装置
JP2018177004A (ja) * 2017-04-13 2018-11-15 クラリオン株式会社 車載カメラのキャリブレーション装置
US10861192B2 (en) 2017-09-12 2020-12-08 Jvckenwood Corporation Vehicle device, calibration result determination method, and non-transitory storage medium
WO2019053929A1 (ja) 2017-09-12 2019-03-21 株式会社Jvcケンウッド 車両用装置、キャリブレーション結果判定システム、および、キャリブレーション結果判定方法、ならびに、プログラム
KR20190061136A (ko) * 2017-11-27 2019-06-05 현대모비스 주식회사 후방카메라의 캘리브레이션 장치 및 방법
KR102326184B1 (ko) * 2017-11-27 2021-11-15 현대모비스 주식회사 후방카메라의 캘리브레이션 장치 및 방법
JP7064163B2 (ja) 2017-12-07 2022-05-10 コニカミノルタ株式会社 3次元情報取得システム
JP2019100985A (ja) * 2017-12-07 2019-06-24 コニカミノルタ株式会社 3次元情報取得システム
WO2019176930A1 (ja) * 2018-03-15 2019-09-19 株式会社 村上開明堂 合成映像作成装置および合成映像作成方法並びに合成映像作成プログラム
JPWO2019176930A1 (ja) * 2018-03-15 2021-04-08 株式会社村上開明堂 合成映像作成装置および合成映像作成方法並びに合成映像作成プログラム
US11232540B2 (en) 2018-03-15 2022-01-25 Murakami Corporation Composite video image creation apparatus, composite video image creation method, and composite video image creation program
JP7244488B2 (ja) 2018-03-15 2023-03-22 株式会社村上開明堂 合成映像作成装置および合成映像作成方法並びに合成映像作成プログラム
DE102019107835A1 (de) 2018-03-30 2019-10-02 Panasonic Intellectual Property Management Co., Ltd. Bildkombiniervorrichtung, Verfahren zum Kombinieren von Bildern und Programm
JP2021513247A (ja) * 2018-06-05 2021-05-20 上▲海▼商▲湯▼智能科技有限公司Shanghai Sensetime Intelligent Technology Co., Ltd. 車載カメラ自己校正方法、車載カメラ自己校正装置、電子機器および記憶媒体
JP7082671B2 (ja) 2018-06-05 2022-06-08 上▲海▼商▲湯▼智能科技有限公司 車載カメラ自己校正方法、車載カメラ自己校正装置、電子機器および記憶媒体
JP2020060976A (ja) * 2018-10-10 2020-04-16 クラリオン株式会社 キャリブレーション装置及びキャリブレーション方法
JP7162489B2 (ja) 2018-10-10 2022-10-28 フォルシアクラリオン・エレクトロニクス株式会社 キャリブレーション装置及びキャリブレーション方法

Also Published As

Publication number Publication date
US10594943B2 (en) 2020-03-17
EP3203724B1 (en) 2020-02-19
CN106233711A (zh) 2016-12-14
EP3203724A4 (en) 2018-03-28
JP6371185B2 (ja) 2018-08-08
EP3203724A1 (en) 2017-08-09
CN106233711B (zh) 2019-08-02
WO2016052505A1 (ja) 2016-04-07
US20170061622A1 (en) 2017-03-02

Similar Documents

Publication Publication Date Title
JP6371185B2 (ja) カメラキャリブレーション装置及びカメラキャリブレーションシステム
CN108141570B (zh) 校准装置、校准方法以及校准程序存储介质
EP2485203B1 (en) Vehicle-surroundings monitoring device
JP5049300B2 (ja) 障害物検出表示装置
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
KR20090101480A (ko) 차량용 주변 감시 장치 및 차량용 주변 감시 방법
CN101861255A (zh) 图像处理装置和方法、驾驶支持系统、车辆
JP6306735B2 (ja) ステレオカメラ装置及びステレオカメラ装置を備える車両
JP6471522B2 (ja) カメラパラメータ調整装置
JP4797877B2 (ja) 車両用映像表示装置及び車両周囲映像の表示方法
CN111819571A (zh) 具有经调整适配的投影面的全景环视系统
US9849835B2 (en) Operating a head-up display of a vehicle and image determining system for the head-up display
JP2018157496A (ja) キャリブレーション装置
JP2012105090A (ja) 駐車支援装置
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP6768554B2 (ja) キャリブレーション装置
JP2008037118A (ja) 車両用表示装置
JP2009100261A (ja) 車両周囲画像提供装置及び広角画像の補正方法
JP6747176B2 (ja) 画像処理装置、撮影装置、プログラム、機器制御システム及び機器
JP4814752B2 (ja) 表示制御装置
JP6999239B2 (ja) 画像処理装置および画像処理方法
KR102002228B1 (ko) 동적 객체 검출 장치 및 방법
JP2020087210A (ja) キャリブレーション装置及びキャリブレーション方法
JP2008011187A (ja) 表示制御装置
US20240212112A1 (en) Method for reducing image artifacts in a display of the surrounding environment of a vehicle, computer program, computing device, and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180712

R150 Certificate of patent or registration of utility model

Ref document number: 6371185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150