JP2019114965A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2019114965A JP2019114965A JP2017248024A JP2017248024A JP2019114965A JP 2019114965 A JP2019114965 A JP 2019114965A JP 2017248024 A JP2017248024 A JP 2017248024A JP 2017248024 A JP2017248024 A JP 2017248024A JP 2019114965 A JP2019114965 A JP 2019114965A
- Authority
- JP
- Japan
- Prior art keywords
- imaging unit
- image
- reference position
- unit
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明の実施形態は、画像処理装置に関する。 Embodiments of the present invention relate to an image processing apparatus.
従来、車両に設けられた複数の撮像部(カメラ)により車両周囲の状況を撮像し、撮像した複数の画像の画像処理(例えば視点変換)を行うとともに、各画像を繋げて周辺画像(例えば俯瞰画像)を生成する画像処理装置が知られている。このような画像処理装置では、各撮像部の取り付け誤差や取り付け後の衝撃等により撮像位置のずれが生じている場合があり、画像の繋ぎ目が不連続になってしまう場合がある。そこで、例えば、俯瞰画像を構成する隣接する画像に同一と認められる物体が映っているか否かを確認し、同一の物体が映っている場合には、その物体の輪郭を検出している。そして、隣接する撮像部の画像間で輪郭が繋がるように画像を補正することで、複数の画像を繋ぎ合わせた場合の連続性を確保するようにする技術がある。 Conventionally, a plurality of imaging units (cameras) provided in a vehicle picks up a situation around the vehicle, performs image processing (for example, viewpoint conversion) of the plurality of picked up images, and connects each image to a surrounding image (for example, An image processing apparatus that generates an image) is known. In such an image processing apparatus, an attachment position of an imaging unit may be shifted due to an attachment error of each imaging unit, an impact after attachment, or the like, and a seam of an image may be discontinuous. Therefore, for example, it is confirmed whether or not an object recognized as identical in adjacent images constituting a bird's-eye view image appears, and when the same object is imaged, the contour of the object is detected. Then, there is a technique for ensuring continuity when connecting a plurality of images by correcting the images so that the contours are connected between the images of the adjacent imaging units.
しかしながら従来技術の場合、物体の輪郭が繋がるように各画像の補正を行っているため、その物体の位置が実際の位置と対応していない場合がある。つまり、物体の輪郭を繋ぐために一方の画像または双方の画像に対して回転処理や平行移動処理、拡縮補正等の画像処理を施している。その結果、実際の物体の位置からずれている画像を基準に繋ぎ合わせが行われたり、双方の画像が互いに移動して実際の物体の位置とは異なる位置で繋ぎ合わせが行われたりする場合があった。このような場合、生成された画像を見た運転者が物体までの距離を誤って認識してしまう虞があった。 However, in the case of the prior art, since the correction of each image is performed so that the outline of the object is connected, the position of the object may not correspond to the actual position. That is, in order to connect the contours of the object, image processing such as rotation processing, parallel movement processing, and enlargement / reduction correction is performed on one or both images. As a result, the connection may be performed based on the image shifted from the position of the actual object, or both images may move relative to each other and the connection may be performed at a position different from the position of the actual object. there were. In such a case, there is a possibility that the driver who has seen the generated image may erroneously recognize the distance to the object.
そこで、本発明の課題の一つは、撮像部で撮像した画像に画像処理を施して表示する場合に、表示される物体等が実際の位置に対応するように映すことができる画像処理装置を提供することである。 Therefore, one of the problems of the present invention is an image processing apparatus capable of displaying an object or the like to be displayed so as to correspond to an actual position when image processing is performed on an image captured by an imaging unit and displayed. It is to provide.
本発明の実施形態にかかる画像処理装置は、例えば、車両の外面の一部に設定され、予め記憶された第一の参照位置を取得する取得部と、上記車両に設けられた撮像部で取得された撮像画像データ上で上記第一の参照位置に対応する第二の参照位置を検出する検出部と、上記第二の参照位置が上記第一の参照位置に一致するように画像処理上の上記撮像部の認識位置を補正する補正部と、を備える。この構成によれば、例えば、撮像した撮像画像データに視点変換等の画像処理を施して表示する場合に、撮像部の取り付け誤差等に基づく画像のずれが、車両の一部に定められ、予め記憶された第一の参照位置を基準として補正されるので、表示される画像の位置が車両基準で一定に定められる。その結果、画像に写っている物体等が実際の位置からずれて表示されてしまうことが軽減できる。 The image processing apparatus according to the embodiment of the present invention is acquired by, for example, an acquisition unit configured to acquire a first reference position stored in advance and set on a part of the outer surface of the vehicle, and an imaging unit provided to the vehicle A detection unit for detecting a second reference position corresponding to the first reference position on the captured image data, and the image processing such that the second reference position matches the first reference position And a correction unit that corrects the recognition position of the imaging unit. According to this configuration, for example, when image processing such as viewpoint conversion is performed on the captured image data captured and displayed, the displacement of the image based on the mounting error or the like of the imaging unit is determined in part of the vehicle. Since the correction is made on the basis of the stored first reference position, the position of the displayed image is fixedly determined on the basis of the vehicle. As a result, it can be reduced that an object or the like shown in an image is displayed being shifted from the actual position.
本発明の実施形態にかかる画像処理装置の上記補正部は、例えば、上記第一の参照位置と上記第二の参照位置との変位量に基づき上記撮像部の認識位置を補正してもよい。この構成によれば、例えば、第一の参照位置と第二の参照位置との位置関係に基づき、撮像部の認識位置の補正を実施することができる。 The correction unit of the image processing apparatus according to the embodiment of the present invention may correct the recognition position of the imaging unit based on, for example, the displacement amount between the first reference position and the second reference position. According to this configuration, for example, the recognition position of the imaging unit can be corrected based on the positional relationship between the first reference position and the second reference position.
本発明の実施形態にかかる画像処理装置の上記補正部は、例えば、補正した上記撮像部の認識位置に基づき投影変換パラメータを補正してもよい。この構成によれば、例えば、撮像部が撮像した画像の投影処理をスムーズに実施することができる。 The correction unit of the image processing apparatus according to the embodiment of the present invention may correct, for example, the projection conversion parameter based on the corrected recognition position of the imaging unit. According to this configuration, for example, projection processing of an image captured by the imaging unit can be smoothly performed.
本発明の実施形態にかかる画像処理装置において、上記第一の参照位置は、例えば上記車両の前輪の接地する位置としてもよい。この構成によれば、例えば、撮像部が撮像した撮像画像データに基づく画像上で補正のときに基準とする位置が認識しやすくなる。その結果、補正処理が容易になると共に補正精度を向上することができる。 In the image processing apparatus according to the embodiment of the present invention, the first reference position may be, for example, a position at which the front wheel of the vehicle is in contact with the ground. According to this configuration, for example, it is easy to recognize the reference position at the time of correction on the image based on the captured image data captured by the imaging unit. As a result, correction processing can be facilitated and correction accuracy can be improved.
本発明の実施形態にかかる画像処理装置の上記撮像部は、例えば、上記車両の側方領域を撮像する第一の撮像部と、上記車両の進行方向領域を撮像する第二の撮像部とを備え、上記補正部は、例えば上記第一の撮像部と上記第二の撮像部とのいずれか一方の撮像部の認識位置を補正し、上記認識位置が補正された上記一方の撮像部の撮像画像データに基づく画像に、他方の撮像部の撮像画像データを連結する場合に、画像内容の連続性が保たれるように、上記他方の撮像部の撮像画像データを補正する画像処理部を備えるようにしてもよい。この構成によれば、例えば、物体等が実際の位置に対応する位置に映っている画像を基準に他の画像を繋ぎ合わせるので、繋ぎ合わせられた画像も認識位置の補正が行われた撮像部で撮像された画像に倣って位置合わせが行われる。その結果、画像のずれが全体としても解消され、合成画像(例えば俯瞰画像)の品質の向上ができる。 The imaging unit of the image processing apparatus according to the embodiment of the present invention includes, for example, a first imaging unit for imaging the side area of the vehicle, and a second imaging unit for imaging the traveling direction area of the vehicle. The correction unit corrects a recognition position of one of the first imaging unit and the second imaging unit, for example, and captures an image of the one imaging unit in which the recognition position is corrected. When connecting captured image data of the other imaging unit to an image based on image data, the image processing unit corrects the captured image data of the other imaging unit so that continuity of the image content is maintained. You may do so. According to this configuration, for example, another image is connected based on an image in which an object or the like appears at a position corresponding to an actual position, so that an image pickup unit whose recognition position has been corrected Alignment is performed according to the image captured in As a result, the displacement of the image is eliminated as a whole, and the quality of the composite image (for example, the overhead image) can be improved.
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。 In the following, exemplary embodiments of the present invention are disclosed. The configurations of the embodiments shown below, and the operations, results, and effects provided by the configurations are examples. The present invention can be realized by configurations other than the configurations disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained. .
図1は、本実施形態の画像処理装置が搭載される車両10の模式的な平面図である。車両10は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両10は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両10における車輪12(前輪12F、後輪12R)の駆動に関わる装置の方式、個数、及び、レイアウト等は、種々に設定することができる。
FIG. 1 is a schematic plan view of a
図1に例示されるように、車両10には、複数の撮像部14として、例えば四つの撮像部14a〜14dが設けられている。撮像部14は、例えば、CCD(Charge Coupled Device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部14は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部14は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°〜220°の範囲を撮影することができる。また、撮像部14の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部14は、車両10が移動可能な路面や路面に付されたマーク(矢印や区画線、駐車スペースを示す線、車線分離線等を含む)や物体(障害物として、例えば、歩行者、車両等)を含む車両10の外部の周辺環境を逐次撮影し、撮像画像データとして出力する。
As illustrated in FIG. 1, the
撮像部14は、車両10の外周部に設けられている。撮像部14aは、例えば、車両10の右側の端部、例えば右側のドアミラー10aに設けられて、車両10の右側方を中心とする領域(例えば右前方から右後方の領域)を含む右側方画像を撮像可能である。撮像部14bは、例えば、車両10の左側の端部、例えば左側のドアミラー10bに設けられて、車両10の左側方を中心とする領域(例えば左前方から左後方の領域)を含む左側方画像を撮像可能である。また、撮像部14cは、例えば、車両10の前側、すなわち車両前後方向の前方側で車幅方向のほぼ中央の端部、例えばフロントバンパ10cやフロントグリル等に設けられて、車両10の前端部(例えばフロントバンパ10c)を含む前方画像を撮像可能である。撮像部14dは、例えば、車両10の後側、すなわち車両前後方向の後方側で車幅方向のほぼ中央の端部、例えばリヤバンパ10dに設けられて、車両10の後端部(例えばリヤバンパ10d)を含む後方領域を撮像可能である。なお、撮像部14aおよび撮像部14bは、車両10の側方領域を撮像する第一の撮像部と称することができる。また、撮像部14c、撮像部14dは、車両10の進行方向領域を撮像する第二の撮像部と称することができる。
The
複数の撮像部14で得られた撮像画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両10を上方から見た仮想的な俯瞰画像(平面画像)を生成したりすることができる。なお、各撮像部14が撮像する撮像画像データ(画像)には、互いに重複する重複領域を設けてもよい。例えば、撮像部14aの撮像した撮像画像データの前方側の端部と撮像部14cが撮像した撮像画像データの右側の端部とが重複する。そして、二つの画像を繋げる(合成する)場合、右側方画像の撮像画像データと前方画像の撮像画像データのそれぞれa%を利用して画像を合成するブレンド処理を実行してもよい。ブレンド処理を実行することにより、右側方画像と前方画像とが、徐々に変化するように合成され、明るさや色合いの違いによって生じる境界線を目立ちにくくすることができる。同様に、前方画像と左側方画像、左側方画像と後方画像、後方画像と右側方画像についてもブレンド処理を施すことで、合成した周辺画像全体において境界線を目立ちにくくすることができる。
Arithmetic processing and image processing are executed based on captured image data obtained by a plurality of
図2は、車両10に搭載される画像処理装置を含む画像処理システム100の構成の例示的なブロック図である。車両10の車室内には、表示装置16や、音声出力装置18が設けられている。表示装置16は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置18は、例えば、スピーカである。また、表示装置16は、例えば、タッチパネル等、透明な操作入力部20で覆われている。乗員(例えば、運転者)は、操作入力部20を介して表示装置16の表示画面に表示される画像を視認することができる。また、乗員は、表示装置16の表示画面に表示される画像に対応した位置で、手指等で操作入力部20を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置16や、音声出力装置18、操作入力部20等は、例えば、車両10のダッシュボードの車幅方向すなわち左右方向の中央部に位置されたモニタ装置22に設けられている。モニタ装置22は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。モニタ装置22は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。
FIG. 2 is an exemplary block diagram of a configuration of an
また、図2に例示されるように、画像処理システム100(画像処理装置)は、撮像部14(14a〜14d)やモニタ装置22に加え、ECU24(electronic control unit)が含まれる。画像処理システム100(画像処理装置)では、ECU24やモニタ装置22は、電気通信回線としての車内ネットワーク26を介して電気的に接続されている。車内ネットワーク26は、例えば、CAN(controller area network)として構成されている。ECU24は、車内ネットワーク26を通じて制御信号を送ることで、各種システムの制御が実行できる。また、ECU24は、車内ネットワーク26を介して、操作入力部20や各種スイッチの操作信号等や図示を省略している各種センサの検出信号等を、受け取ることができる。
Further, as illustrated in FIG. 2, the image processing system 100 (image processing apparatus) includes an ECU 24 (electronic control unit) in addition to the imaging units 14 (14 a to 14 d) and the
ECU24は、撮像部14から撮像画像データを取得する。ECU24は、撮像画像等に基づいて生成した周辺画像や音声に関するデータをモニタ装置22へ送信する。ECU24は、例えば、CPU24a(central processing unit)や、ROM24b(read only memory)、RAM24c(random access memory)、表示制御部24d、音声制御部24e、SSD24f(solid state drive、フラッシュメモリ)等を有している。
The
CPU24aは、ROM24b等の不揮発性の記憶装置に記憶された(インストールされた)プログラムを読み出し、当該プログラムに従って演算処理を実行する。ROM24bは、各プログラム及びプログラムの実行に必要なパラメータ等を記憶する。CPU24aは、例えば、図3に示すような各種モジュールを備え、表示装置16で表示される画像に関連した処理を実行する。例えば、CPU24aは、撮像部14が撮像した撮像画像データに補正処理や演算処理、画像処理等を実行して、複数の画像を繋ぎ合わせた周辺画像(例えば、俯瞰画像)を生成する。CPU24aの詳細は後述する。
The
RAM24cは、CPU24aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部24dは、ECU24での演算処理のうち、主として、表示装置16で表示させる表示用の画像のデータ変換等を実行する。また、音声制御部24eは、ECU24での演算処理のうち、主として、音声出力装置18で出力される音声データの処理を実行する。SSD24fは、書き換え可能な不揮発性の記憶部であって、ECU24の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU24aや、ROM24b、RAM24c等は、同一パッケージ内に集積されうる。また、ECU24は、CPU24aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD24fに替えてHDD(hard disk drive)が設けられてもよいし、SSD24fやHDDは、ECU24とは別に設けられてもよい。
The
本実施形態では、ECU24は、ハードウェアとソフトウェア(制御プログラム)が協働することにより、車両10の画像生成処理を司る。ECU24は、撮像部14が撮像した撮像画像データ(画像)を画像処理、例えば視点変換処理等を施して表示装置16に表示させる場合に、車両10(自車)に対して周囲の物体等が正しい位置(実際の位置に対応する位置)に表示されるように、画像処理上の撮像部14の認識位置を補正した上で画像処理を実行して表示画像を出力する。例えば、各撮像部14(14a〜14d)で撮像した複数の撮像画像データ(画像)を繋ぎ合わせて周辺画像(例えば、俯瞰画像)を表示させる場合、車両10(自車)に対して周囲の物体等が正しい位置に表示されるように撮像画像データを補正した上で繋ぎ合わせて周辺画像を生成する。なお、本実施形態において、撮像部14の画像処理上の認識位置の補正は、いずれか一つの撮像部14に対して実施してもよいし、複数の撮像部14に対して実施してもよい。以下の説明では、車両10の撮像部14のうち例えば右側方を撮像する撮像部14aの設置位置や姿勢が設計上の位置や姿勢からずれていた場合に、画像処理上の撮像部14aの認識位置を補正することで、表示する画像全体の補正を実施する例を説明する。
In the present embodiment, the
ECU24に含まれるCPU24aは、上述したような補正処理を実行するための各種モジュールを備える。各種モジュールは、CPU24aがROM24b等の記憶装置にインストールされ記憶されたプログラムを読み出し、それを実行することで実現される。例えば、CPU24aは、図3に示されるように、取得部28、投影処理部30、検出部32、補正部34、画像処理部36等のモジュールを備える。また、取得部28は、画像取得部28a、第一の参照位置取得部28b、パラメータ取得部28c等を含み、補正部34は、変位取得部34a、認識位置補正部34b、パラメータ補正部34c等を含む。
The
取得部28は、撮像部14の画像処理上の認識位置を補正する処理を実行するために必要な各種情報を取得する。
The
画像取得部28aは、表示制御部24dを介して各撮像部14(14a〜14d)が撮像した撮像画像データを逐次取得する。
The image acquisition unit 28 a sequentially acquires captured image data captured by each of the imaging units 14 (14 a to 14 d) via the
第一の参照位置取得部28bは、車両10の外面の一部に設定される第一の参照位置を取得する。車両10の外面の一部に設定される第一の参照位置は、例えばROM24bに後述する路面上の座標系(X,Y,Z)上の位置として予め記憶されている。図4は、第一の参照位置Pの一例を示す俯瞰視図である。また、図5は、第一の参照位置Pの一例を示す撮像部14a(右側方撮像部)で撮像した画像例を示す模式図である。第一の参照位置Pは、図4、図5に示すように、例えば、右側の前輪12Fの外面側の接地点とすることができる。第一の参照位置Pは、前輪12Fの外周面に限らず、補正対象となる撮像部14(例えば、撮像部14a)の撮像範囲に含まれる車両10の外面であれば、いずれの位置でもよい。別の実施形態では、第一の参照位置Pを車両10のボディの一部、例えば、ドアの下端コーナー部等に設定してもよく、同様な効果を得ることができる。なお、上述したように、撮像部14aで撮像する場合、第一の参照位置Pを撮像部14aからの距離が比較的近く、画像認識する場合でも容易に認識可能な前輪12Fの接地位置とすることで認識精度を向上することができる。
The first reference position acquisition unit 28 b acquires a first reference position set on part of the outer surface of the
なお、第一の参照位置Pは、車両10に設定された基準位置Oを基準に定められてもよい。基準位置Oを設定しておくことにより、現実空間での第一の参照位置Pの位置や画像上での第一の参照位置Pの位置を認識させやすくすることができるとともに、座標系を用いた演算を行う場合に処理が容易になる。基準位置Oは、例えば、車両10の左右の後輪12Rを支持する後輪軸12aの長手方向(車幅方向)の中心位置とすることができる。また別の実施形態では、基準位置Oは、例えば、車両10の前後方向に延びる車両中心CL上の位置としてもよい。この場合、例えば、第一の参照位置Pから車両中心CLに下ろした垂線の交点を基準位置Oとしてもよい。なお、基準位置Oから第一の参照位置Pまでの実際の距離は既知であるため、基準位置Oおよび第一の参照位置Pを画像上に投影したときの画像上の離間距離(ドット数)を検出することにより、画像上の1ドットのずれと現実空間での距離のずれとの対応付けが容易になる。例えば、画像上で10ドットずれている場合は、現実空間では、10cmずれている等に対応付けを行うことができる。なお、画像上の1ドットに対応する距離を予めROM24b等に記憶しておくことで、画像上の1ドットのずれと現実空間での距離のずれとの対応付けを行うようにしてもよい。
The first reference position P may be determined based on the reference position O set in the
パラメータ取得部28cは、撮像部14が撮像した画像を投影変換する際に用いる投影変換パラメータを例えばROM24bやSSD24f等の記憶部から取得する。例えば、図6に示すように、路面上の座標系を(X,Y,Z)、撮像部14aのカメラ画上の座標系(カメラ座標系)を(X0,Y0,Z0)とし、路面上の座標とカメラ画上の座標系の距離、角度が極座標(ρ,θ,φ)で表されるとき、座標系の変換は、以下の式1で表すことができる。なお、ρは、路面上の座標系の原点(例えば、図4の基準位置Oに相当)からカメラ座標系の原点T0までの距離である。また、θは、路面上の座標系の原点とカメラ座標系の原点T0を路面上の座標系のXY平面に投影した点Tの位置とを結んだ直線とX軸のなす角度である。また、φは、路面上の座標系の原点とカメラ座標系の原点T0とを結んだ直線とZ軸のなす角度である。
投影処理部30は、パラメータ取得部28cが取得した投影パラメータを適用することにより、撮像部14(例えば撮像部14a)が撮像した撮像画像データの各画素(カメラ座標系(X0,Y0,Z0)上の画素)を逐次路面上の座標系(X,Y,Z)に投影することができる。例えば、カメラ座標系(X0,Y0,Z0)の原点T0に位置する画素を路面上の座標系(X,Y,Z)上の点Tに投影することができる。この場合、撮像部14は車両10に対して固定されている。例えば、撮像部14aは右側のドアミラー10aの下面に固定されているので、撮像部14aの画像処理上の認識位置を一定の位置に定めることができる。したがって、撮像部14aの設置位置や取り付け姿勢が設計上の位置や姿勢に維持されている場合、撮像した撮像画像データに映っている例えば、前輪12Fの接地位置に対応する画素は、路面上の座標系(X,Y,Z)上で、第一の参照位置取得部28bが取得した第一の参照位置Pと一致する位置に投影変換される。
The
一方、撮像部14aの設置位置や取り付け姿勢が何らかの原因、例えば、車両10が走行することにより与えられる振動や他の物体との接触等が原因で、設計上の位置や姿勢に対してずれてしまう場合がある。このような場合、例えば実際の前輪12Fの接地位置(第一の参照位置Pと実質的に同じ位置)に対応する画像は、図7に示すように、カメラ座標系(X0,Y0,Z0)からずれたカメラ座標系(X1,Y1,Z1)上で、撮像されることになる。この場合、画像処理上では、撮像部14aの認識位置は、カメラ座標系(X0,Y0,Z0)上での認識位置のままのため、撮像部14aの位置や姿勢がずれた状態で撮像された撮像画像データは、極座標(ρ,θ,φ)に対応する投影変換パラメータを適用した式1を用いて投影変換される。その結果、前輪12Fの接地位置に対応する画素は、撮像部14aの設置位置や姿勢のずれに対応する量だけ移動した状態で路面上の座標系(X,Y,Z)に投影されることになる。つまり、第一の参照位置Pからずれた第二の参照位置Qに投影される。図8は、撮像部14aの設置位置や姿勢がずれた状態で、撮像された撮像画像データに基づき、俯瞰画像(車両10の右側の俯瞰画像)を生成した例であり、表示される白線Lの位置が実際の白線L0の位置からずれてしまう例を説明する模式図である。このような俯瞰画像に基づき運転者が車両10の周辺状況の認識を行った場合、車両10の側方に存在する白線Lの位置は、例えば画像中心位置に表示される自車アイコン40に対して実際より例えば遠くに表示される。つまり、実際の白線L0までの距離とは異なる距離感を運転者に与えてしまう場合がある。その結果、車両10の幅寄せ等がイメージ通りにできなかったり、障害物との距離を誤って認識して接触したりしてしまう場合がある。
On the other hand, the installation position and mounting posture of the
そこで、本実施形態の画像処理システム100の検出部32は、設置位置や姿勢がずれてしまっている撮像部14(例えば撮像部14a)で取得された撮像画像データ上で第一の参照位置Pに対応する第二の参照位置Qを検出する。例えば、設置位置や姿勢がずれた撮像部14aのカメラ座標系(X1,Y1,Z1)上で、ずれが無い状態で定められた投影変換パラメータ(初期値)を(X0,Y0,Z0)を(X1,Y1,Z1)に読み替えた式1に適用する。そして、撮像部14aで撮像された前輪12Fの接地位置を路面上の座標系(X,Y,Z)に投影する。つまり、検出部32は、第一の参照位置取得部28bが取得した第一の参照位置P(撮像部14aの設置位置や姿勢のずれがなければ前輪12Fの接地位置となる位置)に対応する位置である第二の参照位置Qを検出することができる。
Therefore, the
そして、補正部34は、検出部32が検出した第一の参照位置Pと第二の参照位置Qとのずれ、すなわち変位量(差分、差分距離)に基づき、撮像部14(例えば撮像部14a)の画像処理上の認識位置を補正する。認識位置の補正は、例えば、投影変換するときの投影変換パラメータを補正することで実行することができる。
Then, the
変位取得部34aは、例えば、路面上の座標系(X,Y,Z)に投影された第一の参照位置Pと第二の参照位置Qとの変位量(ずれ)を検出する。ROM24bは、例えば、撮像部14aで物体を撮像して、本実施形態の画像処理システム100を用いて路面上の座標系(X,Y,Z)に投影した場合に、例えば10ドットで表示できる大きさ(長さ、距離等)を示す変位基準値データを第一の参照位置Pのデータと共に記憶する。変位取得部34aは、変位基準値データに基づき、第一の参照位置Pと第二の参照位置Qとの変位量を取得することができる。なお、変位基準値データは、図4で説明したように、基準位置Oと第一の参照位置Pとの現実の距離と画面上での距離(ドット数)との関係で定めてもよい。
The displacement acquisition unit 34a detects, for example, the displacement (displacement) between the first reference position P and the second reference position Q projected on the coordinate system (X, Y, Z) on the road surface. The ROM 24b can display, for example, 10 dots when the object is imaged by the
認識位置補正部34bは、変位取得部34aが取得した変位量に基づき、例えば、図7に示すように、設置位置や姿勢がずれた撮像部14aで用いているカメラ座標系(X1,Y1,Z1)を補正する。例えば、第二の参照位置Qが第一の参照位置Pに一致するように画像処理上の撮像部14aの認識位置に補正する。つまり、カメラ座標系(X1,Y1,Z1)をカメラ座標系(X2,Y2,Z2)に補正する。このとき、第一の参照位置Pと第二の参照位置Qとの変位量が10ドットの場合、第二の参照位置Qが第一の参照位置Pに一致するように、撮像部14aの認識位置を10ドットに相当する量だけ移動することで撮像部14aの認識位置を補正することができる。
Recognizing the
パラメータ補正部34cは、路面上の座標系を(X,Y,Z)、認識位置が補正された結果得られたカメラ座標系を(X2,Y2,Z2)とし、路面上の座標とカメラ画上の座標系の距離、角度を示す補正後の極座標(ρ2,θ2,φ2)を算出する。そして、(X0,Y0,Z0)を(X2,Y2,Z2)に読み替えた式1に極座標(ρ2,θ2,φ2)を適用した場合、係数部分が補正後の投影変換パラメータとなる。つまり、例えば、SSD24fの投影変換パラメータが更新されることになる。この場合、補正後の撮像部14aの画像処理上の認識位置に対応する極座標(ρ2,θ2,φ2)をSSD24fに保存してもよいし、(X0,Y0,Z0)を(X2,Y2,Z2)に読み替えた式1にρ2,θ2,φ2を代入した係数とした補正後の投影変換パラメータを記憶してSSD24fに保存してもよい。
The parameter correction unit 34 c sets the coordinate system on the road surface as (X, Y, Z), and the camera coordinate system obtained as a result of correcting the recognition position as (X 2, Y 2 , Z 2 ). coordinate system distance on the camera image, the polar coordinate after correction illustrating the angle (ρ 2, θ 2, φ 2) is calculated. Then, when polar coordinates ( 2 2 , θ 2 , φ 2 ) are applied to equation 1 in which (X 0, Y 0 , Z 0 ) is replaced by (X 2, Y 2 , Z 2 ), the coefficient part is corrected It becomes a projection conversion parameter of That is, for example, the projection conversion parameter of the
そして、投影処理部30は、補正された投影変換パラメータを用いて撮像部14aが撮像した撮像画像データを投影変換することにより、第一の参照位置Pと第二の参照位置Qとが一致した投影画像を得ることができる。
Then, the
画像処理部36は、認識位置が補正されて得られた例えば撮像部14aが撮像した撮像画像データに基づく画像と、他方の撮像部14(例えば、前方用の撮像部14c)の撮像した撮像画像データに基づく画像とを連結する処理を行う。その場合に、補正された撮像部14aの画像内容と撮像部14cの画像内容との連続性が保たれるように、撮像部14cの撮像画像データの補正を行う。例えば、画像処理部36は、図9に示すように、各撮像部14(14a〜14d)で撮像した撮像画像データの視点変換を行い、繋ぎ合わせることで車両10(自車アイコン40)の周囲を俯瞰視する俯瞰画像を生成する。この場合、撮像部14aが撮像した撮像画像データを補正部34による補正後の投影変換パラメータを用いて補正した領域R1と、投影変換パラメータの補正を行わず、当初設定の投影変換パラメータを用いて投影変換した領域R2(撮像部14cの撮像画像データ)、領域R3(撮像部14bの撮像画像データ)、領域R4(撮像部14dの撮像画像データ)を合成する。
The
前述したように、投影変換パラメータが補正されて投影変換された撮像部14aの撮像画像データによる画像が描画される領域R1に映っている白線L1は、現実の白線L0が存在する位置に対応して存在する。一方、投影変換パラメータが補正されずに投影変換された撮像部14cの撮像画像データによる画像が描画される領域R2に映っている右側の白線L2Rは、現実の位置からずれて描画されている可能性があり、白線L1と連続性が維持されない場合がある。この場合、白線L2Rは、回転処理や平行移動、拡縮処理等を施すことにより、補正された白線L1と一致させることができる。すなわち、白線L2Rも正しい位置に描画されるように処理されたことになる。この場合、領域R2に含まれる白線L2Lは、撮像部14cで撮像された同一領域中に存在するため、白線L2Lの描画位置も白線L1の補正の影響を受け、正確な位置に描画されていることになる。同様に、白線L1に基づき正確な位置に描画された領域R2の白線L2Lを基準に領域R3を回転処理や平行移動、拡縮処理等を施して描画することにより正確な位置に描画される。正確な位置に描画された領域R3の白線L3を基準に領域R4に回転処理や平行移動、拡縮処理等を施すことにより領域R4もまた正確な位置に描画することができる。その結果、白線L4Rは白線L3と一致し、白線L4Lは白線L1と一致する。
As described above, white lines L 1 to the image by the captured image data of the projected transformed captured
このように、撮像部14で撮像された撮像画像データについて、投影変換パラメータの補正を一カ所の撮像部14に対して行うことで、車両10(自車アイコン40)を中心とする正確な位置関係を示す俯瞰画像を容易な処理により生成することができる。なお、上述の例では、いずれか一つの撮像部14に対して、画像処理上の認識位置の補正(投影変換パラメータの補正)を行い、他の撮像部14の画像を補正された画像に合わせるように処理する例を示した。他の実施形態では、複数の撮像部14に対して画像処理上の認識位置の補正(投影変換パラメータの補正)を行ってもよい。この場合、合成される俯瞰画像の描画精度を向上することができる。
As described above, correction of the projection conversion parameter is performed on the
図10は、上述した画像処理システム100(画像処理装置)により俯瞰画像を生成する場合の画像処理の一例を説明するフローチャートである。なお、撮像部14の設置位置や姿勢は、頻繁にずれるものではなく、例えば、車両10の振動が大きくなる不整地路を長時間走行した場合や、撮像部14の設置位置(例えばドアミラー10aやドアミラー10b)が外部の物体と接触した場合、修理や交換を行った場合、または経時変化等で発生するのみで、基本的にはずれない。したがって、本実施形態において、投影変換パラメータの補正による撮像部14の画像処理上の認識位置の補正は、比較的長い間隔で例えば、定期的または不定期で実施することができる。
FIG. 10 is a flowchart for explaining an example of image processing in the case of generating a bird's-eye view image by the image processing system 100 (image processing apparatus) described above. The installation position and posture of the
まず、CPU24aは、俯瞰画像の表示(作成)が要求されているか否かを確認する。表示装置16には、通常画面として、ナビゲーション画面やオーディオ画面が表示されているが、運転者が例えば、操作入力部20を操作して、俯瞰画像の表示を要求した場合、CPU24aは、俯瞰画像表示モードに移行する(S100のYes)。俯瞰画像の表示要求がなされた場合、画像取得部28aは、表示制御部24dを介して各撮像部14(14a〜14d)が撮像した撮像画像データ(周辺画像)を取得する(S102)。このとき、画像処理上の撮像部14の認識位置の再調整(補正)タイミングである場合(S104のYes)、第一の参照位置取得部28bは、例えばROM24bに記憶されている第一の参照位置Pに関する情報を取得する(S106)。なお、画像処理上の認識位置の再調整(補正)タイミングは、例えば、イグニッションスイッチがONされた場合や、前回の再調整から一定期間(例えば、1ヶ月)以上経過した場合、運転者が再調整を要望した場合等である。
First, the
撮像部14の画像処理上の認識位置の再調整のタイミングになった場合、投影処理部30は、パラメータ取得部28cを介して現在有効な投影変換パラメータをROM24bまたはSSD24fから取得し、仮の俯瞰画像を描画する(S108)。例えば、処理対象の撮像画像データが撮像部14aにより撮像されている場合、右側方の俯瞰画像を生成する。このとき、補正対象の撮像部14(例えば撮像部14a)の設置位置や姿勢がずれていた場合、図7に示すように、路面上の座標系(X,Y,Z)における第一の参照位置Pとは異なる位置に第二の参照位置Qが投影(描画)される。検出部32は、仮の俯瞰画像(路面上の座標系(X,Y,Z))に表示された第二の参照位置Q(前輪12Fの接地位置)を検出する(S110)。なお、補正対象の撮像部14(例えば撮像部14a)の設置位置や姿勢がずれていない場合、第一の参照位置Pと第二の参照位置Qとは実質的に一致するように描画される。
When it is time to re-adjust the recognition position on the image processing of the
続いて、変位取得部34aは、路面上の座標系(X,Y,Z)上で第一の参照位置Pと第二の参照位置Qとの変位量を算出(取得)し(S112)、認識位置補正部34bは、変位取得部34aが取得した変位量に基づき、第一の参照位置Pと第二の参照位置Qが一致するように、画像処理上の撮像部14aの認識位置を、図7に示すように例えばカメラ座標系(X2,Y2,Z2)に補正する(S114)。そして、パラメータ補正部34cは、補正された認識位置(カメラ座標系(X2,Y2,Z2))における極座標(ρ2,θ2,φ2)を算出し、(X0,Y0,Z0)を(X2,Y2,Z2)に読み替えた式1を用いて、撮像部14a用の投影変換パラメータを変更(更新)する(S116)。変更された投影変換パラメータは、例えば、SSD24fに保存され、次回投影変換パラメータが更新されるまで、撮像部14aが撮像した撮像画像データの投影変換に利用される。
Subsequently, the displacement acquisition unit 34a calculates (acquires) displacement amounts of the first reference position P and the second reference position Q on the coordinate system (X, Y, Z) on the road surface (S112), The recognition
続いて、投影処理部30は、側方の俯瞰画像を描画する(S118)。この場合、例えば右側方俯瞰画像は、パラメータ補正部34cが補正した最新の投影変換パラメータを撮像部14aが撮像した撮像画像データの各画素に適用して投影変換することで画像全体が描画される。一方、左側方俯瞰画像は、ROM24b等に記憶されている撮像部14bが設置されたときに定められた投影変換パラメータを撮像部14bが撮像した撮像画像データの各画素に適用して投影変換することで描画される。また、投影処理部30は、前後の俯瞰画像を描画する(S120)。この場合、前方の俯瞰画像は、ROM24b等に記憶されている撮像部14cが設置されたときに定められた投影変換パラメータを撮像部14cが撮像した撮像画像データの各画素に適用して投影変換することで描画される。同様に、後方の俯瞰画像は、ROM24b等に記憶されている撮像部14dが設置されたときに定められた投影変換パラメータを撮像部14dが撮像した撮像画像データの各画素に適用して投影変換することで描画される。
Subsequently, the
そして、画像処理部36は、描画された各俯瞰画像に映っている連続性のある共通点を抽出する(S122)。例えば、図9に示すように、撮像部14aで撮像した撮像画像データに基づく領域R1の俯瞰画像に写っている白線L1と撮像部14cで撮像した撮像画像データに基づく領域R2の俯瞰画像に写っている白線L2Rとを抽出する。同様に、撮像部14cで撮像した撮像画像データに基づく領域R2の俯瞰画像に写っている白線L2L、撮像部14bで撮像した撮像画像データに基づく領域R3の俯瞰画像に写っている白線L3、撮像部14dで撮像した撮像画像データに基づく領域R4の俯瞰画像に写っている白線L4L,L4R等を抽出する。
Then, the
そして、画像処理部36は、各撮像部14で撮像した撮像画像データに基づく俯瞰画像を合成して表示装置16に表示させる(S124)。具体的には、まず、画像処理部36は、白線L1と白線L2Rとが連続するように、白線L1に対して領域R2に表示される前方の俯瞰画像の回転処理や平行移動処理、拡縮処理等を施し描画位置の調整を行う。続いて画像処理部36は、白線L2Lと白線L3とが連続するように、白線L2Lに対して領域R3に表示される左側方の俯瞰画像の回転処理や平行移動処理、拡縮処理等を施し描画位置の調整を行う。同様、画像処理部36は、白線L3と白線L4Lとが連続するように、白線L3に対して領域R4に表示される後方の俯瞰画像の回転処理や平行移動処理、拡縮処理等を施し描画位置の調整を行う。その結果、図9に示すような、自車アイコン40に対して正確な位置に描画された白線L1を基準として、各俯瞰画像の位置合わせが実行されて、正確な描画が実現される。つまり、自車アイコン40(車両10)の周囲の表示物までの距離感と現実の物体までの距離感とが対応した、正確な俯瞰画像を表示装置16に表示させることができる。
Then, the
表示装置16に俯瞰画像が表示されたら、CPU24aは、俯瞰画像の表示を終了させる要求がなされているか否かの確認を行う(S126)。例えば、操作入力部20が操作され、俯瞰画像の表示終了要求がなされた場合(S126のYes)、CPU24aは、表示装置16の表示内容を現在表示されている俯瞰画像の表示画面から通常画面であるナビゲーション画面やオーディオ画面に切り替えて(S128)、このフローを一旦終了する。
When the bird's-eye view image is displayed on the
S126において、俯瞰画像の表示終了要求がなされていない場合(S126のNo)、CPU24aは、S102の処理に戻り、次の処理周期で利用する周辺画像の取得を画像取得部28aを介して行い、以降の処理を繰り返し実行する。なお、この場合、S104で、画像処理上の認識位置の再調整(補正)タイミングでない場合(S104のNo)、S106〜S116の処理をスキップして、現在SSD24fに更新記憶された撮像部14a用の最新の投影変換パラメータと、ROM24bに記憶されている撮像部14b、撮像部14c、撮像部14d用の設定当初の投影変換パラメータとを用いて、S118以降の俯瞰画像の描画を行う。つまり、過剰に投影変換パラメータの更新処理が実施されることを抑制して、CPU24aの処理負荷の軽減に寄与している。なお、S100において、俯瞰画像の作成(表示装置16での表示)が要求されない場合(S100のNo)、S102〜S126の処理をスキップして、通常画面(ナビゲーション画面やオーディオ画面)の表示を継続する。
In S126, when the overhead image display end request is not made (No in S126), the
なお、図10に示すフローチャートは、一例であり、実質的に同様な処理が実行できれば、適宜処理ステップの増減、入れ替え、変更が可能で同様な効果を得ることができる。上述の例では、撮像部14aの画像処理上の認識位置を補正することにより撮像部14aが撮像した撮像画像データに対する投影変換パラメータの補正を行った。別の実施形態では、他の撮像部14の画像処理上の認識位置を同様に補正して撮像した撮像画像データに対する投影変換パラメータの補正を併せて実行するようにしてもよいし、補正処理の度に補正対象とする撮像部14を変更するようにしてもよい。補正処理の度に対象とする撮像部14を変更する場合、S104の再調整(補正)タイミングで、まず撮像部14aの認識位置の補正を行い、次の処理周期で、撮像部14bの認識位置の補正を行う。そして、次の処理周期で撮像部14cの認識位置の補正を行い、次の処理周期で、撮像部14dの認識位置の補正を行う。つまり、各撮像部14の認識位置の補正が全て完了した時点で、再調整(補正)タイミングでの処理が完了したと見なす。この場合、各撮像部14の認識位置の補正が行われるので、より正確な俯瞰画像の生成ができる。
Note that the flowchart shown in FIG. 10 is an example, and if substantially the same processing can be executed, it is possible to appropriately increase, decrease, replace, and change the processing steps, and to obtain the same effect. In the above-described example, correction of the projection conversion parameter is performed on the captured image data captured by the
なお、前方の領域を撮像する撮像部14cの場合、撮像部14cの撮像領域に含まれるフロントバンパ10c上に例えばマーク等を形成したり添付したりすることで第一の参照位置Pとしてもよい。同様に、後方の領域を撮像する撮像部14dの場合、撮像部14dの撮像領域に含まれるリヤバンパ10d上に例えばマーク等を形成したり添付したりすることで第一の参照位置Pとしてもよい。
In addition, in the case of the
また、第一の参照位置Pに対応する第二の参照位置Qの認識性を向上させるため、例えば、車両10の一部に検出用のマーク、例えばシールやLED等を設けてもよい。マークとしてLED等の発光体を用いることにより、第二の参照位置Qの位置の検出精度が向上し、撮像部14の画像処理上の認識位置の補正精度を向上することができる。また、車両10の周囲が暗い状況(例えば夜間等)でも精度のよい補正処理を実行することができる。
Further, in order to improve the recognizability of the second reference position Q corresponding to the first reference position P, for example, a mark for detection, such as a seal or an LED, may be provided on a part of the
本実施形態のCPU24aで実行される画像処理のためのプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
The program for image processing executed by the
さらに、画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Furthermore, the image processing program may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the image processing program executed in the present embodiment may be provided or distributed via a network such as the Internet.
本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While the embodiments and variations of the present invention have been described, these embodiments and variations are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and the gist of the invention, and are included in the invention described in the claims and the equivalent scope thereof.
10…車両、12…車輪、12F…前輪、14,14a,14b,14c,14d…撮像部、16…表示装置、20…操作入力部、24…ECU、24a…CPU、24b…ROM、24d…表示制御部、24f…SSD、28…取得部、28a…画像取得部、28b…第一の参照位置取得部、28c…パラメータ取得部、30…投影処理部、32…検出部、34…補正部、34a…変位取得部、34b…認識位置補正部、34c…パラメータ補正部、36…画像処理部、40…自車アイコン、100…画像処理システム、L…白線、P…第一の参照位置、Q…第二の参照位置。
DESCRIPTION OF
Claims (5)
前記車両に設けられた撮像部で取得された撮像画像データ上で前記第一の参照位置に対応する第二の参照位置を検出する検出部と、
前記第二の参照位置が前記第一の参照位置に一致するように画像処理上の前記撮像部の認識位置を補正する補正部と、
を備える画像処理装置。 An acquisition unit configured to acquire a first reference position which is set on a part of the outer surface of the vehicle and stored in advance;
A detection unit that detects a second reference position corresponding to the first reference position on captured image data acquired by an imaging unit provided in the vehicle;
A correction unit configured to correct a recognition position of the imaging unit in image processing such that the second reference position matches the first reference position;
An image processing apparatus comprising:
前記補正部は、前記第一の撮像部と前記第二の撮像部とのいずれか一方の撮像部の認識位置を補正し、
前記認識位置が補正された前記一方の撮像部の撮像画像データに基づく画像に、他方の撮像部の撮像画像データを連結する場合に、画像内容の連続性が保たれるように、前記他方の撮像部の撮像画像データを補正する画像処理部を備える、請求項1から請求項4のいずれか1項に記載の画像処理装置。 The imaging unit includes a first imaging unit that images a side area of the vehicle, and a second imaging unit that images a traveling direction area of the vehicle.
The correction unit corrects a recognition position of one of the first imaging unit and the second imaging unit.
When the captured image data of the other imaging unit is connected to the image based on the captured image data of the one imaging unit whose recognition position has been corrected, the other of the other is maintained so as to maintain the continuity of the image content. The image processing apparatus according to any one of claims 1 to 4, further comprising an image processing unit configured to correct captured image data of the imaging unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017248024A JP7110592B2 (en) | 2017-12-25 | 2017-12-25 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017248024A JP7110592B2 (en) | 2017-12-25 | 2017-12-25 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019114965A true JP2019114965A (en) | 2019-07-11 |
JP7110592B2 JP7110592B2 (en) | 2022-08-02 |
Family
ID=67222854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017248024A Active JP7110592B2 (en) | 2017-12-25 | 2017-12-25 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7110592B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008182652A (en) * | 2007-01-26 | 2008-08-07 | Sanyo Electric Co Ltd | Camera posture estimation device, vehicle, and camera posture estimating method |
WO2015129280A1 (en) * | 2014-02-26 | 2015-09-03 | 京セラ株式会社 | Image processing device and image processing method |
JP2015202835A (en) * | 2014-04-16 | 2015-11-16 | 株式会社デンソー | Attachment error display control device of on-vehicle camera and attachment error detection device |
JP2016001378A (en) * | 2014-06-11 | 2016-01-07 | 株式会社デンソー | Calibration device of on-vehicle camera |
-
2017
- 2017-12-25 JP JP2017248024A patent/JP7110592B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008182652A (en) * | 2007-01-26 | 2008-08-07 | Sanyo Electric Co Ltd | Camera posture estimation device, vehicle, and camera posture estimating method |
WO2015129280A1 (en) * | 2014-02-26 | 2015-09-03 | 京セラ株式会社 | Image processing device and image processing method |
JP2015202835A (en) * | 2014-04-16 | 2015-11-16 | 株式会社デンソー | Attachment error display control device of on-vehicle camera and attachment error detection device |
JP2016001378A (en) * | 2014-06-11 | 2016-01-07 | 株式会社デンソー | Calibration device of on-vehicle camera |
Also Published As
Publication number | Publication date |
---|---|
JP7110592B2 (en) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6028848B2 (en) | Vehicle control apparatus and program | |
US9973734B2 (en) | Vehicle circumference monitoring apparatus | |
US9902323B2 (en) | Periphery surveillance apparatus and program | |
JP5190712B2 (en) | Obstacle detection device | |
US11440475B2 (en) | Periphery display control device | |
US9994157B2 (en) | Periphery monitoring apparatus and periphery monitoring system | |
JP7039879B2 (en) | Display control device | |
US10099617B2 (en) | Driving assistance device and driving assistance method | |
JP2009126270A (en) | Image processor and image processing method, drive assist system, and vehicle | |
JP2020043400A (en) | Periphery monitoring device | |
CN111095921B (en) | Display control device | |
JP6471522B2 (en) | Camera parameter adjustment device | |
US9162621B2 (en) | Parking support apparatus | |
JP2008085710A (en) | Driving support system | |
CN111937380A (en) | Image processing apparatus | |
JP6720729B2 (en) | Display controller | |
US20180288371A1 (en) | Assistance apparatus | |
JP2020077251A (en) | Periphery monitoring device | |
JP6375633B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP7110592B2 (en) | Image processing device | |
JP2020127171A (en) | Periphery monitoring device | |
KR20220097656A (en) | Driver asistance apparatus, vehicle and control method thereof | |
JP6855254B2 (en) | Image processing device, image processing system, and image processing method | |
JP2006298217A (en) | Vehicle periphery monitoring device | |
JP5287288B2 (en) | Vehicle surroundings monitoring apparatus and vehicle surroundings monitoring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220704 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7110592 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |