JP7263807B2 - Information processing equipment - Google Patents
Information processing equipment Download PDFInfo
- Publication number
- JP7263807B2 JP7263807B2 JP2019019622A JP2019019622A JP7263807B2 JP 7263807 B2 JP7263807 B2 JP 7263807B2 JP 2019019622 A JP2019019622 A JP 2019019622A JP 2019019622 A JP2019019622 A JP 2019019622A JP 7263807 B2 JP7263807 B2 JP 7263807B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- calibration
- camera
- satisfied
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 13
- 238000000034 method Methods 0.000 description 34
- 230000015654 memory Effects 0.000 description 25
- 230000006870 function Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 8
- 239000002131 composite material Substances 0.000 description 5
- 230000002411 adverse Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Description
本開示は、車両に搭載して用いられる情報処理装置に関する。 The present disclosure relates to an information processing device that is mounted on a vehicle and used.
車両に搭載される複数のカメラにより取得された複数の撮像画像を合成する場合には、カメラ姿勢の補正(以下、キャリブレーションとも記載する)を行うことで、合成画像の品質を向上させることができる。特許文献1には、キャリブレーションのための特定のマーカを用いずに、走行中にキャリブレーションを行う技術が提案されている。
When synthesizing a plurality of captured images acquired by a plurality of cameras mounted on a vehicle, the quality of the synthesized image can be improved by correcting the camera posture (hereinafter also referred to as calibration). can.
しかしながら、発明者の詳細な検討の結果、特定のマーカを用いない特許文献1のキャリブレーション手法では、車両の置かれる状況によってはキャリブレーションの精度が低くなってしまう場合があるという課題が見出された。また、発明者の詳細な検討の結果、キャリブレーションの実行に伴う処理負荷の増加によって他の制御に影響を及ぼしてしまう場合があるという課題が見出された。
However, as a result of detailed studies by the inventors, it was found that the calibration method of
本開示の1つの局面は、適切なタイミングでキャリブレーションを行うことができる技術を提供する。 One aspect of the present disclosure provides a technique capable of performing calibration at appropriate timing.
本開示の一態様は、車両に搭載して用いられる情報処理装置であって、実行部と、判断部と、を備える。実行部は、車両に搭載されて当該車両の周囲を撮影するカメラのキャリブレーションを、カメラの撮影画像に基づいて実行するように構成される。判断部は、所定の条件を満たしているか否かを判断するように構成される。実行部は、判断部が所定の条件を満たしていると判断しているときに、キャリブレーションを実行可能に構成されている。 One aspect of the present disclosure is an information processing device mounted on a vehicle and used, and includes an execution unit and a determination unit. The executing unit is configured to execute calibration of a camera mounted on a vehicle that photographs the surroundings of the vehicle, based on an image captured by the camera. The determination unit is configured to determine whether or not a predetermined condition is satisfied. The execution unit is configured to be able to execute calibration when the determination unit determines that the predetermined condition is satisfied.
このような構成によれば、キャリブレーションの実行を、一定の状況に限定することができる。そのため、例えば、キャリブレーションの精度が低い蓋然性の高い状況でキャリブレーションを行わないことで、キャリブレーションの精度の低下を抑制できる。また例えば、キャリブレーションによる処理負荷の増加によって他の制御に影響が出てしまう蓋然性の高い状況にてキャリブレーションを行わないことで、他の制御に悪い影響を与えてしまうことを抑制できる。 According to such a configuration, execution of calibration can be limited to certain situations. Therefore, for example, by not performing calibration in a situation where there is a high probability that calibration accuracy is low, it is possible to suppress deterioration in calibration accuracy. Further, for example, by not performing calibration in a situation where there is a high probability that an increase in the processing load due to calibration will affect other controls, it is possible to suppress adverse effects on other controls.
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.第1実施形態]
[1-1.構成]
図1に示す表示システム1は、車両に搭載して用いられるシステムであって、フロントカメラ(以下、Fカメラ)11a,リアカメラ(以下、Rカメラ)11b,レフトサイドカメラ(以下、LSカメラ)11c,ライトサイドカメラ(以下、RSカメラ)11dの4つのカメラと、ディスプレイ13と、ECU15と、を備える。以下、上述した各カメラ全てを指す場合には、単にカメラ11と記載する場合がある。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. First Embodiment]
[1-1. composition]
A
カメラ11は、車両に搭載された撮像装置であって、例えば公知のCCDイメージセンサやCMOSイメージセンサなどを用いることができる。カメラ11は所定の時間間隔(一例として1/15s)で車両の周囲を撮影し、撮影した撮影画像をECU15に出力する。Fカメラ11a,Rカメラ11b,LSカメラ11c,RSカメラ11dは、それぞれ、車両の前方、後方、左方、右方を撮影するように配置されている。
The camera 11 is an imaging device mounted on a vehicle, and can use, for example, a known CCD image sensor or CMOS image sensor. The camera 11 photographs the surroundings of the vehicle at predetermined time intervals (eg, 1/15 s) and outputs the photographed images to the
ディスプレイ13は、画像を表示する液晶ディスプレイなどの表示装置であって、ECU15から入力される信号に従って、ECU15にて生成された合成画像を表示する。
ECU15は、映像信号入力部21と、通信インターフェース(I/F)22と、画像処理部23と、映像信号出力部24と、電源部25と、を備える。
The
The
映像信号入力部21は、カメラ11により撮影された撮影画像を示す映像信号をカメラ11から入力して、画像処理部23に出力する。
通信I/F22は、車両に搭載された図示しない1つ以上の制御装置やセンサ等から車載通信バス17に出力された信号を取得して画像処理部23に出力する。例えば、車両の走行速度(以下、車速)、タイヤの舵角、シフトレンジなどの車両に関する情報を取得する。
The video
The communication I/
画像処理部23は、CPU31と、RAM32a、ROM32b、フラッシュメモリ32c等の半導体メモリ(以下、メモリ32)と、を有するマイクロコンピュータを備える。画像処理部23の各種機能は、CPU31が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ32が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、画像処理部23は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。この画像処理部23が、情報処理装置に相当する。
The
画像処理部23は、CPU31がプログラムを実行することで実現される機能の構成として、図2に示すように、画像生成部41と、画像認識部42と、描画部43と、実行部44と、判断部45と、を備える。
The
画像生成部41は、4つのカメラ11のうちの2つ以上のカメラにより撮影された撮影画像に基づいて、1つ以上の合成画像を生成する。合成画像とは、複数の撮影画像を組み合わせた画像であり、少なくとも1つの撮影画像の視点が変更されていてもよい。例えば、カメラ11により実際に撮影された撮影画像とは異なる視点の画像や、1つのカメラの撮影画像よりも広い範囲を含む画像であってもよい。
The
合成画像を生成するためには、撮影画像それぞれの視点を特定する必要がある。視点を特定するためには、カメラ11それぞれの設置される位置や角度などを含むカメラの姿勢のパラメータが用いられる。メモリ32が構成する記憶領域には、カメラ11それぞれの上述したパラメータが記憶されており、画像生成部41によって必要なときに読み出され、使用される。
In order to generate a composite image, it is necessary to specify the viewpoint of each captured image. In order to specify the viewpoint, camera orientation parameters including the position and angle at which each camera 11 is installed are used. The above-described parameters of each camera 11 are stored in a storage area formed by the
画像認識部42は、画像生成部41により生成された合成画像から、所定の対象物を認識する。ここでいう所定の対象物とは、例えば、白線などの区画線、人,自動車,自転車などの移動体、信号や標識などの固定されたものなどが含まれうる。画像から対象物を認識する方法は特に限定されず、公知の様々な方法を用いることができる。例えば、パターンマッチングや、学習モデルを用いた計算処理によって対象物を認識してもよい。検出された対象物は、様々な制御に利用されてもよい。
The
描画部43は、合成画像の輝度や色を補正し、ディスプレイ13に出力したときに車両の搭乗者が見易い画像を生成する。
実行部44は、車両の走行中に、カメラ11のキャリブレーションを、カメラ11の撮影画像に基づいて実行する。
The
The
キャリブレーションとは、上述したカメラ11の位置や角度などのカメラ姿勢のパラメータを補正することである。具体的には、カメラ11の車両に対する設置位置を推定して、メモリ32の記憶領域に記憶されるパラメータと置き換えるか、或いは、従来のパラメータと新たに推定されたパラメータとを用いて新たにパラメータを再計算する。本実施形態では、キャリブレーション専用のマーカを用いることなくキャリブレーションを実行する。キャリブレーション方法の概要を、図3を用いて簡単に説明する。
Calibration is to correct parameters of the camera orientation such as the position and angle of the camera 11 described above. Specifically, the installation position of the camera 11 with respect to the vehicle is estimated and replaced with the parameters stored in the storage area of the
撮影画像61には、あるタイミングt1にて車両71に固定されたカメラ72により撮影された道路上のターゲット73を示す画像として、第1ターゲット画像62が示される。車両が走行して車両の位置が変化すると、ターゲット73の撮影画像上の位置は変化する。タイミングt1より後のタイミングt2にて撮影されたターゲット73を撮影画像61に模式的に重畳した画像を、第2ターゲット画像63とする。これら第1ターゲット画像62及び第2ターゲット画像63の画像上の位置の変化等と、タイミングt1からタイミングt2までの期間の車両71の移動量と、に基づいて、カメラ姿勢のパラメータを推定することができる。
なお、具体的なキャリブレーションの方法は特に限定されず、例えば、特開2014-101075に開示される手法を用いてもよい。
The captured
Note that a specific calibration method is not particularly limited, and for example, the method disclosed in Japanese Patent Application Laid-Open No. 2014-101075 may be used.
判断部45は、所定の条件を満たしているか否かを判断する。所定の条件とは、キャリブレーションを実行することに適した条件である。実行部44は、判断部45が所定の条件を満たしていると判断しているときに、キャリブレーションを実行可能に構成されている。
The
本実施形態において、所定の条件とは、(i)悪環境でないこと、かつ、(ii)白線を認識していること、が該当する。
悪環境とは、撮影画像の品質が低いことにより、キャリブレーションを実行するとその精度が低くなる蓋然性が高いと考えられる環境である。例えば、車両の周囲の環境が暗いこと、車両の走行中の道路が凸凹路であること、及び、カメラ1に汚れがあること、などが例示される。凸凹路の例としては、路面に多数の凹凸が存在する道路や、小石などの小さな障害物が多数存在する道路などが該当する。
In this embodiment, the predetermined conditions correspond to (i) the environment is not bad and (ii) the white lines are recognized.
A bad environment is an environment in which there is a high probability that the accuracy of calibration will be lowered due to the low quality of the captured image. For example, the environment around the vehicle is dark, the road on which the vehicle is traveling is bumpy, and the
悪環境を検出する具体的な手法は特に限定されない。車両の周囲の環境が暗いことは、例えば、カメラ11の撮影画像に基づいて判定したり、車両に搭載される図示しない照度センサの出力に基づいて判定したりすることができる。また、車両の走行中の道路が凸凹路であることは、例えば、撮影画像を画像処理することで石や凹みの存在を検出して判定したり、車両に搭載される図示しない振動センサや加速度センサの出力に基づいて判定したりすることができる。また、カメラ11に汚れがあることは、例えば、カメラ11により取得される撮影画像の経時変化から判断することができる。 A specific technique for detecting a bad environment is not particularly limited. Whether the environment around the vehicle is dark can be determined, for example, based on an image captured by the camera 11 or based on the output of an illuminance sensor (not shown) mounted on the vehicle. In addition, whether the road on which the vehicle is traveling is uneven can be determined by, for example, detecting the presence of stones or dents by image processing the captured image, or by detecting the presence of a vibration sensor (not shown) mounted on the vehicle or by detecting an acceleration sensor. It can be determined based on the output of the sensor. Further, whether the camera 11 is dirty can be determined, for example, from changes over time in the captured image acquired by the camera 11 .
白線は、画像認識部42により認識することができる。白線はキャリブレーションを実行するためのターゲットとして好適であるため、白線の検出を良好なキャリブレーションを実行するための要件としてもよい。
The white line can be recognized by the
説明を図1に戻る。映像信号出力部24は、画像処理部23により生成された合成画像を、ディスプレイ13に出力する。電源部25は、画像処理部23のほか、ECU15を構成する各要素に電力を供給する。
Returning to FIG. The video
[1-2.処理]
次に、画像処理部23のCPU31が実行する実行判断処理について、図4のフローチャートを用いて説明する。
[1-2. process]
Next, execution determination processing executed by the
まず、S1では、CPU31は、車両が走行中であるか否かを判定する。CPU31は、例えば、図示しない車速センサから取得される車速情報に基づき、所定速度(例えば、5km/h)以上のときに、車両が走行中であると判定する。
First, in S1, the
CPU31は、S1で車両が走行中であると判定した場合には、S2へ移行し、カメラ11から車両の周囲の撮像画像を取得する。一方、CPU31は、S1で車両が走行中でないと判定した場合には、図4の処理を終了する。
When the
続くS3及びS4において、CPU31は、キャリブレーションの実行を許可するための所定の条件が満たされているか否かを判断する。
具体的には、S3では、CPU31は、車両の環境が悪環境であるか否かを判定する。ここでは、車両の周囲の環境が暗いこと、車両の走行中の道路が凸凹路であること、及び、カメラに汚れがあること、のいずれか1つの要件でも満たされていれば、悪環境であると判定される。CPU31は、S3で悪環境であると判定した場合には、S1に戻る。一方、CPU31は、S3で悪環境でないと判定した場合には、S4へ移行する。
In subsequent S3 and S4, the
Specifically, in S3, the
続くS4では、CPU31は、白線を検知しているか否かを判定する。白線の検知自体は、画像認識部42の機能として実現される。CPU31は、S4で白線を検知していると判定した場合には、S5へ移行する。一方、CPU31は、S4で白線を検知していないと判定した場合には、S1へ戻る。
In subsequent S4, the
このように、CPU31は、上述した判断部45として機能し、所定の条件を満たさない場合には、S1に戻り、所定の条件を満たす場合には、S5へ移行する。
次に、S5では、CPU31は、キャリブレーションを実行する。ここでは、CPU31は上述した実行部44として機能し、上述したキャリブレーションを実行する。
In this way, the
Next, in S5, the
次に、S6では、CPU31は、メモリ32に記憶されるカメラパラメータを、S5のキャリブレーションにより推定されたパラメータに更新する。このS6後、処理がS1に戻る。
Next, in S6, the
[1-3.効果]
以上詳述した第1実施形態によれば、以下の効果を奏する。
(1a)表示システム1の画像処理部23は、キャリブレーションを好適に実行できる蓋然性の高い場合において、キャリブレーションを実行することができる。そのため、キャリブレーションの精度が低い蓋然性の高い状況でキャリブレーションを行わないことで、キャリブレーションの精度が低下してしまうことを抑制できる。
[1-3. effect]
According to 1st Embodiment detailed above, there exist the following effects.
(1a) The
(1b)画像処理部23は、キャリブレーションを行う所定の条件を満たしたか否かを、カメラ11の撮影画像、及び、車両に搭載されたセンサの出力の少なくともいずれか一方に基づいて実行することができる。
(1b) The
(1c)判断部45は、車両の周囲の環境が暗いこと、車両の走行中の道路が凸凹路であること、及び、カメラ11に汚れがあること、のうちの少なくとも1つの要件が満たされたときには、キャリブレーションを実行するための条件を満たしていないと判断する。上記の要件が満たされる場合にはキャリブレーションの精度が低くなり易いが、上記の要件を満たしていないときにはキャリブレーションを許可しないので、低い精度のキャリブレーションを実行してしまうことを抑制できる。
(1c) The
(1d)判断部45は、少なくとも、カメラ11により取得された撮影画像に白線が含まれることを、所定の条件を満たすと判断するための要件とする。よって、白線をキャリブレーションのターゲットとすることができ、キャリブレーションの精度を高めることができる。
(1d) The determining
[1-4.第1実施形態の変形例]
第1実施形態では、白線をキャリブレーションのターゲットとして用いる構成を例示したが、ターゲットは白線以外の物であってもよい。例えば、白線以外の区画線や、道路標示物、縁石など、道路上の様々な物をターゲットとして用いることができる。ターゲットに白線以外の物を用いる場合は、図4のS4の処理では、白線に代えて、当該対象物が検出されているか否かを判断してもよい。
[1-4. Modification of First Embodiment]
In the first embodiment, the white line is used as the calibration target, but the target may be something other than the white line. For example, various objects on the road such as lane markings other than white lines, road markings, and curbs can be used as targets. If an object other than the white line is used as the target, in the process of S4 in FIG. 4, instead of the white line, it may be determined whether or not the object is detected.
[2.第2実施形態]
[2-1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2. Second Embodiment]
[2-1. Differences from First Embodiment]
Since the basic configuration of the second embodiment is the same as that of the first embodiment, differences will be described below. Note that the same reference numerals as in the first embodiment indicate the same configurations, and refer to the preceding description.
前述した第1実施形態では、キャリブレーションを行うか否かを判断するための要件として、悪環境であること、及び、白線を認識していることを例示した。これに対し、第2実施形態では、車両の走行速度を所定の条件を満たすか否かの判断の要件とする点で第1実施形態と相違する。また第2実施形態では、図5に示されるように、車速に応じて、撮影画像を画像処理した結果を用いる様々な制御を実行する。本実施形態では、30km/h未満の低速域にて複数の制御を実行するが、30km/h~50km/hの中速域ではそれらの制御を実行せず、50km/h以上の高速域では車線検知を実行する。 In the above-described first embodiment, the requirements for determining whether or not to perform calibration are a bad environment and recognition of white lines. On the other hand, the second embodiment differs from the first embodiment in that the traveling speed of the vehicle is used as a requirement for determining whether or not a predetermined condition is satisfied. Further, in the second embodiment, as shown in FIG. 5, various controls using the result of image processing of the captured image are executed according to the vehicle speed. In this embodiment, a plurality of controls are executed in the low speed range of less than 30 km/h. Perform lane detection.
[2-2.処理]
第2実施形態の23のCPUが、第1実施形態の実行判断処理(図4)に代えて実行する実行判断処理について、図6のフローチャートを用いて説明する。なお、図6におけるS11,S12,S14,及びS15の処理は、図におけるS1,S2,S5,及びS6の処理と同様であるため、説明を一部簡略化している。
[2-2. process]
Execution determination processing executed by the
図6の実行判断処理では、CPU31は、S12にて撮影画像61を取得した後、S13へ移行する。
S13では、CPU31は、車速が中速域以上であるか否かを判定する。車速は、例えば、図示しない車速センサの出力信号に基づいて検出することができる。画像処理部23は、低速域では複数の制御を実行しているため、画像処理部23の処理負荷が高い。ここでさらにキャリブレーションを実行すると、他の制御に遅延が生じる可能性が高くなってしまう。よってCPU31は、低速域で走行中はキャリブレーションの実行を許可しない。一方、31は、中速域及び高速域で走行中は、処理負荷が小さいため、キャリブレーションの実行を許可する。
In the execution determination process of FIG. 6, the
In S13, the
CPU31は、S13で車速が中速域以上でないと判定した場合には、S11に戻る。一方、CPU31は、S13で車速が中速域以上であると判定した場合には、S14へ移行し、キャリブレーションを実行する。
When the
[2-3.効果]
以上詳述した第2実施形態によれば、以下の効果を奏する。
(2a)表示システム1の画像処理部23は、キャリブレーションによる処理負荷が他の制御に影響を及ぼす蓋然性の低い場合にキャリブレーションを実行することができる。そのため、キャリブレーションの実行が他の制御に悪影響を与えてしまうことを抑制できる。
[2-3. effect]
According to the second embodiment described in detail above, the following effects are obtained.
(2a) The
[2-4.第2実施形態の変形例]
第2実施形態では、車速が中速域以上である場合に限りキャリブレーションの実行を許可する構成を例示した。しかしながら、キャリブレーションの実行を許可する速度域は、上記の例に限定されない。例えば、一定の速度範囲においてのみキャリブレーションの実行を許可する構成としてもよい。一例として、低速域、中速域、及び高速域のいずれか1つの場合にのみキャリブレーションの実行を許可してもよい。また、キャリブレーションの実行の可否を判断するための速度の閾値は、第2実施形態にて開示した速度の例に限定されず、様々な値としてもよい。
[2-4. Modification of Second Embodiment]
In the second embodiment, the configuration was exemplified in which execution of calibration is permitted only when the vehicle speed is in the middle speed range or higher. However, the speed range in which execution of calibration is permitted is not limited to the above example. For example, the configuration may be such that execution of calibration is permitted only within a certain speed range. As an example, execution of calibration may be permitted only in one of the low speed range, medium speed range, and high speed range. Further, the speed threshold for determining whether calibration can be executed is not limited to the speed example disclosed in the second embodiment, and may be various values.
[3.第3実施形態]
[3-1.第1実施形態との相違点]
第3実施形態は、基本的な構成は第1実施形態及び第2実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[3. Third Embodiment]
[3-1. Differences from First Embodiment]
Since the basic configuration of the third embodiment is the same as that of the first and second embodiments, differences will be described below. Note that the same reference numerals as in the first embodiment indicate the same configurations, and refer to the preceding description.
第3実施形態では、画像処理部23の処理負荷が小さいこと、具体的には画像処理部23のメモリ使用量を、所定の条件を満たすか否かの判断の要件とする点で、第1実施形態と相違する。第3実施形態において「メモリ使用量」とは、RAM32aの使用量のことを指す。画像処理部23は、メモリ使用量を計測するソフトウェアを備えている。また第3実施形態では、第2実施形態と同様に、撮影画像を画像処理した結果を用いる様々な制御を実行する。
In the third embodiment, the processing load on the
[3-2.処理]
第3実施形態の23のCPUが、第1実施形態の実行判断処理(図4)に代えて実行する実行判断処理について、図7のフローチャートを用いて説明する。なお、図7におけるS21,S22,S24,及びS25の処理は、図におけるS1,S2,S5,及びS6の処理と同様であるため、説明を一部簡略化している。
[3-2. process]
Execution determination processing executed by the
図7の実行判断処理では、CPU31は、S22にて撮影画像61を取得した後、S2
3へ移行する。
S23では、CPU31は、キャリブレーション実施前のメモリ使用量が基準値以上であるか否かを判定する。ここでの基準値とは、例えば図8に示されるように、処理速度の低下が生じていると推定される、キャリブレーション実施前のメモリ使用量の値である。図8のパターンAは、処理速度に影響がない範囲のメモリ使用量の例である。よって、この場合には、キャリブレーションの実行が許可される。一方、図8のパターンBは、処理速度の低下が推定されるメモリ使用量の例である。この場合には、キャリブレーションの実行が許可されない。
In the execution determination process of FIG. 7, the
Go to 3.
In S23, the
CPU31は、S23でメモリ使用量が基準値以上であると判定した場合には、S21に戻る。一方、CPU31は、S23でメモリ使用量が基準値以上でないと判定した場合には、S24へ移行し、キャリブレーションを実行する。
When the
[3-3.効果]
以上詳述した第3実施形態によれば、以下の効果を奏する。
(3a)表示システム1の画像処理部23は、メモリ使用量が基準値以上でない場合にキャリブレーションを実行することができる。そのため、キャリブレーションの実行が他の制御に悪影響を与えてしまうことを抑制できる。
[3-3. effect]
According to the third embodiment described in detail above, the following effects are obtained.
(3a) The
[3-4.第3実施形態の変形例]
第3実施形態では、基準値とは、画像処理部23の処理速度の低下が生じていると推定されるメモリ使用量である構成を例示した。しかしながら、基準値は、上記の構成に限定されない。例えば、キャリブレーションを実行することによりメモリ使用量が増加することを考慮して、基準値は、上記増加量を当該基準値に加算すると、処理速度の低下が顕著となるメモリ使用量の閾値を超えることとなるメモリ使用量の値としてもよい。
[3-4. Modification of Third Embodiment]
In the third embodiment, the reference value is the amount of memory usage estimated to cause the processing speed of the
また、メモリ使用量以外の基準に基づいて、画像処理部23の処理負荷が小さいことを検出してもよい。例えば、処理負荷が大きい特定の制御が実行されていないことや、実行されている制御が所定数以下であるときなどに、画像処理部23の処理負荷が小さいと判断してもよい。
Further, it may be detected that the processing load of the
[4.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[4. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.
(4a)上記第1実施形態ではキャリブレーションの精度が低下しないタイミングでキャリブレーションを実行できるように所定の条件が設定されており、また上記第2及び第3実施形態ではキャリブレーションによる他の制御への影響を抑制してキャリブレーションを実行できるように所定の条件が設定されていた。しかしながら、上述した両方の効果を得られるように所定の条件が設定されていてもよい。例えば、図9のフローチャートに示される実行判断処理のように、上述したS3、S4、S13、及びS23の全ての判断を行うように構成されていてもよい。このような構成であれば、キャリブレーションの精度の低下抑制と、他の制御への影響の抑制と、を同時に実現することができる。 (4a) In the first embodiment, the predetermined conditions are set so that the calibration can be performed at a timing that does not reduce the accuracy of the calibration. Predetermined conditions were set so that calibration could be performed while suppressing the influence on However, a predetermined condition may be set so that both effects described above can be obtained. For example, like the execution determination process shown in the flowchart of FIG. 9, it may be configured to perform all of the above-described S3, S4, S13, and S23 determinations. With such a configuration, it is possible to simultaneously achieve suppression of deterioration in calibration accuracy and suppression of influence on other controls.
(4b)上述した第2実施形態では、車両の走行速度に基づいて、キャリブレーションの実行を許可するための所定の条件を満たすと判断する構成を例示したが、車速以外の車両の走行状態に基づいて、所定の条件を満たすか否かを判断してもよい。例えば、前照灯などのライトが点灯していない状態、車両の外部における少なくとも一定の範囲に移動体を検出していない状態、などが検出されることを、所定の条件を満たすための要件としてもよい。車両の走行速度が所定の範囲であること、ライトを点灯せずに走行すること、及
び、所定範囲に移動体が存在しないことが、車両の状態が所定の状態であることの例に相当する。
(4b) In the above-described second embodiment, the configuration is exemplified in which it is determined that the predetermined condition for permitting execution of calibration is satisfied based on the running speed of the vehicle. Based on this, it may be determined whether or not a predetermined condition is satisfied. For example, a condition in which lights such as headlights are not turned on, a condition in which a moving object is not detected within at least a certain range outside the vehicle, etc. is detected as a requirement for a predetermined condition. good too. Examples of the predetermined state of the vehicle are that the vehicle travel speed is within a predetermined range, that the vehicle is traveling without turning on the lights, and that there is no moving object within the predetermined range. .
(4c)本開示に記載の画像処理部23及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の画像処理部23及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の画像処理部23及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。画像処理部23に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(4c) The
(4d)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (4d) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.
(4e)上述した画像処理部23の他、当該画像処理部23を構成要素とするシステム、当該画像処理部23としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、キャリブレーション実行方法など、種々の形態で本開示を実現することもできる。
(4e) In addition to the
1…表示システム、11,11a,11b,11c,11d…カメラ、23…画像処理部、44…実行部、45…判断部、61…撮影画像
DESCRIPTION OF
Claims (4)
前記車両に搭載されて当該車両の周囲を撮影するカメラ(11a、11b、11c、11d)のキャリブレーションを、前記カメラの撮影画像(61)に基づいて実行するように構成された実行部(44)と、
所定の条件を満たしているか否かを判断するように構成された判断部(45)と、を備え、
前記実行部は、前記判断部が前記所定の条件を満たしていると判断しているときに、前記キャリブレーションを実行可能に構成されており、
前記判断部は、少なくとも、前記カメラにより取得された前記撮影画像に前記キャリブレーションの基準として用いることができるターゲット(62、63)が含まれることを、前記所定の条件を満たすと判断するための要件とし、
前記ターゲットとは、区画線及び道路標示のうちの少なくともいずれか一方であり、
更に、前記実行部は、特定の期間における前記ターゲットの前記撮影画像における位置の変化と、前記特定の期間における前記車両の移動量と、に基づいてカメラ姿勢のパラメータを推定することにより前記キャリブレーションを行う、情報処理装置。 An information processing device (23) mounted on a vehicle and used,
an execution unit (44) configured to perform calibration of cameras (11a, 11b, 11c, 11d) mounted on the vehicle and capturing the surroundings of the vehicle, based on an image (61) captured by the camera; )and,
a determination unit (45) configured to determine whether a predetermined condition is satisfied;
The execution unit is configured to be able to execute the calibration when the determination unit determines that the predetermined condition is satisfied,
The determination unit is configured to determine that at least the target (62, 63) that can be used as a reference for the calibration is included in the captured image acquired by the camera, and that the predetermined condition is satisfied. as a requirement,
The target is at least one of lane markings and road markings,
Further, the execution unit performs the calibration by estimating parameters of the camera posture based on a change in position of the target in the captured image during a specific period and a movement amount of the vehicle during the specific period. information processing device.
前記判断部は、前記カメラにより取得された撮影画像、及び、前記車両に搭載されたセンサの出力、のうちの少なくとも一方に基づき、前記車両の周囲の環境が暗いこと、前記車両の走行中の道路が凸凹路であること、及び、前記カメラに汚れがあること、のうちの少なくとも1つの要件が満たされたときには、前記所定の条件を満たしていないと判断する、情報処理装置。 The information processing device according to claim 1 ,
Based on at least one of the captured image acquired by the camera and the output of a sensor mounted on the vehicle, the determination unit determines that the environment around the vehicle is dark and that the vehicle is running. An information processing device that determines that the predetermined condition is not satisfied when at least one of the conditions that the road is bumpy and that the camera is dirty is satisfied.
前記判断部は、少なくとも前記車両に搭載されたセンサの出力に基づいて取得される前記車両の状態が所定の状態であることを、前記所定の条件を満たすと判断するための要件とする、情報処理装置。 The information processing device according to claim 1 or claim 2 ,
The determination unit uses, as a requirement for determining that the predetermined condition is satisfied, that the state of the vehicle acquired based on at least the output of a sensor mounted on the vehicle is a predetermined state. processing equipment.
前記判断部は、少なくとも当該情報処理装置の処理負荷が小さいことを、前記所定の条件を満たすと判断するための要件とする、情報処理装置。 The information processing device according to any one of claims 1 to 3 ,
The information processing device, wherein the determination unit determines that at least the processing load of the information processing device is small as a requirement for determining that the predetermined condition is satisfied.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019019622A JP7263807B2 (en) | 2019-02-06 | 2019-02-06 | Information processing equipment |
PCT/JP2020/004366 WO2020162498A1 (en) | 2019-02-06 | 2020-02-05 | Information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019019622A JP7263807B2 (en) | 2019-02-06 | 2019-02-06 | Information processing equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020127164A JP2020127164A (en) | 2020-08-20 |
JP7263807B2 true JP7263807B2 (en) | 2023-04-25 |
Family
ID=71947986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019019622A Active JP7263807B2 (en) | 2019-02-06 | 2019-02-06 | Information processing equipment |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7263807B2 (en) |
WO (1) | WO2020162498A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023199465A1 (en) * | 2022-04-14 | 2023-10-19 | 日立Astemo株式会社 | Vehicle-mounted image processing device and calibration method therefor |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008011174A (en) | 2006-06-29 | 2008-01-17 | Hitachi Ltd | Calibration device of on-vehicle camera, program, and car navigation system |
WO2011114624A1 (en) | 2010-03-17 | 2011-09-22 | 本田技研工業株式会社 | Vehicle surroundings monitoring device |
JP2016082258A (en) | 2014-10-09 | 2016-05-16 | 株式会社デンソー | On-vehicle camera calibration device, image generation apparatus, on-vehicle camera calibration method and image generation method |
JP2017143417A (en) | 2016-02-10 | 2017-08-17 | クラリオン株式会社 | Calibration system, calibration device |
JP2017211222A (en) | 2016-05-24 | 2017-11-30 | 三菱電機株式会社 | On-vehicle camera calibration auxiliary device |
-
2019
- 2019-02-06 JP JP2019019622A patent/JP7263807B2/en active Active
-
2020
- 2020-02-05 WO PCT/JP2020/004366 patent/WO2020162498A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008011174A (en) | 2006-06-29 | 2008-01-17 | Hitachi Ltd | Calibration device of on-vehicle camera, program, and car navigation system |
WO2011114624A1 (en) | 2010-03-17 | 2011-09-22 | 本田技研工業株式会社 | Vehicle surroundings monitoring device |
JP2016082258A (en) | 2014-10-09 | 2016-05-16 | 株式会社デンソー | On-vehicle camera calibration device, image generation apparatus, on-vehicle camera calibration method and image generation method |
JP2017143417A (en) | 2016-02-10 | 2017-08-17 | クラリオン株式会社 | Calibration system, calibration device |
JP2017211222A (en) | 2016-05-24 | 2017-11-30 | 三菱電機株式会社 | On-vehicle camera calibration auxiliary device |
Also Published As
Publication number | Publication date |
---|---|
WO2020162498A1 (en) | 2020-08-13 |
JP2020127164A (en) | 2020-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11192557B2 (en) | Road profile along a predicted path | |
US9902323B2 (en) | Periphery surveillance apparatus and program | |
JP5680573B2 (en) | Vehicle driving environment recognition device | |
US9619894B2 (en) | System and method for estimating vehicle dynamics using feature points in images from multiple cameras | |
JP2018180941A (en) | Inclination detector | |
JP6524922B2 (en) | Driving support device, driving support method | |
JPWO2015174208A1 (en) | Image recognition apparatus and control method thereof | |
JP6209825B2 (en) | Parallax detection device and parallax detection method | |
CN111357282B (en) | Image processing apparatus, image processing method, program, and solid-state imaging apparatus | |
JP2011065219A (en) | Device for estimation of road curvature | |
JP2017034543A (en) | On-vehicle display control device and on-vehicle display control method | |
US11017245B2 (en) | Parking assist apparatus | |
CN111937380A (en) | Image processing apparatus | |
JP6350369B2 (en) | Display device | |
JP2007293672A (en) | Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle | |
JP7263807B2 (en) | Information processing equipment | |
JP5083254B2 (en) | Parking result display system | |
JP6032141B2 (en) | Travel road marking detection device and travel road marking detection method | |
WO2015182148A1 (en) | Object-detecting device, and vehicle having object-detecting device installed therein | |
JP3965078B2 (en) | Stereo-type vehicle exterior monitoring device and control method thereof | |
JP7122394B2 (en) | Imaging unit controller | |
JP2011008459A (en) | In-vehicle camera device | |
JP7169075B2 (en) | Imaging control device and imaging control method | |
JP2006036048A (en) | Vehicle light controlling device | |
JP2019135620A (en) | Traveling support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230327 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7263807 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |