JP7263807B2 - Information processing equipment - Google Patents

Information processing equipment Download PDF

Info

Publication number
JP7263807B2
JP7263807B2 JP2019019622A JP2019019622A JP7263807B2 JP 7263807 B2 JP7263807 B2 JP 7263807B2 JP 2019019622 A JP2019019622 A JP 2019019622A JP 2019019622 A JP2019019622 A JP 2019019622A JP 7263807 B2 JP7263807 B2 JP 7263807B2
Authority
JP
Japan
Prior art keywords
vehicle
calibration
camera
satisfied
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019019622A
Other languages
Japanese (ja)
Other versions
JP2020127164A (en
Inventor
育子 古村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019019622A priority Critical patent/JP7263807B2/en
Priority to PCT/JP2020/004366 priority patent/WO2020162498A1/en
Publication of JP2020127164A publication Critical patent/JP2020127164A/en
Application granted granted Critical
Publication of JP7263807B2 publication Critical patent/JP7263807B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

本開示は、車両に搭載して用いられる情報処理装置に関する。 The present disclosure relates to an information processing device that is mounted on a vehicle and used.

車両に搭載される複数のカメラにより取得された複数の撮像画像を合成する場合には、カメラ姿勢の補正(以下、キャリブレーションとも記載する)を行うことで、合成画像の品質を向上させることができる。特許文献1には、キャリブレーションのための特定のマーカを用いずに、走行中にキャリブレーションを行う技術が提案されている。 When synthesizing a plurality of captured images acquired by a plurality of cameras mounted on a vehicle, the quality of the synthesized image can be improved by correcting the camera posture (hereinafter also referred to as calibration). can. Patent Literature 1 proposes a technique of performing calibration while driving without using a specific marker for calibration.

特開2014-101075号公報JP 2014-101075 A

しかしながら、発明者の詳細な検討の結果、特定のマーカを用いない特許文献1のキャリブレーション手法では、車両の置かれる状況によってはキャリブレーションの精度が低くなってしまう場合があるという課題が見出された。また、発明者の詳細な検討の結果、キャリブレーションの実行に伴う処理負荷の増加によって他の制御に影響を及ぼしてしまう場合があるという課題が見出された。 However, as a result of detailed studies by the inventors, it was found that the calibration method of Patent Document 1, which does not use specific markers, may result in low calibration accuracy depending on the situation in which the vehicle is placed. was done. Further, as a result of detailed studies by the inventor, a problem was found that an increase in the processing load accompanying the execution of calibration may affect other controls.

本開示の1つの局面は、適切なタイミングでキャリブレーションを行うことができる技術を提供する。 One aspect of the present disclosure provides a technique capable of performing calibration at appropriate timing.

本開示の一態様は、車両に搭載して用いられる情報処理装置であって、実行部と、判断部と、を備える。実行部は、車両に搭載されて当該車両の周囲を撮影するカメラのキャリブレーションを、カメラの撮影画像に基づいて実行するように構成される。判断部は、所定の条件を満たしているか否かを判断するように構成される。実行部は、判断部が所定の条件を満たしていると判断しているときに、キャリブレーションを実行可能に構成されている。 One aspect of the present disclosure is an information processing device mounted on a vehicle and used, and includes an execution unit and a determination unit. The executing unit is configured to execute calibration of a camera mounted on a vehicle that photographs the surroundings of the vehicle, based on an image captured by the camera. The determination unit is configured to determine whether or not a predetermined condition is satisfied. The execution unit is configured to be able to execute calibration when the determination unit determines that the predetermined condition is satisfied.

このような構成によれば、キャリブレーションの実行を、一定の状況に限定することができる。そのため、例えば、キャリブレーションの精度が低い蓋然性の高い状況でキャリブレーションを行わないことで、キャリブレーションの精度の低下を抑制できる。また例えば、キャリブレーションによる処理負荷の増加によって他の制御に影響が出てしまう蓋然性の高い状況にてキャリブレーションを行わないことで、他の制御に悪い影響を与えてしまうことを抑制できる。 According to such a configuration, execution of calibration can be limited to certain situations. Therefore, for example, by not performing calibration in a situation where there is a high probability that calibration accuracy is low, it is possible to suppress deterioration in calibration accuracy. Further, for example, by not performing calibration in a situation where there is a high probability that an increase in the processing load due to calibration will affect other controls, it is possible to suppress adverse effects on other controls.

第1実施形態の情報処理装置に相当する画像処理部の構成を示すブロック図である。2 is a block diagram showing the configuration of an image processing unit corresponding to the information processing apparatus of the first embodiment; FIG. 画像処理部の機能ブロック図である。4 is a functional block diagram of an image processing unit; FIG. キャリブレーションの概要を説明する図である。It is a figure explaining the outline|summary of calibration. 第1実施形態の実行判断処理のフローチャートである。4 is a flowchart of execution determination processing according to the first embodiment; 画像処理に基づく複数の制御と走行速度との関係を説明する図である。It is a figure explaining the relationship between several control based on image processing, and running speed. 第2実施形態の実行判断処理のフローチャートである。10 is a flowchart of execution determination processing according to the second embodiment; 第3実施形態の実行判断処理のフローチャートである。10 is a flowchart of execution determination processing according to the third embodiment; メモリ使用量と処理速度低下の関係を説明する図である。It is a figure explaining the relationship between the amount of memory used, and a processing speed fall. その他の実施形態の実行判断処理のフローチャートである。10 is a flowchart of execution determination processing according to another embodiment;

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.第1実施形態]
[1-1.構成]
図1に示す表示システム1は、車両に搭載して用いられるシステムであって、フロントカメラ(以下、Fカメラ)11a,リアカメラ(以下、Rカメラ)11b,レフトサイドカメラ(以下、LSカメラ)11c,ライトサイドカメラ(以下、RSカメラ)11dの4つのカメラと、ディスプレイ13と、ECU15と、を備える。以下、上述した各カメラ全てを指す場合には、単にカメラ11と記載する場合がある。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. First Embodiment]
[1-1. composition]
A display system 1 shown in FIG. 1 is a system mounted on a vehicle and includes a front camera (hereinafter referred to as F camera) 11a, a rear camera (hereinafter referred to as R camera) 11b, and a left side camera (hereinafter referred to as LS camera). 11c and four right-side cameras (hereinafter referred to as RS cameras) 11d, a display 13, and an ECU 15 are provided. Hereinafter, when referring to all of the cameras described above, they may simply be referred to as camera 11 .

カメラ11は、車両に搭載された撮像装置であって、例えば公知のCCDイメージセンサやCMOSイメージセンサなどを用いることができる。カメラ11は所定の時間間隔(一例として1/15s)で車両の周囲を撮影し、撮影した撮影画像をECU15に出力する。Fカメラ11a,Rカメラ11b,LSカメラ11c,RSカメラ11dは、それぞれ、車両の前方、後方、左方、右方を撮影するように配置されている。 The camera 11 is an imaging device mounted on a vehicle, and can use, for example, a known CCD image sensor or CMOS image sensor. The camera 11 photographs the surroundings of the vehicle at predetermined time intervals (eg, 1/15 s) and outputs the photographed images to the ECU 15 . The F camera 11a, R camera 11b, LS camera 11c, and RS camera 11d are arranged so as to photograph the front, rear, left, and right sides of the vehicle, respectively.

ディスプレイ13は、画像を表示する液晶ディスプレイなどの表示装置であって、ECU15から入力される信号に従って、ECU15にて生成された合成画像を表示する。
ECU15は、映像信号入力部21と、通信インターフェース(I/F)22と、画像処理部23と、映像信号出力部24と、電源部25と、を備える。
The display 13 is a display device such as a liquid crystal display that displays images, and displays a synthesized image generated by the ECU 15 according to a signal input from the ECU 15 .
The ECU 15 includes a video signal input section 21 , a communication interface (I/F) 22 , an image processing section 23 , a video signal output section 24 and a power supply section 25 .

映像信号入力部21は、カメラ11により撮影された撮影画像を示す映像信号をカメラ11から入力して、画像処理部23に出力する。
通信I/F22は、車両に搭載された図示しない1つ以上の制御装置やセンサ等から車載通信バス17に出力された信号を取得して画像処理部23に出力する。例えば、車両の走行速度(以下、車速)、タイヤの舵角、シフトレンジなどの車両に関する情報を取得する。
The video signal input unit 21 receives from the camera 11 a video signal representing an image captured by the camera 11 and outputs the video signal to the image processing unit 23 .
The communication I/F 22 acquires signals output to the in-vehicle communication bus 17 from one or more control devices, sensors, and the like (not shown) mounted in the vehicle, and outputs the signals to the image processing unit 23 . For example, vehicle-related information such as the running speed of the vehicle (hereinafter referred to as vehicle speed), the steering angle of the tires, and the shift range is acquired.

画像処理部23は、CPU31と、RAM32a、ROM32b、フラッシュメモリ32c等の半導体メモリ(以下、メモリ32)と、を有するマイクロコンピュータを備える。画像処理部23の各種機能は、CPU31が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ32が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、画像処理部23は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。この画像処理部23が、情報処理装置に相当する。 The image processing unit 23 includes a microcomputer having a CPU 31 and semiconductor memories such as a RAM 32a, a ROM 32b, and a flash memory 32c (hereinafter referred to as memory 32). Various functions of the image processing unit 23 are realized by the CPU 31 executing a program stored in a non-transitional substantive recording medium. In this example, the memory 32 corresponds to a non-transitional substantive recording medium storing programs. Also, by executing this program, a method corresponding to the program is executed. Note that the image processing unit 23 may include one microcomputer, or may include a plurality of microcomputers. This image processing unit 23 corresponds to an information processing device.

画像処理部23は、CPU31がプログラムを実行することで実現される機能の構成として、図2に示すように、画像生成部41と、画像認識部42と、描画部43と、実行部44と、判断部45と、を備える。 The image processing unit 23 includes an image generation unit 41, an image recognition unit 42, a drawing unit 43, and an execution unit 44, as shown in FIG. , and a determination unit 45 .

画像生成部41は、4つのカメラ11のうちの2つ以上のカメラにより撮影された撮影画像に基づいて、1つ以上の合成画像を生成する。合成画像とは、複数の撮影画像を組み合わせた画像であり、少なくとも1つの撮影画像の視点が変更されていてもよい。例えば、カメラ11により実際に撮影された撮影画像とは異なる視点の画像や、1つのカメラの撮影画像よりも広い範囲を含む画像であってもよい。 The image generation unit 41 generates one or more composite images based on images captured by two or more of the four cameras 11 . A composite image is an image obtained by combining a plurality of captured images, and the viewpoint of at least one captured image may be changed. For example, it may be an image from a viewpoint different from the captured image actually captured by the camera 11, or an image including a wider range than the captured image of one camera.

合成画像を生成するためには、撮影画像それぞれの視点を特定する必要がある。視点を特定するためには、カメラ11それぞれの設置される位置や角度などを含むカメラの姿勢のパラメータが用いられる。メモリ32が構成する記憶領域には、カメラ11それぞれの上述したパラメータが記憶されており、画像生成部41によって必要なときに読み出され、使用される。 In order to generate a composite image, it is necessary to specify the viewpoint of each captured image. In order to specify the viewpoint, camera orientation parameters including the position and angle at which each camera 11 is installed are used. The above-described parameters of each camera 11 are stored in a storage area formed by the memory 32, and are read out and used by the image generating section 41 when necessary.

画像認識部42は、画像生成部41により生成された合成画像から、所定の対象物を認識する。ここでいう所定の対象物とは、例えば、白線などの区画線、人,自動車,自転車などの移動体、信号や標識などの固定されたものなどが含まれうる。画像から対象物を認識する方法は特に限定されず、公知の様々な方法を用いることができる。例えば、パターンマッチングや、学習モデルを用いた計算処理によって対象物を認識してもよい。検出された対象物は、様々な制御に利用されてもよい。 The image recognition section 42 recognizes a predetermined target object from the composite image generated by the image generation section 41 . The predetermined object here can include, for example, lane markings such as white lines, mobile objects such as people, automobiles, and bicycles, and fixed objects such as traffic lights and signs. A method for recognizing an object from an image is not particularly limited, and various known methods can be used. For example, the target object may be recognized by pattern matching or calculation processing using a learning model. The detected object may be used for various controls.

描画部43は、合成画像の輝度や色を補正し、ディスプレイ13に出力したときに車両の搭乗者が見易い画像を生成する。
実行部44は、車両の走行中に、カメラ11のキャリブレーションを、カメラ11の撮影画像に基づいて実行する。
The drawing unit 43 corrects the brightness and color of the synthesized image, and generates an image that is easy for the passengers of the vehicle to see when output to the display 13 .
The execution unit 44 performs calibration of the camera 11 based on the captured image of the camera 11 while the vehicle is running.

キャリブレーションとは、上述したカメラ11の位置や角度などのカメラ姿勢のパラメータを補正することである。具体的には、カメラ11の車両に対する設置位置を推定して、メモリ32の記憶領域に記憶されるパラメータと置き換えるか、或いは、従来のパラメータと新たに推定されたパラメータとを用いて新たにパラメータを再計算する。本実施形態では、キャリブレーション専用のマーカを用いることなくキャリブレーションを実行する。キャリブレーション方法の概要を、図3を用いて簡単に説明する。 Calibration is to correct parameters of the camera orientation such as the position and angle of the camera 11 described above. Specifically, the installation position of the camera 11 with respect to the vehicle is estimated and replaced with the parameters stored in the storage area of the memory 32, or the conventional parameters and newly estimated parameters are used to create new parameters. recalculate. In this embodiment, calibration is performed without using a marker dedicated to calibration. An overview of the calibration method will be briefly described with reference to FIG.

撮影画像61には、あるタイミングt1にて車両71に固定されたカメラ72により撮影された道路上のターゲット73を示す画像として、第1ターゲット画像62が示される。車両が走行して車両の位置が変化すると、ターゲット73の撮影画像上の位置は変化する。タイミングt1より後のタイミングt2にて撮影されたターゲット73を撮影画像61に模式的に重畳した画像を、第2ターゲット画像63とする。これら第1ターゲット画像62及び第2ターゲット画像63の画像上の位置の変化等と、タイミングt1からタイミングt2までの期間の車両71の移動量と、に基づいて、カメラ姿勢のパラメータを推定することができる。
なお、具体的なキャリブレーションの方法は特に限定されず、例えば、特開2014-101075に開示される手法を用いてもよい。
The captured image 61 shows a first target image 62 as an image showing a target 73 on the road captured by a camera 72 fixed to the vehicle 71 at a certain timing t1. When the vehicle travels and the position of the vehicle changes, the position of the target 73 on the captured image changes. A second target image 63 is an image in which the target 73 captured at timing t2 after timing t1 is schematically superimposed on the captured image 61 . Estimating camera attitude parameters based on changes in the positions of the first target image 62 and the second target image 63 on the images, and the amount of movement of the vehicle 71 during the period from timing t1 to timing t2. can be done.
Note that a specific calibration method is not particularly limited, and for example, the method disclosed in Japanese Patent Application Laid-Open No. 2014-101075 may be used.

判断部45は、所定の条件を満たしているか否かを判断する。所定の条件とは、キャリブレーションを実行することに適した条件である。実行部44は、判断部45が所定の条件を満たしていると判断しているときに、キャリブレーションを実行可能に構成されている。 The determination unit 45 determines whether or not a predetermined condition is satisfied. Predetermined conditions are conditions suitable for performing calibration. The execution unit 44 is configured to be able to execute calibration when the determination unit 45 determines that a predetermined condition is satisfied.

本実施形態において、所定の条件とは、(i)悪環境でないこと、かつ、(ii)白線を認識していること、が該当する。
悪環境とは、撮影画像の品質が低いことにより、キャリブレーションを実行するとその精度が低くなる蓋然性が高いと考えられる環境である。例えば、車両の周囲の環境が暗いこと、車両の走行中の道路が凸凹路であること、及び、カメラ1に汚れがあること、などが例示される。凸凹路の例としては、路面に多数の凹凸が存在する道路や、小石などの小さな障害物が多数存在する道路などが該当する。
In this embodiment, the predetermined conditions correspond to (i) the environment is not bad and (ii) the white lines are recognized.
A bad environment is an environment in which there is a high probability that the accuracy of calibration will be lowered due to the low quality of the captured image. For example, the environment around the vehicle is dark, the road on which the vehicle is traveling is bumpy, and the camera 1 is dirty. Examples of bumpy roads include roads with many bumps on the road surface and roads with many small obstacles such as pebbles.

悪環境を検出する具体的な手法は特に限定されない。車両の周囲の環境が暗いことは、例えば、カメラ11の撮影画像に基づいて判定したり、車両に搭載される図示しない照度センサの出力に基づいて判定したりすることができる。また、車両の走行中の道路が凸凹路であることは、例えば、撮影画像を画像処理することで石や凹みの存在を検出して判定したり、車両に搭載される図示しない振動センサや加速度センサの出力に基づいて判定したりすることができる。また、カメラ11に汚れがあることは、例えば、カメラ11により取得される撮影画像の経時変化から判断することができる。 A specific technique for detecting a bad environment is not particularly limited. Whether the environment around the vehicle is dark can be determined, for example, based on an image captured by the camera 11 or based on the output of an illuminance sensor (not shown) mounted on the vehicle. In addition, whether the road on which the vehicle is traveling is uneven can be determined by, for example, detecting the presence of stones or dents by image processing the captured image, or by detecting the presence of a vibration sensor (not shown) mounted on the vehicle or by detecting an acceleration sensor. It can be determined based on the output of the sensor. Further, whether the camera 11 is dirty can be determined, for example, from changes over time in the captured image acquired by the camera 11 .

白線は、画像認識部42により認識することができる。白線はキャリブレーションを実行するためのターゲットとして好適であるため、白線の検出を良好なキャリブレーションを実行するための要件としてもよい。 The white line can be recognized by the image recognition section 42 . Since white lines are suitable targets for performing calibration, detection of white lines may be a requirement for performing good calibration.

説明を図1に戻る。映像信号出力部24は、画像処理部23により生成された合成画像を、ディスプレイ13に出力する。電源部25は、画像処理部23のほか、ECU15を構成する各要素に電力を供給する。 Returning to FIG. The video signal output section 24 outputs the composite image generated by the image processing section 23 to the display 13 . The power supply unit 25 supplies electric power to each element constituting the ECU 15 in addition to the image processing unit 23 .

[1-2.処理]
次に、画像処理部23のCPU31が実行する実行判断処理について、図4のフローチャートを用いて説明する。
[1-2. process]
Next, execution determination processing executed by the CPU 31 of the image processing unit 23 will be described with reference to the flowchart of FIG.

まず、S1では、CPU31は、車両が走行中であるか否かを判定する。CPU31は、例えば、図示しない車速センサから取得される車速情報に基づき、所定速度(例えば、5km/h)以上のときに、車両が走行中であると判定する。 First, in S1, the CPU 31 determines whether or not the vehicle is running. For example, based on vehicle speed information obtained from a vehicle speed sensor (not shown), the CPU 31 determines that the vehicle is running when the vehicle speed is equal to or higher than a predetermined speed (eg, 5 km/h).

CPU31は、S1で車両が走行中であると判定した場合には、S2へ移行し、カメラ11から車両の周囲の撮像画像を取得する。一方、CPU31は、S1で車両が走行中でないと判定した場合には、図4の処理を終了する。 When the CPU 31 determines in S<b>1 that the vehicle is running, the CPU 31 proceeds to S<b>2 and acquires a captured image of the surroundings of the vehicle from the camera 11 . On the other hand, when the CPU 31 determines in S1 that the vehicle is not running, the process of FIG. 4 ends.

続くS3及びS4において、CPU31は、キャリブレーションの実行を許可するための所定の条件が満たされているか否かを判断する。
具体的には、S3では、CPU31は、車両の環境が悪環境であるか否かを判定する。ここでは、車両の周囲の環境が暗いこと、車両の走行中の道路が凸凹路であること、及び、カメラに汚れがあること、のいずれか1つの要件でも満たされていれば、悪環境であると判定される。CPU31は、S3で悪環境であると判定した場合には、S1に戻る。一方、CPU31は、S3で悪環境でないと判定した場合には、S4へ移行する。
In subsequent S3 and S4, the CPU 31 determines whether a predetermined condition for permitting execution of calibration is satisfied.
Specifically, in S3, the CPU 31 determines whether the environment of the vehicle is bad. Here, if any one of the following conditions is satisfied: the environment around the vehicle is dark, the road on which the vehicle is traveling is bumpy, and the camera is dirty. It is determined that there is When the CPU 31 determines in S3 that the environment is bad, the process returns to S1. On the other hand, when the CPU 31 determines in S3 that the environment is not adverse, the process proceeds to S4.

続くS4では、CPU31は、白線を検知しているか否かを判定する。白線の検知自体は、画像認識部42の機能として実現される。CPU31は、S4で白線を検知していると判定した場合には、S5へ移行する。一方、CPU31は、S4で白線を検知していないと判定した場合には、S1へ戻る。 In subsequent S4, the CPU 31 determines whether or not a white line is detected. The white line detection itself is implemented as a function of the image recognition section 42 . When the CPU 31 determines that the white line is detected in S4, the process proceeds to S5. On the other hand, when the CPU 31 determines in S4 that no white line has been detected, the process returns to S1.

このように、CPU31は、上述した判断部45として機能し、所定の条件を満たさない場合には、S1に戻り、所定の条件を満たす場合には、S5へ移行する。
次に、S5では、CPU31は、キャリブレーションを実行する。ここでは、CPU31は上述した実行部44として機能し、上述したキャリブレーションを実行する。
In this way, the CPU 31 functions as the determination unit 45 described above, returns to S1 when the predetermined condition is not satisfied, and proceeds to S5 when the predetermined condition is satisfied.
Next, in S5, the CPU 31 executes calibration. Here, the CPU 31 functions as the execution unit 44 described above and executes the calibration described above.

次に、S6では、CPU31は、メモリ32に記憶されるカメラパラメータを、S5のキャリブレーションにより推定されたパラメータに更新する。このS6後、処理がS1に戻る。 Next, in S6, the CPU 31 updates the camera parameters stored in the memory 32 to the parameters estimated by the calibration in S5. After S6, the process returns to S1.

[1-3.効果]
以上詳述した第1実施形態によれば、以下の効果を奏する。
(1a)表示システム1の画像処理部23は、キャリブレーションを好適に実行できる蓋然性の高い場合において、キャリブレーションを実行することができる。そのため、キャリブレーションの精度が低い蓋然性の高い状況でキャリブレーションを行わないことで、キャリブレーションの精度が低下してしまうことを抑制できる。
[1-3. effect]
According to 1st Embodiment detailed above, there exist the following effects.
(1a) The image processing unit 23 of the display system 1 can perform calibration when there is a high probability that calibration can be preferably performed. Therefore, it is possible to prevent the accuracy of calibration from deteriorating by not performing calibration in a situation where the accuracy of calibration is likely to be low.

(1b)画像処理部23は、キャリブレーションを行う所定の条件を満たしたか否かを、カメラ11の撮影画像、及び、車両に搭載されたセンサの出力の少なくともいずれか一方に基づいて実行することができる。 (1b) The image processing unit 23 determines whether or not a predetermined condition for calibration is satisfied based on at least one of the image captured by the camera 11 and the output of a sensor mounted on the vehicle. can be done.

(1c)判断部45は、車両の周囲の環境が暗いこと、車両の走行中の道路が凸凹路であること、及び、カメラ11に汚れがあること、のうちの少なくとも1つの要件が満たされたときには、キャリブレーションを実行するための条件を満たしていないと判断する。上記の要件が満たされる場合にはキャリブレーションの精度が低くなり易いが、上記の要件を満たしていないときにはキャリブレーションを許可しないので、低い精度のキャリブレーションを実行してしまうことを抑制できる。 (1c) The determination unit 45 determines that at least one of the conditions that the environment around the vehicle is dark, that the road on which the vehicle is traveling is uneven, and that the camera 11 is dirty is satisfied. If it does not meet the conditions for executing the calibration. When the above requirements are met, the accuracy of calibration tends to be low, but when the above requirements are not met, calibration is not permitted, so execution of low-accuracy calibration can be suppressed.

(1d)判断部45は、少なくとも、カメラ11により取得された撮影画像に白線が含まれることを、所定の条件を満たすと判断するための要件とする。よって、白線をキャリブレーションのターゲットとすることができ、キャリブレーションの精度を高めることができる。 (1d) The determining unit 45 sets at least inclusion of a white line in the photographed image acquired by the camera 11 as a requirement for determining that a predetermined condition is satisfied. Therefore, the white line can be used as a calibration target, and the accuracy of calibration can be improved.

[1-4.第1実施形態の変形例]
第1実施形態では、白線をキャリブレーションのターゲットとして用いる構成を例示したが、ターゲットは白線以外の物であってもよい。例えば、白線以外の区画線や、道路標示物、縁石など、道路上の様々な物をターゲットとして用いることができる。ターゲットに白線以外の物を用いる場合は、図4のS4の処理では、白線に代えて、当該対象物が検出されているか否かを判断してもよい。
[1-4. Modification of First Embodiment]
In the first embodiment, the white line is used as the calibration target, but the target may be something other than the white line. For example, various objects on the road such as lane markings other than white lines, road markings, and curbs can be used as targets. If an object other than the white line is used as the target, in the process of S4 in FIG. 4, instead of the white line, it may be determined whether or not the object is detected.

[2.第2実施形態]
[2-1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2. Second Embodiment]
[2-1. Differences from First Embodiment]
Since the basic configuration of the second embodiment is the same as that of the first embodiment, differences will be described below. Note that the same reference numerals as in the first embodiment indicate the same configurations, and refer to the preceding description.

前述した第1実施形態では、キャリブレーションを行うか否かを判断するための要件として、悪環境であること、及び、白線を認識していることを例示した。これに対し、第2実施形態では、車両の走行速度を所定の条件を満たすか否かの判断の要件とする点で第1実施形態と相違する。また第2実施形態では、図5に示されるように、車速に応じて、撮影画像を画像処理した結果を用いる様々な制御を実行する。本実施形態では、30km/h未満の低速域にて複数の制御を実行するが、30km/h~50km/hの中速域ではそれらの制御を実行せず、50km/h以上の高速域では車線検知を実行する。 In the above-described first embodiment, the requirements for determining whether or not to perform calibration are a bad environment and recognition of white lines. On the other hand, the second embodiment differs from the first embodiment in that the traveling speed of the vehicle is used as a requirement for determining whether or not a predetermined condition is satisfied. Further, in the second embodiment, as shown in FIG. 5, various controls using the result of image processing of the captured image are executed according to the vehicle speed. In this embodiment, a plurality of controls are executed in the low speed range of less than 30 km/h. Perform lane detection.

[2-2.処理]
第2実施形態の23のCPUが、第1実施形態の実行判断処理(図4)に代えて実行する実行判断処理について、図6のフローチャートを用いて説明する。なお、図6におけるS11,S12,S14,及びS15の処理は、図におけるS1,S2,S5,及びS6の処理と同様であるため、説明を一部簡略化している。
[2-2. process]
Execution determination processing executed by the CPU 23 of the second embodiment in place of the execution determination processing (FIG. 4) of the first embodiment will be described with reference to the flowchart of FIG. Note that the processes of S11, S12, S14, and S15 in FIG. 6 are the same as the processes of S1, S2, S5, and S6 in the figure, so the description is partially simplified.

図6の実行判断処理では、CPU31は、S12にて撮影画像61を取得した後、S13へ移行する。
S13では、CPU31は、車速が中速域以上であるか否かを判定する。車速は、例えば、図示しない車速センサの出力信号に基づいて検出することができる。画像処理部23は、低速域では複数の制御を実行しているため、画像処理部23の処理負荷が高い。ここでさらにキャリブレーションを実行すると、他の制御に遅延が生じる可能性が高くなってしまう。よってCPU31は、低速域で走行中はキャリブレーションの実行を許可しない。一方、31は、中速域及び高速域で走行中は、処理負荷が小さいため、キャリブレーションの実行を許可する。
In the execution determination process of FIG. 6, the CPU 31 acquires the photographed image 61 in S12, and then proceeds to S13.
In S13, the CPU 31 determines whether or not the vehicle speed is in the middle speed range or higher. Vehicle speed can be detected, for example, based on an output signal from a vehicle speed sensor (not shown). Since the image processing unit 23 executes a plurality of controls in the low speed range, the processing load of the image processing unit 23 is high. If calibration is further executed here, the possibility of causing delays in other controls increases. Therefore, the CPU 31 does not permit execution of calibration while the vehicle is running in the low speed range. On the other hand, 31 permits execution of calibration during running in the medium speed range and high speed range because the processing load is small.

CPU31は、S13で車速が中速域以上でないと判定した場合には、S11に戻る。一方、CPU31は、S13で車速が中速域以上であると判定した場合には、S14へ移行し、キャリブレーションを実行する。 When the CPU 31 determines in S13 that the vehicle speed is not in the middle speed range or higher, the process returns to S11. On the other hand, when the CPU 31 determines in S13 that the vehicle speed is equal to or higher than the medium speed range, the CPU 31 proceeds to S14 and executes calibration.

[2-3.効果]
以上詳述した第2実施形態によれば、以下の効果を奏する。
(2a)表示システム1の画像処理部23は、キャリブレーションによる処理負荷が他の制御に影響を及ぼす蓋然性の低い場合にキャリブレーションを実行することができる。そのため、キャリブレーションの実行が他の制御に悪影響を与えてしまうことを抑制できる。
[2-3. effect]
According to the second embodiment described in detail above, the following effects are obtained.
(2a) The image processing unit 23 of the display system 1 can perform calibration when the processing load due to calibration is unlikely to affect other controls. Therefore, it is possible to prevent the execution of calibration from adversely affecting other controls.

[2-4.第2実施形態の変形例]
第2実施形態では、車速が中速域以上である場合に限りキャリブレーションの実行を許可する構成を例示した。しかしながら、キャリブレーションの実行を許可する速度域は、上記の例に限定されない。例えば、一定の速度範囲においてのみキャリブレーションの実行を許可する構成としてもよい。一例として、低速域、中速域、及び高速域のいずれか1つの場合にのみキャリブレーションの実行を許可してもよい。また、キャリブレーションの実行の可否を判断するための速度の閾値は、第2実施形態にて開示した速度の例に限定されず、様々な値としてもよい。
[2-4. Modification of Second Embodiment]
In the second embodiment, the configuration was exemplified in which execution of calibration is permitted only when the vehicle speed is in the middle speed range or higher. However, the speed range in which execution of calibration is permitted is not limited to the above example. For example, the configuration may be such that execution of calibration is permitted only within a certain speed range. As an example, execution of calibration may be permitted only in one of the low speed range, medium speed range, and high speed range. Further, the speed threshold for determining whether calibration can be executed is not limited to the speed example disclosed in the second embodiment, and may be various values.

[3.第3実施形態]
[3-1.第1実施形態との相違点]
第3実施形態は、基本的な構成は第1実施形態及び第2実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[3. Third Embodiment]
[3-1. Differences from First Embodiment]
Since the basic configuration of the third embodiment is the same as that of the first and second embodiments, differences will be described below. Note that the same reference numerals as in the first embodiment indicate the same configurations, and refer to the preceding description.

第3実施形態では、画像処理部23の処理負荷が小さいこと、具体的には画像処理部23のメモリ使用量を、所定の条件を満たすか否かの判断の要件とする点で、第1実施形態と相違する。第3実施形態において「メモリ使用量」とは、RAM32aの使用量のことを指す。画像処理部23は、メモリ使用量を計測するソフトウェアを備えている。また第3実施形態では、第2実施形態と同様に、撮影画像を画像処理した結果を用いる様々な制御を実行する。 In the third embodiment, the processing load on the image processing unit 23 is small, and more specifically, the amount of memory used by the image processing unit 23 is used as a requirement for determining whether or not a predetermined condition is satisfied. It differs from the embodiment. In the third embodiment, "memory usage" refers to usage of the RAM 32a. The image processing unit 23 has software for measuring memory usage. Further, in the third embodiment, as in the second embodiment, various controls using the result of image processing of the captured image are executed.

[3-2.処理]
第3実施形態の23のCPUが、第1実施形態の実行判断処理(図4)に代えて実行する実行判断処理について、図7のフローチャートを用いて説明する。なお、図7におけるS21,S22,S24,及びS25の処理は、図におけるS1,S2,S5,及びS6の処理と同様であるため、説明を一部簡略化している。
[3-2. process]
Execution determination processing executed by the CPU 23 of the third embodiment in place of the execution determination processing (FIG. 4) of the first embodiment will be described with reference to the flowchart of FIG. Note that the processes of S21, S22, S24, and S25 in FIG. 7 are the same as the processes of S1, S2, S5, and S6 in the figure, so the description is partially simplified.

図7の実行判断処理では、CPU31は、S22にて撮影画像61を取得した後、S2
3へ移行する。
S23では、CPU31は、キャリブレーション実施前のメモリ使用量が基準値以上であるか否かを判定する。ここでの基準値とは、例えば図8に示されるように、処理速度の低下が生じていると推定される、キャリブレーション実施前のメモリ使用量の値である。図8のパターンAは、処理速度に影響がない範囲のメモリ使用量の例である。よって、この場合には、キャリブレーションの実行が許可される。一方、図8のパターンBは、処理速度の低下が推定されるメモリ使用量の例である。この場合には、キャリブレーションの実行が許可されない。
In the execution determination process of FIG. 7, the CPU 31 obtains the photographed image 61 in S22, and then
Go to 3.
In S23, the CPU 31 determines whether or not the memory usage before calibration is greater than or equal to the reference value. Here, the reference value is the value of the memory usage before calibration, at which it is estimated that the processing speed is degraded, as shown in FIG. 8, for example. Pattern A in FIG. 8 is an example of memory usage within a range that does not affect the processing speed. Therefore, in this case, execution of calibration is permitted. On the other hand, pattern B in FIG. 8 is an example of memory usage for which a decrease in processing speed is estimated. In this case, execution of calibration is not permitted.

CPU31は、S23でメモリ使用量が基準値以上であると判定した場合には、S21に戻る。一方、CPU31は、S23でメモリ使用量が基準値以上でないと判定した場合には、S24へ移行し、キャリブレーションを実行する。 When the CPU 31 determines in S23 that the memory usage is equal to or greater than the reference value, the process returns to S21. On the other hand, when the CPU 31 determines in S23 that the memory usage is not equal to or greater than the reference value, the CPU 31 proceeds to S24 and executes calibration.

[3-3.効果]
以上詳述した第3実施形態によれば、以下の効果を奏する。
(3a)表示システム1の画像処理部23は、メモリ使用量が基準値以上でない場合にキャリブレーションを実行することができる。そのため、キャリブレーションの実行が他の制御に悪影響を与えてしまうことを抑制できる。
[3-3. effect]
According to the third embodiment described in detail above, the following effects are obtained.
(3a) The image processing unit 23 of the display system 1 can perform calibration when the memory usage is less than the reference value. Therefore, it is possible to prevent the execution of calibration from adversely affecting other controls.

[3-4.第3実施形態の変形例]
第3実施形態では、基準値とは、画像処理部23の処理速度の低下が生じていると推定されるメモリ使用量である構成を例示した。しかしながら、基準値は、上記の構成に限定されない。例えば、キャリブレーションを実行することによりメモリ使用量が増加することを考慮して、基準値は、上記増加量を当該基準値に加算すると、処理速度の低下が顕著となるメモリ使用量の閾値を超えることとなるメモリ使用量の値としてもよい。
[3-4. Modification of Third Embodiment]
In the third embodiment, the reference value is the amount of memory usage estimated to cause the processing speed of the image processing unit 23 to decrease. However, the reference value is not limited to the above configuration. For example, considering that the amount of memory usage increases due to the execution of calibration, the reference value is the memory usage threshold at which the decrease in processing speed becomes noticeable when the increase is added to the reference value. It may be the value of the memory usage that will be exceeded.

また、メモリ使用量以外の基準に基づいて、画像処理部23の処理負荷が小さいことを検出してもよい。例えば、処理負荷が大きい特定の制御が実行されていないことや、実行されている制御が所定数以下であるときなどに、画像処理部23の処理負荷が小さいと判断してもよい。 Further, it may be detected that the processing load of the image processing unit 23 is small based on a criterion other than the memory usage amount. For example, it may be determined that the processing load of the image processing unit 23 is small when a specific control with a large processing load is not being executed, or when the number of controls being executed is less than or equal to a predetermined number.

[4.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[4. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.

(4a)上記第1実施形態ではキャリブレーションの精度が低下しないタイミングでキャリブレーションを実行できるように所定の条件が設定されており、また上記第2及び第3実施形態ではキャリブレーションによる他の制御への影響を抑制してキャリブレーションを実行できるように所定の条件が設定されていた。しかしながら、上述した両方の効果を得られるように所定の条件が設定されていてもよい。例えば、図9のフローチャートに示される実行判断処理のように、上述したS3、S4、S13、及びS23の全ての判断を行うように構成されていてもよい。このような構成であれば、キャリブレーションの精度の低下抑制と、他の制御への影響の抑制と、を同時に実現することができる。 (4a) In the first embodiment, the predetermined conditions are set so that the calibration can be performed at a timing that does not reduce the accuracy of the calibration. Predetermined conditions were set so that calibration could be performed while suppressing the influence on However, a predetermined condition may be set so that both effects described above can be obtained. For example, like the execution determination process shown in the flowchart of FIG. 9, it may be configured to perform all of the above-described S3, S4, S13, and S23 determinations. With such a configuration, it is possible to simultaneously achieve suppression of deterioration in calibration accuracy and suppression of influence on other controls.

(4b)上述した第2実施形態では、車両の走行速度に基づいて、キャリブレーションの実行を許可するための所定の条件を満たすと判断する構成を例示したが、車速以外の車両の走行状態に基づいて、所定の条件を満たすか否かを判断してもよい。例えば、前照灯などのライトが点灯していない状態、車両の外部における少なくとも一定の範囲に移動体を検出していない状態、などが検出されることを、所定の条件を満たすための要件としてもよい。車両の走行速度が所定の範囲であること、ライトを点灯せずに走行すること、及
び、所定範囲に移動体が存在しないことが、車両の状態が所定の状態であることの例に相当する。
(4b) In the above-described second embodiment, the configuration is exemplified in which it is determined that the predetermined condition for permitting execution of calibration is satisfied based on the running speed of the vehicle. Based on this, it may be determined whether or not a predetermined condition is satisfied. For example, a condition in which lights such as headlights are not turned on, a condition in which a moving object is not detected within at least a certain range outside the vehicle, etc. is detected as a requirement for a predetermined condition. good too. Examples of the predetermined state of the vehicle are that the vehicle travel speed is within a predetermined range, that the vehicle is traveling without turning on the lights, and that there is no moving object within the predetermined range. .

(4c)本開示に記載の画像処理部23及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の画像処理部23及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の画像処理部23及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。画像処理部23に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 (4c) The image processor 23 and techniques described in this disclosure were provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may also be implemented by a dedicated computer. Alternatively, the image processor 23 and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, the image processing unit 23 and techniques described in this disclosure are a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may also be implemented by one or more dedicated computers configured in combination. Computer programs may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium. The method for realizing the function of each part included in the image processing part 23 does not necessarily include software, and all the functions may be realized using one or a plurality of pieces of hardware.

(4d)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (4d) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.

(4e)上述した画像処理部23の他、当該画像処理部23を構成要素とするシステム、当該画像処理部23としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、キャリブレーション実行方法など、種々の形態で本開示を実現することもできる。 (4e) In addition to the image processing unit 23 described above, a non-transitional system such as a system having the image processing unit 23 as a component, a program for causing a computer to function as the image processing unit 23, a semiconductor memory storing this program, etc. The present disclosure can also be implemented in various forms such as a physical recording medium and a calibration execution method.

1…表示システム、11,11a,11b,11c,11d…カメラ、23…画像処理部、44…実行部、45…判断部、61…撮影画像 DESCRIPTION OF SYMBOLS 1... Display system 11, 11a, 11b, 11c, 11d... Camera 23... Image processing part 44... Execution part 45... Judgment part 61... Photographed image

Claims (4)

車両に搭載して用いられる情報処理装置(23)であって、
前記車両に搭載されて当該車両の周囲を撮影するカメラ(11a、11b、11c、11d)のキャリブレーションを、前記カメラの撮影画像(61)に基づいて実行するように構成された実行部(44)と、
所定の条件を満たしているか否かを判断するように構成された判断部(45)と、を備え、
前記実行部は、前記判断部が前記所定の条件を満たしていると判断しているときに、前記キャリブレーションを実行可能に構成されており、
前記判断部は、少なくとも、前記カメラにより取得された前記撮影画像に前記キャリブレーションの基準として用いることができるターゲット(62、63)が含まれることを、前記所定の条件を満たすと判断するための要件とし、
前記ターゲットとは、区画線及び道路標示のうちの少なくともいずれか一方であり、
更に、前記実行部は、特定の期間における前記ターゲットの前記撮影画像における位置の変化と、前記特定の期間における前記車両の移動量と、に基づいてカメラ姿勢のパラメータを推定することにより前記キャリブレーションを行う、情報処理装置。
An information processing device (23) mounted on a vehicle and used,
an execution unit (44) configured to perform calibration of cameras (11a, 11b, 11c, 11d) mounted on the vehicle and capturing the surroundings of the vehicle, based on an image (61) captured by the camera; )and,
a determination unit (45) configured to determine whether a predetermined condition is satisfied;
The execution unit is configured to be able to execute the calibration when the determination unit determines that the predetermined condition is satisfied,
The determination unit is configured to determine that at least the target (62, 63) that can be used as a reference for the calibration is included in the captured image acquired by the camera, and that the predetermined condition is satisfied. as a requirement,
The target is at least one of lane markings and road markings,
Further, the execution unit performs the calibration by estimating parameters of the camera posture based on a change in position of the target in the captured image during a specific period and a movement amount of the vehicle during the specific period. information processing device.
請求項1に記載の情報処理装置であって、
前記判断部は、前記カメラにより取得された撮影画像、及び、前記車両に搭載されたセンサの出力、のうちの少なくとも一方に基づき、前記車両の周囲の環境が暗いこと、前記車両の走行中の道路が凸凹路であること、及び、前記カメラに汚れがあること、のうちの少なくとも1つの要件が満たされたときには、前記所定の条件を満たしていないと判断する、情報処理装置。
The information processing device according to claim 1 ,
Based on at least one of the captured image acquired by the camera and the output of a sensor mounted on the vehicle, the determination unit determines that the environment around the vehicle is dark and that the vehicle is running. An information processing device that determines that the predetermined condition is not satisfied when at least one of the conditions that the road is bumpy and that the camera is dirty is satisfied.
請求項1又は請求項2に記載の情報処理装置であって、
前記判断部は、少なくとも前記車両に搭載されたセンサの出力に基づいて取得される前記車両の状態が所定の状態であることを、前記所定の条件を満たすと判断するための要件とする、情報処理装置。
The information processing device according to claim 1 or claim 2 ,
The determination unit uses, as a requirement for determining that the predetermined condition is satisfied, that the state of the vehicle acquired based on at least the output of a sensor mounted on the vehicle is a predetermined state. processing equipment.
請求項1から請求項3のいずれか1項に記載の情報処理装置であって、
前記判断部は、少なくとも当該情報処理装置の処理負荷が小さいことを、前記所定の条件を満たすと判断するための要件とする、情報処理装置。
The information processing device according to any one of claims 1 to 3 ,
The information processing device, wherein the determination unit determines that at least the processing load of the information processing device is small as a requirement for determining that the predetermined condition is satisfied.
JP2019019622A 2019-02-06 2019-02-06 Information processing equipment Active JP7263807B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019019622A JP7263807B2 (en) 2019-02-06 2019-02-06 Information processing equipment
PCT/JP2020/004366 WO2020162498A1 (en) 2019-02-06 2020-02-05 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019019622A JP7263807B2 (en) 2019-02-06 2019-02-06 Information processing equipment

Publications (2)

Publication Number Publication Date
JP2020127164A JP2020127164A (en) 2020-08-20
JP7263807B2 true JP7263807B2 (en) 2023-04-25

Family

ID=71947986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019019622A Active JP7263807B2 (en) 2019-02-06 2019-02-06 Information processing equipment

Country Status (2)

Country Link
JP (1) JP7263807B2 (en)
WO (1) WO2020162498A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023199465A1 (en) * 2022-04-14 2023-10-19 日立Astemo株式会社 Vehicle-mounted image processing device and calibration method therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011174A (en) 2006-06-29 2008-01-17 Hitachi Ltd Calibration device of on-vehicle camera, program, and car navigation system
WO2011114624A1 (en) 2010-03-17 2011-09-22 本田技研工業株式会社 Vehicle surroundings monitoring device
JP2016082258A (en) 2014-10-09 2016-05-16 株式会社デンソー On-vehicle camera calibration device, image generation apparatus, on-vehicle camera calibration method and image generation method
JP2017143417A (en) 2016-02-10 2017-08-17 クラリオン株式会社 Calibration system, calibration device
JP2017211222A (en) 2016-05-24 2017-11-30 三菱電機株式会社 On-vehicle camera calibration auxiliary device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011174A (en) 2006-06-29 2008-01-17 Hitachi Ltd Calibration device of on-vehicle camera, program, and car navigation system
WO2011114624A1 (en) 2010-03-17 2011-09-22 本田技研工業株式会社 Vehicle surroundings monitoring device
JP2016082258A (en) 2014-10-09 2016-05-16 株式会社デンソー On-vehicle camera calibration device, image generation apparatus, on-vehicle camera calibration method and image generation method
JP2017143417A (en) 2016-02-10 2017-08-17 クラリオン株式会社 Calibration system, calibration device
JP2017211222A (en) 2016-05-24 2017-11-30 三菱電機株式会社 On-vehicle camera calibration auxiliary device

Also Published As

Publication number Publication date
WO2020162498A1 (en) 2020-08-13
JP2020127164A (en) 2020-08-20

Similar Documents

Publication Publication Date Title
US11192557B2 (en) Road profile along a predicted path
US9902323B2 (en) Periphery surveillance apparatus and program
JP5680573B2 (en) Vehicle driving environment recognition device
US9619894B2 (en) System and method for estimating vehicle dynamics using feature points in images from multiple cameras
JP2018180941A (en) Inclination detector
JP6524922B2 (en) Driving support device, driving support method
JPWO2015174208A1 (en) Image recognition apparatus and control method thereof
JP6209825B2 (en) Parallax detection device and parallax detection method
CN111357282B (en) Image processing apparatus, image processing method, program, and solid-state imaging apparatus
JP2011065219A (en) Device for estimation of road curvature
JP2017034543A (en) On-vehicle display control device and on-vehicle display control method
US11017245B2 (en) Parking assist apparatus
CN111937380A (en) Image processing apparatus
JP6350369B2 (en) Display device
JP2007293672A (en) Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle
JP7263807B2 (en) Information processing equipment
JP5083254B2 (en) Parking result display system
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
WO2015182148A1 (en) Object-detecting device, and vehicle having object-detecting device installed therein
JP3965078B2 (en) Stereo-type vehicle exterior monitoring device and control method thereof
JP7122394B2 (en) Imaging unit controller
JP2011008459A (en) In-vehicle camera device
JP7169075B2 (en) Imaging control device and imaging control method
JP2006036048A (en) Vehicle light controlling device
JP2019135620A (en) Traveling support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R151 Written notification of patent or utility model registration

Ref document number: 7263807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151