JP2017175268A - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP2017175268A
JP2017175268A JP2016056975A JP2016056975A JP2017175268A JP 2017175268 A JP2017175268 A JP 2017175268A JP 2016056975 A JP2016056975 A JP 2016056975A JP 2016056975 A JP2016056975 A JP 2016056975A JP 2017175268 A JP2017175268 A JP 2017175268A
Authority
JP
Japan
Prior art keywords
vehicle
image
image processing
images
bird
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016056975A
Other languages
Japanese (ja)
Other versions
JP6512145B2 (en
Inventor
宗作 重村
Sosaku Shigemura
宗作 重村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016056975A priority Critical patent/JP6512145B2/en
Priority to CN201780017527.7A priority patent/CN108780564A/en
Priority to DE112017001515.4T priority patent/DE112017001515T5/en
Priority to PCT/JP2017/011498 priority patent/WO2017164245A1/en
Publication of JP2017175268A publication Critical patent/JP2017175268A/en
Application granted granted Critical
Publication of JP6512145B2 publication Critical patent/JP6512145B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system that is able to hinder a gap between a composite image and an actual situation.SOLUTION: An image processing system 1 comprises: an image acquisition unit 7 that acquires an image of the surroundings of a vehicle; a conversion unit 9 that converts an image into a bird-eye view image; a signal acquisition unit 11 that acquires a vehicle signal from an on-vehicle network; a position determination unit 13 that determines a positional relation between a plurality of bird-eye view images; a composing unit 15 that forms a composite image; an estimation unit 17 that estimates a vehicle speed at the point in time further ahead by a signal delay time; and a stop determination unit 19 that determines whether the vehicle is stationary or not. If it is determined that the vehicle is stationary, the position determination unit determines a positional relation acquired when the vehicle is stationary.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、以下のような画像処理装置が知られている。画像処理装置は、車両に搭載されたカメラを用いて、車両の周辺の画像を、時間差をおいて複数取得する。画像処理装置は、複数の画像のそれぞれを鳥瞰図画像に変換する。画像処理装置は、車両の挙動を表す車両信号を車載ネットワークから取得する。画像処理装置は、車両信号に基づき、複数の鳥瞰図画像の位置関係を決定する。画像処理装置は、複数の鳥瞰図画像を、上記のように決定した位置関係で配置して合成画像を作成する。このような画像処理装置は、特許文献1に開示されている。   Conventionally, the following image processing apparatuses are known. The image processing apparatus acquires a plurality of images around the vehicle with a time difference using a camera mounted on the vehicle. The image processing device converts each of the plurality of images into a bird's eye view image. The image processing apparatus acquires a vehicle signal representing the behavior of the vehicle from the in-vehicle network. The image processing apparatus determines the positional relationship between the plurality of bird's-eye view images based on the vehicle signal. The image processing apparatus creates a composite image by arranging a plurality of bird's-eye view images in the positional relationship determined as described above. Such an image processing apparatus is disclosed in Patent Document 1.

特許第4156214号公報Japanese Patent No. 4156214

車載ネットワークから取得する車両信号は遅延している。車両の挙動が一定でない場合に、遅延した車両信号を用いて上記の方法で合成画像を作成すると、合成画像と実際の状況との間に乖離が生じてしまう。   The vehicle signal acquired from the in-vehicle network is delayed. If the composite image is generated by the above method using the delayed vehicle signal when the behavior of the vehicle is not constant, a divergence occurs between the composite image and the actual situation.

本発明は、こうした問題に鑑みてなされたものであり、合成画像と実際の状況との間の乖離を抑制できる画像処理装置、画像処理方法、及びプログラムを提供することを目的としている。   The present invention has been made in view of these problems, and an object thereof is to provide an image processing apparatus, an image processing method, and a program that can suppress a deviation between a composite image and an actual situation.

本開示の画像処理装置(1)は、車両に搭載されたカメラ(21)を用いて、車両の周辺の画像を、時間差をおいて複数取得する画像取得ユニット(7)と、複数の画像のそれぞれを鳥瞰図画像に変換して複数の鳥瞰図画像を作成する変換ユニット(9)と、画像取得ユニットが画像を取得するとき、車両の挙動を表す車両信号を、車載ネットワーク(25)から取得する信号取得ユニット(11)と、信号取得ユニットにより取得した車両信号を用いて、複数の鳥瞰図画像の位置関係を決定する位置決定ユニット(13)と、複数の鳥瞰図画像の少なくとも一部が、位置決定ユニットにより決定した位置関係で配置された合成画像を作成する合成ユニット(15)と、を備える。   An image processing apparatus (1) of the present disclosure includes an image acquisition unit (7) that acquires a plurality of images around a vehicle with a time difference using a camera (21) mounted on the vehicle, and a plurality of images. A conversion unit (9) that converts each to a bird's eye view image to create a plurality of bird's eye view images, and a signal that acquires a vehicle signal representing the behavior of the vehicle from the in-vehicle network (25) when the image acquisition unit acquires an image. An acquisition unit (11), a position determination unit (13) that determines the positional relationship of a plurality of bird's-eye view images using the vehicle signals acquired by the signal acquisition unit, and at least a part of the plurality of bird's-eye view images is a position determination unit And a synthesis unit (15) for creating a synthesized image arranged in the positional relationship determined by (1).

本開示の画像処理装置は、さらに、信号取得ユニットにより取得した車両信号の経時変化を用いて、車載ネットワークの信号遅延時間だけ先の時点における車両の車速を予測する予測ユニット(17)と、予測ユニットにより予測した車速が予め設定された閾値以下である場合、カメラを用いて異なる時刻に取得した複数の画像を対比することで、車両が停止しているか否かを判断する停止判断ユニット(19)と、を備える。車両が停止していると停止判断ユニットが判断した場合、位置決定ユニットは、車両が停止している場合の位置関係を決定する。   The image processing apparatus according to the present disclosure further includes a prediction unit (17) for predicting the vehicle speed of the vehicle at a time point ahead by the signal delay time of the in-vehicle network using the time-dependent change of the vehicle signal acquired by the signal acquisition unit. When the vehicle speed predicted by the unit is equal to or lower than a preset threshold, a stop determination unit (19) that determines whether or not the vehicle is stopped by comparing a plurality of images acquired at different times using a camera. And). When the stop determination unit determines that the vehicle is stopped, the position determination unit determines the positional relationship when the vehicle is stopped.

本開示の画像処理装置によれば、車両の挙動が一定でない場合でも、合成画像と実際の状況との間の乖離を抑制できる。
本開示の画像処理方法は、車両に搭載されたカメラを用いて、車両の周辺の画像を、時間差をおいて複数取得し(S1)、複数の画像のそれぞれを鳥瞰図画像に変換して複数の鳥瞰図画像を作成し(S4)、カメラを用いて画像を取得するとき、車両の挙動を表す車両信号を、車載ネットワークから取得し(S2)、車両信号を用いて、複数の鳥瞰図画像の位置関係を決定し、複数の鳥瞰図画像の少なくとも一部が前記位置関係で配置された合成画像を作成する(S9)。
According to the image processing device of the present disclosure, even when the behavior of the vehicle is not constant, the divergence between the synthesized image and the actual situation can be suppressed.
The image processing method of the present disclosure uses a camera mounted on a vehicle to acquire a plurality of images around the vehicle with a time difference (S1), and converts each of the plurality of images into a bird's eye view image to generate a plurality of images. When a bird's-eye view image is created (S4) and an image is acquired using a camera, a vehicle signal representing the behavior of the vehicle is acquired from the in-vehicle network (S2), and the positional relationship of a plurality of bird's-eye view images using the vehicle signal And a composite image in which at least some of the plurality of bird's-eye view images are arranged in the positional relationship is created (S9).

本開示の画像処理方法は、さらに、車両信号の経時変化を用いて、車載ネットワークの信号遅延時間だけ先の時点における車両の車速を予測し(S5)、予測した車速が予め設定された閾値以下である場合、カメラを用いて異なる時刻に取得した複数の画像を対比することで、車両が停止しているか否かを判断し(S13、S14)、車両が停止していると判断した場合は、車両が停止している場合の位置関係を決定する(S15)。   The image processing method of the present disclosure further predicts the vehicle speed of the vehicle at a time point ahead by the signal delay time of the in-vehicle network using the time-dependent change of the vehicle signal (S5), and the predicted vehicle speed is less than or equal to a preset threshold In this case, it is determined whether or not the vehicle is stopped by comparing a plurality of images acquired at different times using a camera (S13, S14), and when it is determined that the vehicle is stopped. Then, the positional relationship when the vehicle is stopped is determined (S15).

本開示の画像処理方法によれば、車両の挙動が一定でない場合でも、合成画像と実際の状況との間の乖離を抑制できる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
According to the image processing method of the present disclosure, even when the behavior of the vehicle is not constant, the divergence between the synthesized image and the actual situation can be suppressed.
In addition, the code | symbol in the parenthesis described in this column and a claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is shown. It is not limited.

画像処理装置1の構成を表すブロック図である。1 is a block diagram illustrating a configuration of an image processing device 1. FIG. 画像処理装置1の機能的構成を表すブロック図である。2 is a block diagram illustrating a functional configuration of the image processing apparatus 1. FIG. 自車両27におけるカメラ21及びディスプレイ23の配置を表す説明図である。FIG. 3 is an explanatory diagram showing the arrangement of a camera 21 and a display 23 in a host vehicle 27. 画像処理装置1が実行する処理を表すフローチャートである。3 is a flowchart illustrating processing executed by the image processing apparatus 1. 現時点の時刻TからΔTだけ先の時点における自車両の車速を予測する方法を表す説明図である。It is explanatory drawing showing the method of estimating the vehicle speed of the own vehicle in the time ahead (DELTA) T from the present time T. FIG. 現時点における合成画像G(i)を作成する方法を表す説明図である。It is explanatory drawing showing the method of producing the synthetic image G (i) at the present time. 移動量ΔXが0である場合に、現時点における合成画像G(i)を作成する方法を表す説明図である。It is explanatory drawing showing the method of producing the synthesized image G (i) at the present time, when the movement amount ΔX is 0. ディスプレイ23の表示例を表す説明図である。11 is an explanatory diagram illustrating a display example on the display 23. FIG. 画像P(i)と画像P(i−1)とを対比する方法を表す説明図である。It is explanatory drawing showing the method of contrasting image P (i) and image P (i-1). 自車両27、ポール35、及び停止線37を表す説明図である。It is explanatory drawing showing the own vehicle 27, the pole 35, and the stop line 37. FIG. 停止時点からΔT後における合成画像であって、移動量ΔXを、常に車両信号に基づき作成した場合の合成画像を表す説明図である。It is a composite image after ΔT from the stop point, and is an explanatory diagram showing a composite image when a movement amount ΔX is always created based on a vehicle signal. 停止時点からΔT後において、画像処理装置1が作成した合成画像G(i)を表す説明図である。It is explanatory drawing showing synthetic image G (i) which the image processing apparatus 1 produced after (DELTA) T from the stop time. 物標41の位置に基づき画像P(i)と画像P(i−1)とを対比する方法を表す説明図である。It is explanatory drawing showing the method of contrasting image P (i) and image P (i-1) based on the position of the target 41. FIG.

本発明の実施形態を図面に基づき説明する。
<第1実施形態>
1.画像処理装置1の構成
画像処理装置1の構成を、図1〜図3に基づき説明する。画像処理装置1は、車両に搭載される車載装置である。以下では、画像処理装置1を搭載する車両を自車両とする。画像処理装置1は、CPU3と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ5とする)と、を有する周知のマイクロコンピュータを中心に構成される。画像処理装置1の各種機能は、CPU3が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ5が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、画像処理装置1を構成するマイクロコンピュータの数は1つでも複数でもよい。
Embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
1. Configuration of Image Processing Device 1 The configuration of the image processing device 1 will be described with reference to FIGS. The image processing device 1 is an in-vehicle device mounted on a vehicle. Hereinafter, the vehicle on which the image processing apparatus 1 is mounted is referred to as the own vehicle. The image processing apparatus 1 is configured around a known microcomputer having a CPU 3 and a semiconductor memory (hereinafter referred to as a memory 5) such as a RAM, a ROM, and a flash memory. Various functions of the image processing apparatus 1 are realized by the CPU 3 executing a program stored in a non-transitional physical recording medium. In this example, the memory 5 corresponds to a non-transitional tangible recording medium that stores a program. Further, by executing this program, a method corresponding to the program is executed. The number of microcomputers constituting the image processing apparatus 1 may be one or more.

画像処理装置1は、CPU3がプログラムを実行することで実現される機能の構成として、図2に示すように、画像取得ユニット7と、変換ユニット9と、信号取得ユニット11と、位置決定ユニット13と、合成ユニット15と、予測ユニット17と、停止判断ユニット19と、表示ユニット20と、を備える。画像処理装置1を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。   As shown in FIG. 2, the image processing apparatus 1 has a function configuration realized by the CPU 3 executing a program. As illustrated in FIG. 2, the image acquisition unit 7, the conversion unit 9, the signal acquisition unit 11, and the position determination unit 13. A synthesis unit 15, a prediction unit 17, a stop determination unit 19, and a display unit 20. The method for realizing these elements constituting the image processing apparatus 1 is not limited to software, and some or all of the elements may be realized using hardware that combines a logic circuit, an analog circuit, and the like. .

自車両は、画像処理装置1に加えて、カメラ21、ディスプレイ23、及び車載ネットワーク25を備える。カメラ21は、図3に示すように、自車両27の後部に搭載されている。カメラ21は、自車両27から見て後方にある風景を撮影し、画像を作成する。自車両の後方は、自車両の周辺に対応する。   In addition to the image processing apparatus 1, the host vehicle includes a camera 21, a display 23, and an in-vehicle network 25. As shown in FIG. 3, the camera 21 is mounted on the rear portion of the host vehicle 27. The camera 21 captures a landscape behind the vehicle 27 and creates an image. The rear of the host vehicle corresponds to the periphery of the host vehicle.

自車両27を上方から見たとき、カメラ21の光軸29は、自車両27の前後軸と平行である。また、光軸29は俯角を有する。自車両27を基準としたとき、光軸29は常に一定である。そのため、自車両27の傾きがなく、道路が平坦であれば、カメラ21が撮影する画像に含まれる範囲31は、自車両27に対し、常に一定の位置にある。範囲31には、路面が含まれる。   When the host vehicle 27 is viewed from above, the optical axis 29 of the camera 21 is parallel to the longitudinal axis of the host vehicle 27. The optical axis 29 has a depression angle. When the host vehicle 27 is used as a reference, the optical axis 29 is always constant. Therefore, if the host vehicle 27 is not inclined and the road is flat, the range 31 included in the image captured by the camera 21 is always at a fixed position with respect to the host vehicle 27. The range 31 includes a road surface.

ディスプレイ23は、図3に示すように、自車両27の車室内に設けられている。自車両27のドライバはディスプレイ23を視認可能である。ディスプレイ23は、画像処理装置1により制御され、画像を表示する。   As shown in FIG. 3, the display 23 is provided in the passenger compartment of the host vehicle 27. The driver of the host vehicle 27 can visually recognize the display 23. The display 23 is controlled by the image processing apparatus 1 and displays an image.

車載ネットワーク25は、画像処理装置1に接続している。画像処理装置1は、車載ネットワーク25から、自車両の挙動を表す車両信号を取得することができる。車両信号は、具体的には、自車両の車速を表す信号である。車載ネットワーク25としては、例えば、CAN(登録商標)が挙げられる。   The in-vehicle network 25 is connected to the image processing apparatus 1. The image processing apparatus 1 can acquire a vehicle signal representing the behavior of the host vehicle from the in-vehicle network 25. Specifically, the vehicle signal is a signal representing the vehicle speed of the host vehicle. An example of the in-vehicle network 25 is CAN (registered trademark).

車載ネットワーク25により送信される車両信号は、信号遅延時間ΔTだけ遅延している。すなわち、時刻Tにおいて画像処理装置1が車載ネットワーク25から取得する車両信号は、時刻(T−ΔT)における自車両の挙動を表す車両信号である。信号遅延時間ΔTは、車載ネットワーク25に固有の正の値であり、既知の値である。   The vehicle signal transmitted by the in-vehicle network 25 is delayed by the signal delay time ΔT. That is, the vehicle signal that the image processing apparatus 1 acquires from the in-vehicle network 25 at time T is a vehicle signal that represents the behavior of the host vehicle at time (T−ΔT). The signal delay time ΔT is a positive value unique to the in-vehicle network 25 and is a known value.

2.画像処理装置1が実行する画像処理
画像処理装置1が一定の周期Iで繰り返し実行する画像処理を、図4〜図9に基づき説明する。周期Iの単位は時間である。以下では、図4に示す処理を1回実行することを、1サイクルということがある。
2. Image Processing Performed by Image Processing Device 1 Image processing that is repeatedly executed by the image processing device 1 at a fixed period I will be described with reference to FIGS. The unit of period I is time. In the following, executing the process shown in FIG. 4 once may be referred to as one cycle.

図4のステップ1では、画像取得ユニット7が、カメラ21を用いて1つの画像を取得する。なお、画像処理装置1は、一定の周期Iでサイクルを繰り返す。そのため、画像取得ユニット7は、周期Iに相当する時間差をおいて、複数の画像を取得する。例えば、画像取得ユニット7は、時刻tで実行するサイクルにおいて第1の画像を取得し、時刻(t+I)で実行するサイクルにおいて第2の画像を取得し、時刻(t+2I)で実行するサイクルにおいて第3の画像を取得し、時刻(t+3I)で実行するサイクルにおいて第4の画像を取得する。 In step 1 of FIG. 4, the image acquisition unit 7 acquires one image using the camera 21. The image processing apparatus 1 repeats the cycle with a constant period I. Therefore, the image acquisition unit 7 acquires a plurality of images with a time difference corresponding to the period I. For example, the image acquisition unit 7 acquires a first image in a cycle executed at time t 0 , acquires a second image in a cycle executed at time (t 0 + I), and acquires time (t 0 + 2I). The third image is acquired in the cycle executed at), and the fourth image is acquired in the cycle executed at time (t 0 + 3I).

ステップ2では、信号取得ユニット11が、車載ネットワーク25から車両信号を取得する。なお、各サイクルは、前記ステップ1とともに、本ステップ2を含むから、信号取得ユニット11は、画像取得ユニット7が画像を取得するとき、車両信号を取得することになる。   In step 2, the signal acquisition unit 11 acquires a vehicle signal from the in-vehicle network 25. Since each cycle includes step 2 together with step 1, the signal acquisition unit 11 acquires a vehicle signal when the image acquisition unit 7 acquires an image.

ステップ3では、信号取得ユニット11が、前記ステップ2で取得した車両信号を、それを取得した時刻と関連付けてメモリ5に記憶する。
ステップ4では、変換ユニット9が、今回のサイクルでの前記ステップ1で取得した画像を鳥瞰図画像に変換する。鳥瞰図画像に変換する方法として、周知の方法を用いることができる。鳥瞰図画像に変換する方法の例として、例えば、特開平10−211849号公報に記載されている方法等を用いることができる。
In step 3, the signal acquisition unit 11 stores the vehicle signal acquired in step 2 in the memory 5 in association with the time of acquisition.
In step 4, the conversion unit 9 converts the image acquired in step 1 in the current cycle into a bird's eye view image. A well-known method can be used as a method for converting into a bird's eye view image. As an example of a method for converting to a bird's eye view image, for example, a method described in JP-A-10-211849 can be used.

なお、画像処理装置1は、サイクルごとにステップ4の処理を繰り返し実行する。変換ユニット9は、ステップ4の処理を行うごとに、同じサイクルでの前記ステップ1で取得された画像を鳥瞰図画像に変換する。よって、変換ユニット9は、前記ステップ1で取得された複数の画像のそれぞれを鳥瞰図画像に変換する。変換ユニット9は、鳥瞰図画像をメモリ5に記憶する。   Note that the image processing apparatus 1 repeatedly executes the process of step 4 for each cycle. The conversion unit 9 converts the image acquired in step 1 in the same cycle into a bird's eye view image each time the process of step 4 is performed. Therefore, the conversion unit 9 converts each of the plurality of images acquired in Step 1 into a bird's eye view image. The conversion unit 9 stores the bird's eye view image in the memory 5.

ステップ5では、合成画像の作成を開始するタイミングが既に到来しているか否かを判断する。合成画像の作成を開始するタイミングとは、前記ステップ4で最初に鳥瞰図画像を記憶してから、自車両が予め設定された距離だけ移動したタイミングである。合成画像の作成を開始するタイミングが既に到来している場合はステップ6に進み、それ以外の場合は本処理を終了する。   In step 5, it is determined whether or not the timing for starting creation of the composite image has already arrived. The timing at which the creation of the composite image is started is the timing at which the host vehicle has moved by a preset distance since the bird's eye view image was first stored in step 4. If it is already time to start creating a composite image, the process proceeds to step 6; otherwise, the process ends.

ステップ6では、予測ユニット17が、以下のようにして、現時点の時刻TからΔTだけ先の時刻における自車両の車速を予測する。
予測ユニット17は、まず、今回のサイクルでの前記ステップ3及びそれ以前のサイクルでの前記ステップ3で記憶しておいた車両信号を読み出す。車両信号は、上述したように、自車両の車速を表す。次に、予測ユニット17は、図5に示すように、縦軸が車速であり、横軸が車両信号を取得した時刻であるグラフに、読み出した車両信号をプロットする。
In step 6, the prediction unit 17 predicts the vehicle speed of the host vehicle at a time ahead by ΔT from the current time T as follows.
The prediction unit 17 first reads out the vehicle signal stored in Step 3 in the current cycle and in Step 3 in the previous cycle. As described above, the vehicle signal represents the vehicle speed of the host vehicle. Next, as shown in FIG. 5, the prediction unit 17 plots the read vehicle signal on a graph in which the vertical axis is the vehicle speed and the horizontal axis is the time when the vehicle signal is acquired.

次に、予測ユニット17は、このグラフに表れる車速の経時変化を用いて、車両信号を取得した時刻と、車速との関係を表す近似曲線33を算出する。近似曲線33は、時刻に関する一時関数であってもよいし、二次関数であってもよいし、三次関数であってもよい。次に、予測ユニット17は、近似曲線33を用いて、現時点の時刻TからΔTだけ先の時点における自車両の車速を予測する。   Next, the prediction unit 17 calculates an approximate curve 33 representing the relationship between the time when the vehicle signal is acquired and the vehicle speed, using the time-dependent change in the vehicle speed appearing in this graph. The approximate curve 33 may be a temporary function related to time, a quadratic function, or a cubic function. Next, the prediction unit 17 uses the approximate curve 33 to predict the vehicle speed of the host vehicle at a time point that is ahead of the current time T by ΔT.

ステップ7では、前記ステップ6で予測した車速が、予め設定された閾値以下であるか否かを、停止判断ユニット19が判断する。予測した車速が閾値を超える場合はステップ8に進み、予測した車速が閾値以下である場合はステップ12に進む。   In step 7, the stop determination unit 19 determines whether or not the vehicle speed predicted in step 6 is equal to or less than a preset threshold value. If the predicted vehicle speed exceeds the threshold value, the process proceeds to step 8, and if the predicted vehicle speed is equal to or less than the threshold value, the process proceeds to step 12.

ステップ8では、前回のサイクルから今回のサイクルまでの期間における自車両の移動量ΔXを算出する。移動量ΔXは、今回のサイクルでの前記ステップ2で取得した車両信号が表す車速と、周期Iとを乗算した値である。例えば、車速が60km/hであり、周期Iが33msecの場合、ΔXは0.55mである。   In step 8, the movement amount ΔX of the host vehicle in the period from the previous cycle to the current cycle is calculated. The movement amount ΔX is a value obtained by multiplying the vehicle speed represented by the vehicle signal acquired in step 2 in the current cycle by the period I. For example, when the vehicle speed is 60 km / h and the period I is 33 msec, ΔX is 0.55 m.

ステップ9では、以下のようにして、合成ユニット15が合成画像を作成する。合成ユニット15は、前回以前のサイクルで既に合成画像の作成を開始している場合は、前回のサイクルでのステップ10でメモリ5に記憶した合成画像の内容、及び合成画像の位置を読み出す。合成画像の位置とは、ディスプレイ23上に表示するときの位置を意味する。また、今回のサイクルで合成画像の作成を開始する場合は、合成画像の読み出しは行わない。   In step 9, the synthesis unit 15 creates a synthesized image as follows. If the composition unit 15 has already started creating a composite image in the previous cycle, the composition unit 15 reads the content of the composite image stored in the memory 5 in step 10 in the previous cycle and the position of the composite image. The position of the composite image means a position when displayed on the display 23. Further, when the creation of a composite image is started in this cycle, the composite image is not read out.

図6に、読み出された合成画像の例を示す。図6において、合成画像G(i−1)は、前回のサイクルにおいて作成され、記憶された合成画像である。合成画像G(i−1)は、例えば、鳥瞰図画像TV(i−1)、TV(i−2)、TV(i−3)、及びTV(i−4)を組み合わせたものである。TV(i−1)は(n+1)回前のサイクルでのステップ4で作成された鳥瞰図画像を意味し、TV(i−2)は(n+2)回前のサイクルでのステップ4で作成された鳥瞰図画像を意味し、TV(i−3)は(n+3)回前のサイクルでのステップ4で作成された鳥瞰図画像を意味し、TV(i−4)は(n+4)回前のサイクルでのステップ4で作成された鳥瞰図画像を意味する。nは1以上の自然数であり、一定の数である。   FIG. 6 shows an example of the read composite image. In FIG. 6, a composite image G (i-1) is a composite image created and stored in the previous cycle. The composite image G (i-1) is, for example, a combination of bird's-eye view images TV (i-1), TV (i-2), TV (i-3), and TV (i-4). TV (i-1) means the bird's eye view image created in step 4 in the cycle before (n + 1) times, and TV (i-2) means step 4 in the cycle before (n + 2) times. TV (i-3) means the bird's eye view image created in step 4 in the previous cycle (n + 3), and TV (i-4) means (n + 4) Means a bird's eye view image created in step 4 in the previous cycle. n is a natural number of 1 or more, and is a constant number.

なお、この合成画像G(i−1)は、以下の経緯により、作成されたものである。まず、4回前のサイクルでのステップ9において、鳥瞰図画像TV(i−4)から成る合成画像G(i−4)が作成された。次に、3回前のサイクルでのステップ9において、鳥瞰図画像TV(i−3)が合成画像G(i−4)に加えられ、合成画像G(i−3)が作成された。次に、2回前のサイクルでのステップ9において、鳥瞰図画像TV(i−2)が合成画像G(i−3)に加えられ、合成画像G(i−2)が作成された。次に、前回のサイクルでのステップ9において、鳥瞰図画像TV(i−1)が合成画像G(i−2)に加えられ、合成画像G(i−1)が作成された。   The composite image G (i-1) is created by the following process. First, in step 9 in the cycle four times before, a composite image G (i-4) composed of the bird's eye view image TV (i-4) was created. Next, in step 9 in the cycle three times before, the bird's eye view image TV (i-3) is added to the composite image G (i-4) to create a composite image G (i-3). Next, in step 9 in the previous two cycles, the bird's eye view image TV (i-2) was added to the composite image G (i-3) to create a composite image G (i-2). Next, in step 9 in the previous cycle, the bird's eye view image TV (i-1) is added to the composite image G (i-2), and the composite image G (i-1) is created.

次に、合成ユニット15は、合成画像G(i−1)の位置を、kΔXだけ、自車両の進行方向Dとは反対方向に移動させる。kΔXは、定数kと移動量ΔXとを乗算した値である。定数kはピクセルピッチである。ピクセルピッチの単位はm/pixである。   Next, the synthesis unit 15 moves the position of the synthesized image G (i−1) by kΔX in the direction opposite to the traveling direction D of the host vehicle. kΔX is a value obtained by multiplying the constant k and the movement amount ΔX. The constant k is the pixel pitch. The unit of pixel pitch is m / pix.

次に、合成ユニット15は、合成画像G(i−1)に含まれる、最も新しい鳥瞰図画像TV(i−1)よりも、1回後のサイクルで作成された鳥瞰図画像TV(i)を、合成画像G(i−1)に加え、今回のサイクルでの合成画像G(i)を作成する。例えば、TV(i−1)が(n+1)回前のサイクルでのステップ4で作成された鳥瞰図画像である場合、TV(i)は、n回前のサイクルでのステップ4で作成された鳥瞰図画像である。   Next, the synthesis unit 15 includes the bird's-eye view image TV (i) created in the cycle one time after the latest bird's-eye view image TV (i-1) included in the synthesized image G (i-1). In addition to the composite image G (i-1), a composite image G (i) in this cycle is created. For example, if TV (i−1) is the bird's eye view image created in step 4 in the cycle (n + 1) times before, TV (i) is created in step 4 in the cycle n times ago. It is a bird's-eye view image.

新たに加える鳥瞰図画像TV(i)の位置は、常に一定である。よって、鳥瞰図画像TV(i)と、鳥瞰図画像TV(i−1)、TV(i−2)、TV(i−3)、及びTV(i−4)との位置関係は、kΔXにより決定される。すなわち、kΔXは、複数の鳥瞰図画像の位置関係に対応する。   The position of the bird's eye view image TV (i) to be newly added is always constant. Therefore, the positional relationship between the bird's eye view image TV (i) and the bird's eye view image TV (i-1), TV (i-2), TV (i-3), and TV (i-4) is determined by kΔX. The That is, kΔX corresponds to the positional relationship between a plurality of bird's-eye view images.

鳥瞰図画像TV(i)の位置は、鳥瞰図画像TV(i−1)よりも、kΔXだけ、方向D側にずれた位置である。鳥瞰図画像TV(i)と、合成画像G(i−1)とが重複する領域を有する場合、その重複する領域での合成画像G(i)の内容は、鳥瞰図画像TV(i)の内容である。   The position of the bird's eye view image TV (i) is a position shifted to the direction D side by kΔX from the bird's eye view image TV (i−1). When the bird's-eye view image TV (i) and the composite image G (i-1) have an overlapping region, the content of the composite image G (i) in the overlapping region is the content of the bird's-eye view image TV (i). is there.

合成画像G(i)の上下方向における長さには一定の上限値がある。合成画像G(i)の上下方向における長さが上限値に達するまでは、鳥瞰図画像TV(i)を加えても、古い鳥瞰図画像は削除しない。   There is a certain upper limit for the length in the vertical direction of the composite image G (i). Even if the bird's-eye view image TV (i) is added until the length in the vertical direction of the composite image G (i) reaches the upper limit value, the old bird's-eye view image is not deleted.

一方、鳥瞰図画像TV(i)を加えた結果、合成画像G(i)の上下方向における長さが上限値を超えた場合、合成画像G(i)に含まれる鳥瞰図画像のうち、最も古いものを削除する。図6に示す例では、鳥瞰図画像TV(i−4)を削除する。   On the other hand, as a result of adding the bird's eye view image TV (i), when the length of the composite image G (i) in the vertical direction exceeds the upper limit, the oldest bird's eye view image included in the composite image G (i) Is deleted. In the example shown in FIG. 6, the bird's eye view image TV (i-4) is deleted.

後述するステップ14において、移動量ΔXが0となった場合は、図7に示すように、合成画像G(i−1)の位置は移動しない。合成画像G(i−1)における鳥瞰図画像TV(i−1)の位置は、追加する鳥瞰図画像TV(i)の位置と同じである。よって、鳥瞰図画像TV(i−1)と鳥瞰図画像TV(i)とは、それらの全体にわたって重複する。合成画像G(i)は、合成画像G(i−1)における鳥瞰図画像TV(i−1)の部分を、鳥瞰図画像TV(i)で置換した合成画像である。   In step 14 to be described later, when the movement amount ΔX becomes 0, the position of the composite image G (i−1) does not move as shown in FIG. The position of the bird's eye view image TV (i-1) in the composite image G (i-1) is the same as the position of the bird's eye view image TV (i) to be added. Therefore, the bird's eye view image TV (i-1) and the bird's eye view image TV (i) overlap with each other. The composite image G (i) is a composite image obtained by replacing the portion of the bird's eye view image TV (i-1) in the composite image G (i-1) with the bird's eye view image TV (i).

ステップ10では、合成ユニット15が、前記ステップ9で作成した合成画像G(i)の内容、及び位置をメモリ5に記憶する。
ステップ11では、表示ユニット20が、前記ステップ9で作成した合成画像G(i)を含む画像を、ディスプレイ23に表示する。その表示例を図8に示す。合成画像G(i)はディスプレイ23における左側中段に表示される。図8において「進行方向の画像」と表示された領域は、カメラ21のリアルタイムの画像を表示する領域である。「実画」と表示された領域は、今回のサイクルでの前記ステップ4で作成された鳥瞰図画像を表示する領域である。「ブランク」と表示された領域は、何も表示しない領域である。
In step 10, the composition unit 15 stores the content and position of the composite image G (i) created in step 9 in the memory 5.
In step 11, the display unit 20 displays an image including the composite image G (i) created in step 9 on the display 23. An example of the display is shown in FIG. The composite image G (i) is displayed on the left middle of the display 23. In FIG. 8, an area displayed as “image in the traveling direction” is an area for displaying a real-time image of the camera 21. The area displayed as “actual image” is an area for displaying the bird's eye view image created in step 4 in the current cycle. The area displayed as “blank” is an area where nothing is displayed.

なお、ディスプレイ23における左上の領域は、フロントカメラを用いて取得した画像を変換して成る鳥瞰図画像を表示する領域である。図8は、自車両が後進するときに表示する画像である。自車両が後進するとき、フロントカメラは使用しない。そのため、図8において、ディスプレイ23での左上の領域は、「ブランク」となっている。自車両が前進するときは、フロントカメラを用いて取得した画像を変換して成る鳥瞰図画像を、ディスプレイ23での左上の領域に表示する。   The upper left area of the display 23 is an area for displaying a bird's eye view image obtained by converting an image acquired using the front camera. FIG. 8 is an image displayed when the host vehicle moves backward. The front camera is not used when the host vehicle is moving backward. Therefore, in FIG. 8, the upper left area on the display 23 is “blank”. When the host vehicle moves forward, a bird's eye view image obtained by converting an image acquired using the front camera is displayed in the upper left area of the display 23.

前記ステップ7で肯定判断した場合はステップ12に進む。ステップ12では、停止判断ユニット19が、今回のサイクルでの前記ステップ1で取得した画像P(i)と、前回のサイクルでの前記ステップ1で取得した画像P(i−1)とを対比する。画像P(i)及び画像P(i−1)は、カメラ21を用いて異なる時刻に取得した複数の画像に対応する。   If an affirmative determination is made in step 7, the process proceeds to step 12. In step 12, the stop determination unit 19 compares the image P (i) acquired in step 1 in the current cycle with the image P (i-1) acquired in step 1 in the previous cycle. . The image P (i) and the image P (i-1) correspond to a plurality of images acquired at different times using the camera 21.

対比は、以下のように行う。図9に示すように、画像P(i)と画像P(i−1)とにおける同一座標の画素同士を対比し、それらの輝度、色等の差を算出する。この処理を、画像P(i)及び画像P(i−1)における全画素について行い、画像全体としての差を算出する。   The comparison is performed as follows. As illustrated in FIG. 9, pixels having the same coordinates in the image P (i) and the image P (i−1) are compared, and differences in luminance, color, and the like are calculated. This process is performed for all the pixels in the image P (i) and the image P (i-1), and the difference of the entire image is calculated.

ステップ13では、停止判断ユニット19が、前記ステップ12での対比結果に基づき、自車両が停止しているか否かを判断する。すなわち、前記ステップ12で算出した、画像全体としての差が予め設定された閾値以下であれば、自車両が停止していると判断し、それ以外の場合は、自車両は停止していないと判断する。自車両が停止していると判断した場合はステップ14に進み、自車両は停止していないと判断した場合は前記ステップ8に進む。   In step 13, the stop determination unit 19 determines whether or not the host vehicle is stopped based on the comparison result in step 12. That is, if the difference of the entire image calculated in step 12 is equal to or less than a preset threshold value, it is determined that the host vehicle is stopped. Otherwise, the host vehicle is not stopped. to decide. If it is determined that the host vehicle is stopped, the process proceeds to step 14, and if it is determined that the host vehicle is not stopped, the process proceeds to step 8.

ステップ14では、移動量ΔXを0とする。移動量ΔXが0であることは、自車両が停止していることに対応する。その後、前記ステップ9に進む。
3.画像処理装置1が奏する効果
(1A)画像処理装置1は、信号遅延時間ΔTだけ先の時点における自車両の車速を予測する。そして、画像処理装置1は、予測した車速が予め設定された閾値以下である場合、カメラ21を用いて異なる時刻に取得した複数の画像を対比することで、自車両が停止しているか否かを判断する。さらに、画像処理装置1は、自車両が停止していると判断した場合、移動量ΔXを0にする。
In step 14, the movement amount ΔX is set to zero. A movement amount ΔX of 0 corresponds to the host vehicle being stopped. Thereafter, the process proceeds to step 9.
3. Effects produced by the image processing apparatus 1 (1A) The image processing apparatus 1 predicts the vehicle speed of the host vehicle at a time point ahead by the signal delay time ΔT. Then, when the predicted vehicle speed is equal to or lower than a preset threshold, the image processing apparatus 1 compares the plurality of images acquired at different times using the camera 21 to determine whether the host vehicle is stopped. Judging. Furthermore, when the image processing apparatus 1 determines that the host vehicle is stopped, the image processing apparatus 1 sets the movement amount ΔX to zero.

そのことにより、自車両の挙動が変化する場合でも、合成画像と実際の状況との乖離を抑制することができる。この効果を、図10〜図12に示す例に即して説明する。
図10に示すように、自車両27は、左右両側のポール35の間を後進し、停止線37の手前で停止する。すなわち、自車両27の挙動は、後進している状態から、停止状態へと変化する。画像処理装置1は、自車両27が後進しているとき、及び停止しているときに、繰り返し合成画像を作成し、ディスプレイ23に表示する。
Thereby, even when the behavior of the host vehicle changes, it is possible to suppress the difference between the synthesized image and the actual situation. This effect will be described with reference to the examples shown in FIGS.
As shown in FIG. 10, the host vehicle 27 moves backward between the left and right poles 35 and stops before the stop line 37. In other words, the behavior of the host vehicle 27 changes from a backward traveling state to a stopped state. The image processing apparatus 1 repeatedly creates a composite image and displays it on the display 23 when the host vehicle 27 moves backward and stops.

前記ステップ6、7、12、13、14における処理を行わず、移動量ΔXを常に前記ステップ8で算出する場合を想定する。この場合、自車両27が停止線37の手前で停止した時点(以下では停止時点とする)からΔT後の時点における合成画像は、図11に示すものとなる。この合成画像において、ポール35のうち、停止線37に最も近いポール35Aの位置は、実際の位置39よりも上側に表示されている。すなわち、合成画像と実際の状況とが乖離している。   It is assumed that the processing in steps 6, 7, 12, 13, and 14 is not performed and the movement amount ΔX is always calculated in step 8. In this case, a composite image at a time after ΔT from the time when the host vehicle 27 stops before the stop line 37 (hereinafter referred to as the stop time) is as shown in FIG. In this composite image, the position of the pole 35 </ b> A closest to the stop line 37 among the poles 35 is displayed above the actual position 39. That is, the synthesized image and the actual situation are different.

これは、以下の理由による。画像処理装置1は、信号遅延時間ΔTの分だけ遡った時点での車両信号を取得する。よって、停止時点から、ΔT後の時点までの期間における車両信号は、自車両27が未だ後進を続けていたときの車速を表す車両信号である。すなわち、画像処理装置1は、停止時点から、ΔT後の時点までの期間において、実際には自車両27は停止しているのに、後進しているときの車速を表す車両信号を取得する。そのため、停止時点からからΔT後の時点で算出する移動量ΔXは実際より大きい値となる。   This is due to the following reason. The image processing apparatus 1 acquires a vehicle signal at a time point that is traced back by the signal delay time ΔT. Therefore, the vehicle signal in the period from the stop time point to the time point after ΔT is a vehicle signal representing the vehicle speed when the host vehicle 27 is still moving backward. That is, the image processing apparatus 1 acquires a vehicle signal that represents the vehicle speed when the host vehicle 27 is moving backward, although the host vehicle 27 is actually stopped during the period from the stop point to the point after ΔT. Therefore, the movement amount ΔX calculated at a time after ΔT from the stop time becomes a value larger than the actual value.

そして、停止時点からΔT後の時点で合成画像G(i)を作成するとき、図6に示すように、合成画像G(i−1)は、実際より大きく上方に移動する。その結果、図11に示すように、合成画像G(i−1)に表れていたポール35Aは、上側に移動し、合成画像G(i)において、実際の位置39よりも上側に表示されてしまう。なお、図11及び後述する図12における自車両27は、コンピュータグラフィックスにより表示したものである。   Then, when the composite image G (i) is created at a time after ΔT from the stop time, the composite image G (i−1) moves upwardly more than actual as shown in FIG. As a result, as shown in FIG. 11, the pole 35A appearing in the composite image G (i-1) moves upward, and is displayed above the actual position 39 in the composite image G (i). End up. In addition, the own vehicle 27 in FIG. 11 and FIG. 12 mentioned later is displayed by computer graphics.

一方、画像処理装置1は、停止時点以降は、前記ステップ7で肯定判断し、前記ステップ13で肯定判断することで、移動量ΔXを0にすることができる。そして、画像処理装置1は、停止時点からΔT後の時点での合成画像G(i)を作成するとき、図7に示すように、合成画像G(i−1)を移動させない。その結果、図12に示すように、合成画像G(i−1)に表れていたポール35Aは、上側に移動せず、合成画像G(i)において、実際の位置39に正しく表示される。すなわち、合成画像と実際の状況との乖離が抑制される。   On the other hand, the image processing apparatus 1 can set the movement amount ΔX to 0 by making an affirmative determination in Step 7 after the stop point and making an affirmative determination in Step 13. Then, when creating the composite image G (i) at the time after ΔT from the stop time, the image processing apparatus 1 does not move the composite image G (i−1) as shown in FIG. As a result, as shown in FIG. 12, the pole 35A appearing in the composite image G (i-1) does not move upward and is correctly displayed at the actual position 39 in the composite image G (i). That is, the difference between the composite image and the actual situation is suppressed.

(1B)画像処理装置1が取得する車両信号は、自車両の車速を表す。そのため、移動量ΔXの算出が容易である。
(1C)画像処理装置1は、複数の画像における同一座標の画素同士を対比することで、自車両が停止しているか否かを判断する。そのことにより、自車両が停止しているか否かを容易且つ正確に判断することができる。
<第2実施形態>
1.第1実施形態との相違点
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
(1B) The vehicle signal acquired by the image processing device 1 represents the vehicle speed of the host vehicle. Therefore, the movement amount ΔX can be easily calculated.
(1C) The image processing apparatus 1 determines whether or not the host vehicle is stopped by comparing pixels having the same coordinates in a plurality of images. This makes it possible to easily and accurately determine whether the host vehicle is stopped.
Second Embodiment
1. Differences from the First Embodiment Since the basic configuration of the second embodiment is the same as that of the first embodiment, description of the common configuration will be omitted, and differences will be mainly described. Note that the same reference numerals as those in the first embodiment indicate the same configuration, and the preceding description is referred to.

前記ステップ12において、停止判断ユニット19は、画像P(i)と画像P(i−1)とを、以下の方法で対比する。
図13に示すように、停止判断ユニット19は、画像P(i)及び画像P(i−1)のそれぞれにおいて、同一の物標41を認識する。物標41の認識には、周知の画像認識技術を用いることができる。物標41としては、地球に対し移動しないものが好ましい。そのような物標として、例えば、白線、建物、構造物等が挙げられる。画像P(i)で認識した物標と画像P(i)で認識した物標とが同一であるか否かは、両者の形状、大きさ、色等の類似性により判断できる。
In step 12, the stop determination unit 19 compares the image P (i) and the image P (i-1) by the following method.
As illustrated in FIG. 13, the stop determination unit 19 recognizes the same target 41 in each of the image P (i) and the image P (i−1). A known image recognition technique can be used for the recognition of the target 41. The target 41 is preferably one that does not move relative to the earth. Examples of such a target include a white line, a building, and a structure. Whether or not the target recognized in the image P (i) and the target recognized in the image P (i) are the same can be determined by the similarity of the shape, size, color, etc. of both.

次に、停止判断ユニット19は、画像P(i)で認識した物標41の位置と、画像P(i−1)で認識した物標41の位置とを対比し、それらの距離を算出する。
前記ステップ13では、停止判断ユニット19が、前記ステップ12での対比結果に基づき、自車両が停止しているか否かを判断する。すなわち、前記ステップ12で算出した距離が予め設定された閾値以下であれば、自車両が停止していると判断し、それ以外の場合は、自車両は停止していないと判断する。自車両が停止していると判断した場合はステップ14に進み、自車両は停止していないと判断した場合は前記ステップ8に進む。
Next, the stop determination unit 19 compares the position of the target 41 recognized in the image P (i) and the position of the target 41 recognized in the image P (i-1), and calculates their distance. .
In step 13, the stop determination unit 19 determines whether or not the host vehicle is stopped based on the comparison result in step 12. That is, if the distance calculated in step 12 is equal to or less than a preset threshold value, it is determined that the host vehicle is stopped, and otherwise, it is determined that the host vehicle is not stopped. If it is determined that the host vehicle is stopped, the process proceeds to step 14, and if it is determined that the host vehicle is not stopped, the process proceeds to step 8.

2.画像処理装置1が奏する効果
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1A)、(1B)に加え、以下の効果が得られる。
2. Effects Produced by Image Processing Device 1 According to the second embodiment described in detail above, the following effects are obtained in addition to the effects (1A) and (1B) of the first embodiment described above.

(2A)画像処理装置1は、画像P(i)及び画像P(i−1)のそれぞれにおいて、同一の物標41を認識する。そして、画像処理装置1は、画像P(i)及び画像P(i−1)における物標41の位置を対比することで、自車両が停止しているか否かを判断する。そのことにより、自車両が停止しているか否かを容易且つ正確に判断することができる。
<他の実施形態>
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
(2A) The image processing apparatus 1 recognizes the same target 41 in each of the image P (i) and the image P (i-1). And the image processing apparatus 1 judges whether the own vehicle has stopped by comparing the position of the target 41 in the image P (i) and the image P (i-1). This makes it possible to easily and accurately determine whether the host vehicle is stopped.
<Other embodiments>
As mentioned above, although the form for implementing this invention was demonstrated, this invention is not limited to the above-mentioned embodiment, It can implement in various deformation | transformation.

(1)カメラ21は、自車両27の前端に取り付けられてもよい。その場合、画像処理装置1は、カメラ21を用いて、自車両の前方を撮影した画像を取得することができる。自車両の前方は、自車両の周辺に対応する。画像処理装置1は、自車両の前方を撮影した画像を用いて合成画像を作成することができる。   (1) The camera 21 may be attached to the front end of the host vehicle 27. In that case, the image processing apparatus 1 can acquire an image of the front of the host vehicle using the camera 21. The front of the host vehicle corresponds to the periphery of the host vehicle. The image processing apparatus 1 can create a composite image using an image taken in front of the host vehicle.

(2)車両信号は、自車両の位置、又は自車両の移動量を表す信号であってもよい。例えば、車両信号は、パルスカウンターの値、自車両の進行方向、及び自車両の舵角から選択される1以上であってもよい。   (2) The vehicle signal may be a signal representing the position of the host vehicle or the amount of movement of the host vehicle. For example, the vehicle signal may be one or more selected from the value of the pulse counter, the traveling direction of the host vehicle, and the steering angle of the host vehicle.

(3)前記ステップ12で対比する画像は、鳥瞰図画像であってもよい。
(4)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
(3) The image to be compared in step 12 may be a bird's eye view image.
(4) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

(5)上述した画像処理装置の他、当該画像処理装置を構成要素とするシステム、当該画像処理装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、画像処理方法等、種々の形態で本発明を実現することもできる。   (5) In addition to the image processing apparatus described above, a system including the image processing apparatus as a constituent element, a program for causing a computer to function as the image processing apparatus, and a non-transitory actual recording such as a semiconductor memory storing the program The present invention can also be realized in various forms such as a medium and an image processing method.

1…画像処理装置、3…CPU、5…メモリ、7…画像取得ユニット、9…変換ユニット、11…信号取得ユニット、13…位置決定ユニット、15…合成ユニット、17…予測ユニット、19…停止判断ユニット、20…表示ユニット、21…カメラ、23…ディスプレイ、25…車載ネットワーク、27…自車両、29…光軸、31…範囲、33…近似曲線、35…ポール、37…停止線、41…物標 DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 3 ... CPU, 5 ... Memory, 7 ... Image acquisition unit, 9 ... Conversion unit, 11 ... Signal acquisition unit, 13 ... Position determination unit, 15 ... Composition unit, 17 ... Prediction unit, 19 ... Stop Judgment unit, 20 ... display unit, 21 ... camera, 23 ... display, 25 ... vehicle-mounted network, 27 ... own vehicle, 29 ... optical axis, 31 ... range, 33 ... approximate curve, 35 ... pole, 37 ... stop line, 41 ... target

Claims (9)

画像処理装置(1)であって、
車両(27)に搭載されたカメラ(21)を用いて、前記車両の周辺の画像を、時間差をおいて複数取得する画像取得ユニット(7)と、
前記複数の画像のそれぞれを鳥瞰図画像に変換して複数の鳥瞰図画像を作成する変換ユニット(9)と、
前記画像取得ユニットが前記画像を取得するとき、前記車両の挙動を表す車両信号を、車載ネットワーク(25)から取得する信号取得ユニット(11)と、
前記信号取得ユニットにより取得した前記車両信号を用いて、前記複数の鳥瞰図画像の位置関係を決定する位置決定ユニット(13)と、
前記複数の鳥瞰図画像の少なくとも一部が、前記位置決定ユニットにより決定した前記位置関係で配置された合成画像を作成する合成ユニット(15)と、
前記信号取得ユニットにより取得した前記車両信号の経時変化を用いて、前記車載ネットワークの信号遅延時間だけ先の時点における前記車両の車速を予測する予測ユニット(17)と、
前記予測ユニットにより予測した前記車速が予め設定された閾値以下である場合、前記カメラを用いて異なる時刻に取得した複数の画像を対比することで、前記車両が停止しているか否かを判断する停止判断ユニット(19)と、
を備え、
前記車両が停止していると前記停止判断ユニットが判断した場合、前記位置決定ユニットは、前記車両が停止している場合の前記位置関係を決定する画像処理装置。
An image processing device (1),
An image acquisition unit (7) for acquiring a plurality of images around the vehicle with a time difference using a camera (21) mounted on the vehicle (27);
A conversion unit (9) for converting each of the plurality of images into a bird's eye view image to create a plurality of bird's eye view images;
A signal acquisition unit (11) for acquiring a vehicle signal representing the behavior of the vehicle from the in-vehicle network (25) when the image acquisition unit acquires the image;
A position determination unit (13) for determining a positional relationship between the plurality of bird's-eye view images using the vehicle signal acquired by the signal acquisition unit;
A synthesis unit (15) for creating a composite image in which at least some of the plurality of bird's-eye view images are arranged in the positional relationship determined by the position determination unit;
A prediction unit (17) for predicting a vehicle speed of the vehicle at a time point ahead by a signal delay time of the in-vehicle network using a time-dependent change of the vehicle signal acquired by the signal acquisition unit;
When the vehicle speed predicted by the prediction unit is equal to or lower than a preset threshold value, it is determined whether or not the vehicle is stopped by comparing a plurality of images acquired at different times using the camera. A stop determination unit (19);
With
When the stop determination unit determines that the vehicle is stopped, the position determination unit determines the positional relationship when the vehicle is stopped.
請求項1に記載の画像処理装置であって、
前記車両信号は、前記車両の車速、パルスカウンタ、進行方向、及び舵角から選択される1以上を表す信号である画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus, wherein the vehicle signal is a signal representing one or more selected from a vehicle speed, a pulse counter, a traveling direction, and a steering angle of the vehicle.
請求項1又は2に記載の画像処理装置であって、
前記停止判断ユニットは、前記複数の画像における同一座標の画素同士を対比することで、前記車両が停止しているか否かを判断する画像処理装置。
The image processing apparatus according to claim 1, wherein:
The stop determination unit is an image processing apparatus that determines whether or not the vehicle is stopped by comparing pixels having the same coordinates in the plurality of images.
請求項1又は2に記載の画像処理装置であって、
前記停止判断ユニットは、前記複数の画像のそれぞれにおいて、同一の物標を認識し、前記複数の画像における前記物標の位置を対比することで、前記車両が停止しているか否かを判断する画像処理装置。
The image processing apparatus according to claim 1, wherein:
The stop determination unit determines whether or not the vehicle is stopped by recognizing the same target in each of the plurality of images and comparing the position of the target in the plurality of images. Image processing device.
画像処理方法であって、
車両に搭載されたカメラを用いて、前記車両の周辺の画像を、時間差をおいて複数取得し(S1)、
前記複数の画像のそれぞれを鳥瞰図画像に変換して複数の鳥瞰図画像を作成し(S4)、
前記カメラを用いて前記画像を取得するとき、前記車両の挙動を表す車両信号を、車載ネットワークから取得し(S2)、
前記車両信号を用いて、前記複数の鳥瞰図画像の位置関係を決定し(S8、S15)、
前記複数の鳥瞰図画像の少なくとも一部が前記位置関係で配置された合成画像を作成し(S9)、
前記車両信号の経時変化を用いて、前記車載ネットワークの信号遅延時間だけ先の時点における前記車両の車速を予測し(S5)、
予測した前記車速が予め設定された閾値以下である場合、前記カメラを用いて異なる時刻に取得した複数の画像を対比することで、前記車両が停止しているか否かを判断し(S13、S14)、
前記車両が停止していると判断した場合は、前記車両が停止している場合の前記位置関係を決定する(S15)画像処理方法。
An image processing method comprising:
Using a camera mounted on the vehicle, a plurality of images around the vehicle are acquired with a time difference (S1),
Each of the plurality of images is converted into a bird's eye view image to create a plurality of bird's eye view images (S4),
When the image is acquired using the camera, a vehicle signal representing the behavior of the vehicle is acquired from the in-vehicle network (S2),
Using the vehicle signal, determine the positional relationship of the plurality of bird's-eye view images (S8, S15),
Creating a composite image in which at least some of the plurality of bird's-eye view images are arranged in the positional relationship (S9);
Using the time-dependent change of the vehicle signal, the vehicle speed of the vehicle at a time point ahead by the signal delay time of the in-vehicle network is predicted (S5),
When the predicted vehicle speed is less than or equal to a preset threshold value, it is determined whether or not the vehicle is stopped by comparing a plurality of images acquired at different times using the camera (S13, S14). ),
If it is determined that the vehicle is stopped, the positional relationship when the vehicle is stopped is determined (S15).
請求項5に記載の画像処理方法であって、
前記車両信号は、前記車両の車速、パルスカウンタ、進行方向、及び舵角から選択される1以上を表す信号である画像処理方法。
The image processing method according to claim 5,
The image processing method, wherein the vehicle signal is a signal representing one or more selected from a vehicle speed, a pulse counter, a traveling direction, and a steering angle of the vehicle.
請求項5又は6に記載の画像処理方法であって、
前記複数の画像における同一座標の画素同士を対比することで、前記車両が停止しているか否かを判断する(S13)画像処理方法。
The image processing method according to claim 5, wherein:
The image processing method determines whether or not the vehicle is stopped by comparing pixels having the same coordinates in the plurality of images (S13).
請求項5又は6に記載の画像処理方法であって、
前記複数の画像のそれぞれにおいて、同一の物標を認識し、前記複数の画像における前記物標の位置を対比することで、前記車両が停止しているか否かを判断する(S13)画像処理方法。
The image processing method according to claim 5, wherein:
In each of the plurality of images, the same target is recognized, and the position of the target in the plurality of images is compared to determine whether or not the vehicle is stopped (S13). .
請求項1〜4のいずれか1項に記載の画像処理装置における各ユニットとしてコンピュータを機能させるプログラム。   The program which makes a computer function as each unit in the image processing apparatus of any one of Claims 1-4.
JP2016056975A 2016-03-22 2016-03-22 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM Active JP6512145B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016056975A JP6512145B2 (en) 2016-03-22 2016-03-22 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
CN201780017527.7A CN108780564A (en) 2016-03-22 2017-03-22 Image processing apparatus, image processing method and program
DE112017001515.4T DE112017001515T5 (en) 2016-03-22 2017-03-22 Image processing apparatus, image processing method and program
PCT/JP2017/011498 WO2017164245A1 (en) 2016-03-22 2017-03-22 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016056975A JP6512145B2 (en) 2016-03-22 2016-03-22 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2017175268A true JP2017175268A (en) 2017-09-28
JP6512145B2 JP6512145B2 (en) 2019-05-15

Family

ID=59900281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016056975A Active JP6512145B2 (en) 2016-03-22 2016-03-22 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM

Country Status (4)

Country Link
JP (1) JP6512145B2 (en)
CN (1) CN108780564A (en)
DE (1) DE112017001515T5 (en)
WO (1) WO2017164245A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116168362A (en) * 2023-02-27 2023-05-26 小米汽车科技有限公司 Pre-training method and device for vehicle perception model, electronic equipment and vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120675A (en) * 2000-10-17 2002-04-23 Mitsubishi Electric Corp Vehicle surroundings monitoring support system
JP2003191810A (en) * 2001-12-26 2003-07-09 Denso Corp Vehicle surroundings monitoring system, and vehicle moving state detector
JP2008210084A (en) * 2007-02-26 2008-09-11 Denso Corp Road marking recognition device
JP2015170915A (en) * 2014-03-05 2015-09-28 株式会社デンソー Vehicle peripheral image display device and vehicle peripheral image display method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3663801B2 (en) 1997-01-30 2005-06-22 いすゞ自動車株式会社 Vehicle rear view support device
JP4156214B2 (en) 2001-06-13 2008-09-24 株式会社デンソー Vehicle periphery image processing apparatus and recording medium
JP2007099261A (en) * 2005-09-12 2007-04-19 Aisin Aw Co Ltd Parking assistance method and parking assistance device
JP4934308B2 (en) * 2005-10-17 2012-05-16 三洋電機株式会社 Driving support system
JP2012222617A (en) * 2011-04-08 2012-11-12 Sony Corp Image processing apparatus, image processing method, and program
JP5124672B2 (en) * 2011-06-07 2013-01-23 株式会社小松製作所 Work vehicle perimeter monitoring device
JP5483120B2 (en) * 2011-07-26 2014-05-07 アイシン精機株式会社 Vehicle perimeter monitoring system
WO2013114617A1 (en) * 2012-02-03 2013-08-08 パイオニア株式会社 Image-display device, method for displaying image, and image-display program
JP5888164B2 (en) * 2012-07-20 2016-03-16 トヨタ自動車株式会社 Vehicle periphery monitoring device, vehicle periphery monitoring system
JP6312565B2 (en) 2014-09-08 2018-04-18 日立アプライアンス株式会社 Hot water storage water heater with bubble function

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120675A (en) * 2000-10-17 2002-04-23 Mitsubishi Electric Corp Vehicle surroundings monitoring support system
JP2003191810A (en) * 2001-12-26 2003-07-09 Denso Corp Vehicle surroundings monitoring system, and vehicle moving state detector
JP2008210084A (en) * 2007-02-26 2008-09-11 Denso Corp Road marking recognition device
JP2015170915A (en) * 2014-03-05 2015-09-28 株式会社デンソー Vehicle peripheral image display device and vehicle peripheral image display method

Also Published As

Publication number Publication date
DE112017001515T5 (en) 2018-12-06
JP6512145B2 (en) 2019-05-15
CN108780564A (en) 2018-11-09
WO2017164245A1 (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP5109691B2 (en) Analysis device
JP5503728B2 (en) Vehicle periphery monitoring device
JP6649738B2 (en) Parking lot recognition device, parking lot recognition method
WO2016002163A1 (en) Image display device and image display method
JP6406159B2 (en) In-vehicle display control device, in-vehicle display control method
JP6787157B2 (en) Vehicle control device
JP2010102572A (en) Periphery monitoring device for vehicle
JP6471522B2 (en) Camera parameter adjustment device
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP2018012369A (en) Control device
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
KR102268641B1 (en) Around view system and the operating method
CN107430821B (en) Image processing apparatus
JP6483360B2 (en) Object recognition device
JP6981850B2 (en) Driving support system
JP2015115760A (en) Video processing device, video processing system, and video processing method
WO2017164245A1 (en) Image processing apparatus, image processing method, and program
JP6152261B2 (en) Car parking frame recognition device
JP7247772B2 (en) Information processing device and driving support system
JP5832850B2 (en) Lane monitoring system and lane monitoring method
JP2018074411A (en) Object detection device and object detection method
JP5074171B2 (en) In-vehicle system
US10926700B2 (en) Image processing device
EP3396620A1 (en) Display control device and display control method
WO2017188245A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190325

R151 Written notification of patent or utility model registration

Ref document number: 6512145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250