JP6512145B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6512145B2
JP6512145B2 JP2016056975A JP2016056975A JP6512145B2 JP 6512145 B2 JP6512145 B2 JP 6512145B2 JP 2016056975 A JP2016056975 A JP 2016056975A JP 2016056975 A JP2016056975 A JP 2016056975A JP 6512145 B2 JP6512145 B2 JP 6512145B2
Authority
JP
Japan
Prior art keywords
vehicle
image
image processing
images
bird
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016056975A
Other languages
English (en)
Other versions
JP2017175268A (ja
Inventor
宗作 重村
宗作 重村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016056975A priority Critical patent/JP6512145B2/ja
Priority to PCT/JP2017/011498 priority patent/WO2017164245A1/ja
Priority to CN201780017527.7A priority patent/CN108780564A/zh
Priority to DE112017001515.4T priority patent/DE112017001515T5/de
Publication of JP2017175268A publication Critical patent/JP2017175268A/ja
Application granted granted Critical
Publication of JP6512145B2 publication Critical patent/JP6512145B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
従来、以下のような画像処理装置が知られている。画像処理装置は、車両に搭載されたカメラを用いて、車両の周辺の画像を、時間差をおいて複数取得する。画像処理装置は、複数の画像のそれぞれを鳥瞰図画像に変換する。画像処理装置は、車両の挙動を表す車両信号を車載ネットワークから取得する。画像処理装置は、車両信号に基づき、複数の鳥瞰図画像の位置関係を決定する。画像処理装置は、複数の鳥瞰図画像を、上記のように決定した位置関係で配置して合成画像を作成する。このような画像処理装置は、特許文献1に開示されている。
特許第4156214号公報
車載ネットワークから取得する車両信号は遅延している。車両の挙動が一定でない場合に、遅延した車両信号を用いて上記の方法で合成画像を作成すると、合成画像と実際の状況との間に乖離が生じてしまう。
本発明は、こうした問題に鑑みてなされたものであり、合成画像と実際の状況との間の乖離を抑制できる画像処理装置、画像処理方法、及びプログラムを提供することを目的としている。
本開示の画像処理装置(1)は、車両に搭載されたカメラ(21)を用いて、車両の周辺の画像を、時間差をおいて複数取得する画像取得ユニット(7)と、複数の画像のそれぞれを鳥瞰図画像に変換して複数の鳥瞰図画像を作成する変換ユニット(9)と、画像取得ユニットが画像を取得するとき、車両の挙動を表す車両信号を、車載ネットワーク(25)から取得する信号取得ユニット(11)と、信号取得ユニットにより取得した車両信号を用いて、複数の鳥瞰図画像の位置関係を決定する位置決定ユニット(13)と、複数の鳥瞰図画像の少なくとも一部が、位置決定ユニットにより決定した位置関係で配置された合成画像を作成する合成ユニット(15)と、を備える。
本開示の画像処理装置は、さらに、信号取得ユニットにより取得した車両信号の経時変化を用いて、車載ネットワークの信号遅延時間だけ先の時点における車両の車速を予測する予測ユニット(17)と、予測ユニットにより予測した車速が予め設定された閾値以下である場合、カメラを用いて異なる時刻に取得した複数の画像を対比することで、車両が停止しているか否かを判断する停止判断ユニット(19)と、を備える。車両が停止していると停止判断ユニットが判断した場合、位置決定ユニットは、車両が停止している場合の位置関係を決定する。
本開示の画像処理装置によれば、車両の挙動が一定でない場合でも、合成画像と実際の状況との間の乖離を抑制できる。
本開示の画像処理方法は、車両に搭載されたカメラを用いて、車両の周辺の画像を、時間差をおいて複数取得し(S1)、複数の画像のそれぞれを鳥瞰図画像に変換して複数の鳥瞰図画像を作成し(S4)、カメラを用いて画像を取得するとき、車両の挙動を表す車両信号を、車載ネットワークから取得し(S2)、車両信号を用いて、複数の鳥瞰図画像の位置関係を決定し、複数の鳥瞰図画像の少なくとも一部が前記位置関係で配置された合成画像を作成する(S9)。
本開示の画像処理方法は、さらに、車両信号の経時変化を用いて、車載ネットワークの信号遅延時間だけ先の時点における車両の車速を予測し(S5)、予測した車速が予め設定された閾値以下である場合、カメラを用いて異なる時刻に取得した複数の画像を対比することで、車両が停止しているか否かを判断し(S13、S14)、車両が停止していると判断した場合は、車両が停止している場合の位置関係を決定する(S15)。
本開示の画像処理方法によれば、車両の挙動が一定でない場合でも、合成画像と実際の状況との間の乖離を抑制できる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
画像処理装置1の構成を表すブロック図である。 画像処理装置1の機能的構成を表すブロック図である。 自車両27におけるカメラ21及びディスプレイ23の配置を表す説明図である。 画像処理装置1が実行する処理を表すフローチャートである。 現時点の時刻TからΔTだけ先の時点における自車両の車速を予測する方法を表す説明図である。 現時点における合成画像G(i)を作成する方法を表す説明図である。 移動量ΔXが0である場合に、現時点における合成画像G(i)を作成する方法を表す説明図である。 ディスプレイ23の表示例を表す説明図である。 画像P(i)と画像P(i−1)とを対比する方法を表す説明図である。 自車両27、ポール35、及び停止線37を表す説明図である。 停止時点からΔT後における合成画像であって、移動量ΔXを、常に車両信号に基づき作成した場合の合成画像を表す説明図である。 停止時点からΔT後において、画像処理装置1が作成した合成画像G(i)を表す説明図である。 物標41の位置に基づき画像P(i)と画像P(i−1)とを対比する方法を表す説明図である。
本発明の実施形態を図面に基づき説明する。
<第1実施形態>
1.画像処理装置1の構成
画像処理装置1の構成を、図1〜図3に基づき説明する。画像処理装置1は、車両に搭載される車載装置である。以下では、画像処理装置1を搭載する車両を自車両とする。画像処理装置1は、CPU3と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ5とする)と、を有する周知のマイクロコンピュータを中心に構成される。画像処理装置1の各種機能は、CPU3が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ5が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、画像処理装置1を構成するマイクロコンピュータの数は1つでも複数でもよい。
画像処理装置1は、CPU3がプログラムを実行することで実現される機能の構成として、図2に示すように、画像取得ユニット7と、変換ユニット9と、信号取得ユニット11と、位置決定ユニット13と、合成ユニット15と、予測ユニット17と、停止判断ユニット19と、表示ユニット20と、を備える。画像処理装置1を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。
自車両は、画像処理装置1に加えて、カメラ21、ディスプレイ23、及び車載ネットワーク25を備える。カメラ21は、図3に示すように、自車両27の後部に搭載されている。カメラ21は、自車両27から見て後方にある風景を撮影し、画像を作成する。自車両の後方は、自車両の周辺に対応する。
自車両27を上方から見たとき、カメラ21の光軸29は、自車両27の前後軸と平行である。また、光軸29は俯角を有する。自車両27を基準としたとき、光軸29は常に一定である。そのため、自車両27の傾きがなく、道路が平坦であれば、カメラ21が撮影する画像に含まれる範囲31は、自車両27に対し、常に一定の位置にある。範囲31には、路面が含まれる。
ディスプレイ23は、図3に示すように、自車両27の車室内に設けられている。自車両27のドライバはディスプレイ23を視認可能である。ディスプレイ23は、画像処理装置1により制御され、画像を表示する。
車載ネットワーク25は、画像処理装置1に接続している。画像処理装置1は、車載ネットワーク25から、自車両の挙動を表す車両信号を取得することができる。車両信号は、具体的には、自車両の車速を表す信号である。車載ネットワーク25としては、例えば、CAN(登録商標)が挙げられる。
車載ネットワーク25により送信される車両信号は、信号遅延時間ΔTだけ遅延している。すなわち、時刻Tにおいて画像処理装置1が車載ネットワーク25から取得する車両信号は、時刻(T−ΔT)における自車両の挙動を表す車両信号である。信号遅延時間ΔTは、車載ネットワーク25に固有の正の値であり、既知の値である。
2.画像処理装置1が実行する画像処理
画像処理装置1が一定の周期Iで繰り返し実行する画像処理を、図4〜図9に基づき説明する。周期Iの単位は時間である。以下では、図4に示す処理を1回実行することを、1サイクルということがある。
図4のステップ1では、画像取得ユニット7が、カメラ21を用いて1つの画像を取得する。なお、画像処理装置1は、一定の周期Iでサイクルを繰り返す。そのため、画像取得ユニット7は、周期Iに相当する時間差をおいて、複数の画像を取得する。例えば、画像取得ユニット7は、時刻tで実行するサイクルにおいて第1の画像を取得し、時刻(t+I)で実行するサイクルにおいて第2の画像を取得し、時刻(t+2I)で実行するサイクルにおいて第3の画像を取得し、時刻(t+3I)で実行するサイクルにおいて第4の画像を取得する。
ステップ2では、信号取得ユニット11が、車載ネットワーク25から車両信号を取得する。なお、各サイクルは、前記ステップ1とともに、本ステップ2を含むから、信号取得ユニット11は、画像取得ユニット7が画像を取得するとき、車両信号を取得することになる。
ステップ3では、信号取得ユニット11が、前記ステップ2で取得した車両信号を、それを取得した時刻と関連付けてメモリ5に記憶する。
ステップ4では、変換ユニット9が、今回のサイクルでの前記ステップ1で取得した画像を鳥瞰図画像に変換する。鳥瞰図画像に変換する方法として、周知の方法を用いることができる。鳥瞰図画像に変換する方法の例として、例えば、特開平10−211849号公報に記載されている方法等を用いることができる。
なお、画像処理装置1は、サイクルごとにステップ4の処理を繰り返し実行する。変換ユニット9は、ステップ4の処理を行うごとに、同じサイクルでの前記ステップ1で取得された画像を鳥瞰図画像に変換する。よって、変換ユニット9は、前記ステップ1で取得された複数の画像のそれぞれを鳥瞰図画像に変換する。変換ユニット9は、鳥瞰図画像をメモリ5に記憶する。
ステップ5では、合成画像の作成を開始するタイミングが既に到来しているか否かを判断する。合成画像の作成を開始するタイミングとは、前記ステップ4で最初に鳥瞰図画像を記憶してから、自車両が予め設定された距離だけ移動したタイミングである。合成画像の作成を開始するタイミングが既に到来している場合はステップ6に進み、それ以外の場合は本処理を終了する。
ステップ6では、予測ユニット17が、以下のようにして、現時点の時刻TからΔTだけ先の時刻における自車両の車速を予測する。
予測ユニット17は、まず、今回のサイクルでの前記ステップ3及びそれ以前のサイクルでの前記ステップ3で記憶しておいた車両信号を読み出す。車両信号は、上述したように、自車両の車速を表す。次に、予測ユニット17は、図5に示すように、縦軸が車速であり、横軸が車両信号を取得した時刻であるグラフに、読み出した車両信号をプロットする。
次に、予測ユニット17は、このグラフに表れる車速の経時変化を用いて、車両信号を取得した時刻と、車速との関係を表す近似曲線33を算出する。近似曲線33は、時刻に関する一時関数であってもよいし、二次関数であってもよいし、三次関数であってもよい。次に、予測ユニット17は、近似曲線33を用いて、現時点の時刻TからΔTだけ先の時点における自車両の車速を予測する。
ステップ7では、前記ステップ6で予測した車速が、予め設定された閾値以下であるか否かを、停止判断ユニット19が判断する。予測した車速が閾値を超える場合はステップ8に進み、予測した車速が閾値以下である場合はステップ12に進む。
ステップ8では、前回のサイクルから今回のサイクルまでの期間における自車両の移動量ΔXを算出する。移動量ΔXは、今回のサイクルでの前記ステップ2で取得した車両信号が表す車速と、周期Iとを乗算した値である。例えば、車速が60km/hであり、周期Iが33msecの場合、ΔXは0.55mである。
ステップ9では、以下のようにして、合成ユニット15が合成画像を作成する。合成ユニット15は、前回以前のサイクルで既に合成画像の作成を開始している場合は、前回のサイクルでのステップ10でメモリ5に記憶した合成画像の内容、及び合成画像の位置を読み出す。合成画像の位置とは、ディスプレイ23上に表示するときの位置を意味する。また、今回のサイクルで合成画像の作成を開始する場合は、合成画像の読み出しは行わない。
図6に、読み出された合成画像の例を示す。図6において、合成画像G(i−1)は、前回のサイクルにおいて作成され、記憶された合成画像である。合成画像G(i−1)は、例えば、鳥瞰図画像TV(i−1)、TV(i−2)、TV(i−3)、及びTV(i−4)を組み合わせたものである。TV(i−1)は(n+1)回前のサイクルでのステップ4で作成された鳥瞰図画像を意味し、TV(i−2)は(n+2)回前のサイクルでのステップ4で作成された鳥瞰図画像を意味し、TV(i−3)は(n+3)回前のサイクルでのステップ4で作成された鳥瞰図画像を意味し、TV(i−4)は(n+4)回前のサイクルでのステップ4で作成された鳥瞰図画像を意味する。nは1以上の自然数であり、一定の数である。
なお、この合成画像G(i−1)は、以下の経緯により、作成されたものである。まず、4回前のサイクルでのステップ9において、鳥瞰図画像TV(i−4)から成る合成画像G(i−4)が作成された。次に、3回前のサイクルでのステップ9において、鳥瞰図画像TV(i−3)が合成画像G(i−4)に加えられ、合成画像G(i−3)が作成された。次に、2回前のサイクルでのステップ9において、鳥瞰図画像TV(i−2)が合成画像G(i−3)に加えられ、合成画像G(i−2)が作成された。次に、前回のサイクルでのステップ9において、鳥瞰図画像TV(i−1)が合成画像G(i−2)に加えられ、合成画像G(i−1)が作成された。
次に、合成ユニット15は、合成画像G(i−1)の位置を、kΔXだけ、自車両の進行方向Dとは反対方向に移動させる。kΔXは、定数kと移動量ΔXとを乗算した値である。定数kはピクセルピッチである。ピクセルピッチの単位はm/pixである。
次に、合成ユニット15は、合成画像G(i−1)に含まれる、最も新しい鳥瞰図画像TV(i−1)よりも、1回後のサイクルで作成された鳥瞰図画像TV(i)を、合成画像G(i−1)に加え、今回のサイクルでの合成画像G(i)を作成する。例えば、TV(i−1)が(n+1)回前のサイクルでのステップ4で作成された鳥瞰図画像である場合、TV(i)は、n回前のサイクルでのステップ4で作成された鳥瞰図画像である。
新たに加える鳥瞰図画像TV(i)の位置は、常に一定である。よって、鳥瞰図画像TV(i)と、鳥瞰図画像TV(i−1)、TV(i−2)、TV(i−3)、及びTV(i−4)との位置関係は、kΔXにより決定される。すなわち、kΔXは、複数の鳥瞰図画像の位置関係に対応する。
鳥瞰図画像TV(i)の位置は、鳥瞰図画像TV(i−1)よりも、kΔXだけ、方向D側にずれた位置である。鳥瞰図画像TV(i)と、合成画像G(i−1)とが重複する領域を有する場合、その重複する領域での合成画像G(i)の内容は、鳥瞰図画像TV(i)の内容である。
合成画像G(i)の上下方向における長さには一定の上限値がある。合成画像G(i)の上下方向における長さが上限値に達するまでは、鳥瞰図画像TV(i)を加えても、古い鳥瞰図画像は削除しない。
一方、鳥瞰図画像TV(i)を加えた結果、合成画像G(i)の上下方向における長さが上限値を超えた場合、合成画像G(i)に含まれる鳥瞰図画像のうち、最も古いものを削除する。図6に示す例では、鳥瞰図画像TV(i−4)を削除する。
後述するステップ14において、移動量ΔXが0となった場合は、図7に示すように、合成画像G(i−1)の位置は移動しない。合成画像G(i−1)における鳥瞰図画像TV(i−1)の位置は、追加する鳥瞰図画像TV(i)の位置と同じである。よって、鳥瞰図画像TV(i−1)と鳥瞰図画像TV(i)とは、それらの全体にわたって重複する。合成画像G(i)は、合成画像G(i−1)における鳥瞰図画像TV(i−1)の部分を、鳥瞰図画像TV(i)で置換した合成画像である。
ステップ10では、合成ユニット15が、前記ステップ9で作成した合成画像G(i)の内容、及び位置をメモリ5に記憶する。
ステップ11では、表示ユニット20が、前記ステップ9で作成した合成画像G(i)を含む画像を、ディスプレイ23に表示する。その表示例を図8に示す。合成画像G(i)はディスプレイ23における左側中段に表示される。図8において「進行方向の画像」と表示された領域は、カメラ21のリアルタイムの画像を表示する領域である。「実画」と表示された領域は、今回のサイクルでの前記ステップ4で作成された鳥瞰図画像を表示する領域である。「ブランク」と表示された領域は、何も表示しない領域である。
なお、ディスプレイ23における左上の領域は、フロントカメラを用いて取得した画像を変換して成る鳥瞰図画像を表示する領域である。図8は、自車両が後進するときに表示する画像である。自車両が後進するとき、フロントカメラは使用しない。そのため、図8において、ディスプレイ23での左上の領域は、「ブランク」となっている。自車両が前進するときは、フロントカメラを用いて取得した画像を変換して成る鳥瞰図画像を、ディスプレイ23での左上の領域に表示する。
前記ステップ7で肯定判断した場合はステップ12に進む。ステップ12では、停止判断ユニット19が、今回のサイクルでの前記ステップ1で取得した画像P(i)と、前回のサイクルでの前記ステップ1で取得した画像P(i−1)とを対比する。画像P(i)及び画像P(i−1)は、カメラ21を用いて異なる時刻に取得した複数の画像に対応する。
対比は、以下のように行う。図9に示すように、画像P(i)と画像P(i−1)とにおける同一座標の画素同士を対比し、それらの輝度、色等の差を算出する。この処理を、画像P(i)及び画像P(i−1)における全画素について行い、画像全体としての差を算出する。
ステップ13では、停止判断ユニット19が、前記ステップ12での対比結果に基づき、自車両が停止しているか否かを判断する。すなわち、前記ステップ12で算出した、画像全体としての差が予め設定された閾値以下であれば、自車両が停止していると判断し、それ以外の場合は、自車両は停止していないと判断する。自車両が停止していると判断した場合はステップ14に進み、自車両は停止していないと判断した場合は前記ステップ8に進む。
ステップ14では、移動量ΔXを0とする。移動量ΔXが0であることは、自車両が停止していることに対応する。その後、前記ステップ9に進む。
3.画像処理装置1が奏する効果
(1A)画像処理装置1は、信号遅延時間ΔTだけ先の時点における自車両の車速を予測する。そして、画像処理装置1は、予測した車速が予め設定された閾値以下である場合、カメラ21を用いて異なる時刻に取得した複数の画像を対比することで、自車両が停止しているか否かを判断する。さらに、画像処理装置1は、自車両が停止していると判断した場合、移動量ΔXを0にする。
そのことにより、自車両の挙動が変化する場合でも、合成画像と実際の状況との乖離を抑制することができる。この効果を、図10〜図12に示す例に即して説明する。
図10に示すように、自車両27は、左右両側のポール35の間を後進し、停止線37の手前で停止する。すなわち、自車両27の挙動は、後進している状態から、停止状態へと変化する。画像処理装置1は、自車両27が後進しているとき、及び停止しているときに、繰り返し合成画像を作成し、ディスプレイ23に表示する。
前記ステップ6、7、12、13、14における処理を行わず、移動量ΔXを常に前記ステップ8で算出する場合を想定する。この場合、自車両27が停止線37の手前で停止した時点(以下では停止時点とする)からΔT後の時点における合成画像は、図11に示すものとなる。この合成画像において、ポール35のうち、停止線37に最も近いポール35Aの位置は、実際の位置39よりも上側に表示されている。すなわち、合成画像と実際の状況とが乖離している。
これは、以下の理由による。画像処理装置1は、信号遅延時間ΔTの分だけ遡った時点での車両信号を取得する。よって、停止時点から、ΔT後の時点までの期間における車両信号は、自車両27が未だ後進を続けていたときの車速を表す車両信号である。すなわち、画像処理装置1は、停止時点から、ΔT後の時点までの期間において、実際には自車両27は停止しているのに、後進しているときの車速を表す車両信号を取得する。そのため、停止時点からからΔT後の時点で算出する移動量ΔXは実際より大きい値となる。
そして、停止時点からΔT後の時点で合成画像G(i)を作成するとき、図6に示すように、合成画像G(i−1)は、実際より大きく上方に移動する。その結果、図11に示すように、合成画像G(i−1)に表れていたポール35Aは、上側に移動し、合成画像G(i)において、実際の位置39よりも上側に表示されてしまう。なお、図11及び後述する図12における自車両27は、コンピュータグラフィックスにより表示したものである。
一方、画像処理装置1は、停止時点以降は、前記ステップ7で肯定判断し、前記ステップ13で肯定判断することで、移動量ΔXを0にすることができる。そして、画像処理装置1は、停止時点からΔT後の時点での合成画像G(i)を作成するとき、図7に示すように、合成画像G(i−1)を移動させない。その結果、図12に示すように、合成画像G(i−1)に表れていたポール35Aは、上側に移動せず、合成画像G(i)において、実際の位置39に正しく表示される。すなわち、合成画像と実際の状況との乖離が抑制される。
(1B)画像処理装置1が取得する車両信号は、自車両の車速を表す。そのため、移動量ΔXの算出が容易である。
(1C)画像処理装置1は、複数の画像における同一座標の画素同士を対比することで、自車両が停止しているか否かを判断する。そのことにより、自車両が停止しているか否かを容易且つ正確に判断することができる。
<第2実施形態>
1.第1実施形態との相違点
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前記ステップ12において、停止判断ユニット19は、画像P(i)と画像P(i−1)とを、以下の方法で対比する。
図13に示すように、停止判断ユニット19は、画像P(i)及び画像P(i−1)のそれぞれにおいて、同一の物標41を認識する。物標41の認識には、周知の画像認識技術を用いることができる。物標41としては、地球に対し移動しないものが好ましい。そのような物標として、例えば、白線、建物、構造物等が挙げられる。画像P(i)で認識した物標と画像P(i)で認識した物標とが同一であるか否かは、両者の形状、大きさ、色等の類似性により判断できる。
次に、停止判断ユニット19は、画像P(i)で認識した物標41の位置と、画像P(i−1)で認識した物標41の位置とを対比し、それらの距離を算出する。
前記ステップ13では、停止判断ユニット19が、前記ステップ12での対比結果に基づき、自車両が停止しているか否かを判断する。すなわち、前記ステップ12で算出した距離が予め設定された閾値以下であれば、自車両が停止していると判断し、それ以外の場合は、自車両は停止していないと判断する。自車両が停止していると判断した場合はステップ14に進み、自車両は停止していないと判断した場合は前記ステップ8に進む。
2.画像処理装置1が奏する効果
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1A)、(1B)に加え、以下の効果が得られる。
(2A)画像処理装置1は、画像P(i)及び画像P(i−1)のそれぞれにおいて、同一の物標41を認識する。そして、画像処理装置1は、画像P(i)及び画像P(i−1)における物標41の位置を対比することで、自車両が停止しているか否かを判断する。そのことにより、自車両が停止しているか否かを容易且つ正確に判断することができる。
<他の実施形態>
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1)カメラ21は、自車両27の前端に取り付けられてもよい。その場合、画像処理装置1は、カメラ21を用いて、自車両の前方を撮影した画像を取得することができる。自車両の前方は、自車両の周辺に対応する。画像処理装置1は、自車両の前方を撮影した画像を用いて合成画像を作成することができる。
(2)車両信号は、自車両の位置、又は自車両の移動量を表す信号であってもよい。例えば、車両信号は、パルスカウンターの値、自車両の進行方向、及び自車両の舵角から選択される1以上であってもよい。
(3)前記ステップ12で対比する画像は、鳥瞰図画像であってもよい。
(4)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
(5)上述した画像処理装置の他、当該画像処理装置を構成要素とするシステム、当該画像処理装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、画像処理方法等、種々の形態で本発明を実現することもできる。
1…画像処理装置、3…CPU、5…メモリ、7…画像取得ユニット、9…変換ユニット、11…信号取得ユニット、13…位置決定ユニット、15…合成ユニット、17…予測ユニット、19…停止判断ユニット、20…表示ユニット、21…カメラ、23…ディスプレイ、25…車載ネットワーク、27…自車両、29…光軸、31…範囲、33…近似曲線、35…ポール、37…停止線、41…物標

Claims (9)

  1. 画像処理装置(1)であって、
    車両(27)に搭載されたカメラ(21)を用いて、前記車両の周辺の画像を、時間差をおいて複数取得する画像取得ユニット(7)と、
    前記複数の画像のそれぞれを鳥瞰図画像に変換して複数の鳥瞰図画像を作成する変換ユニット(9)と、
    前記画像取得ユニットが前記画像を取得するとき、前記車両の挙動を表す車両信号を、車載ネットワーク(25)から取得する信号取得ユニット(11)と、
    前記信号取得ユニットにより取得した前記車両信号を用いて、前記複数の鳥瞰図画像の位置関係を決定する位置決定ユニット(13)と、
    前記複数の鳥瞰図画像の少なくとも一部が、前記位置決定ユニットにより決定した前記位置関係で配置された合成画像を作成する合成ユニット(15)と、
    前記信号取得ユニットにより取得した前記車両信号の経時変化を用いて、前記車載ネットワークの信号遅延時間だけ先の時点における前記車両の車速を予測する予測ユニット(17)と、
    前記予測ユニットにより予測した前記車速が予め設定された閾値以下である場合、前記カメラを用いて異なる時刻に取得した複数の画像を対比することで、前記車両が停止しているか否かを判断する停止判断ユニット(19)と、
    を備え、
    前記車両が停止していると前記停止判断ユニットが判断した場合、前記位置決定ユニットは、前記車両が停止している場合の前記位置関係を決定する画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記車両信号は、前記車両の車速、パルスカウンタ、進行方向、及び舵角から選択される1以上を表す信号である画像処理装置。
  3. 請求項1又は2に記載の画像処理装置であって、
    前記停止判断ユニットは、前記複数の画像における同一座標の画素同士を対比することで、前記車両が停止しているか否かを判断する画像処理装置。
  4. 請求項1又は2に記載の画像処理装置であって、
    前記停止判断ユニットは、前記複数の画像のそれぞれにおいて、同一の物標を認識し、前記複数の画像における前記物標の位置を対比することで、前記車両が停止しているか否かを判断する画像処理装置。
  5. 画像処理方法であって、
    車両に搭載されたカメラを用いて、前記車両の周辺の画像を、時間差をおいて複数取得し(S1)、
    前記複数の画像のそれぞれを鳥瞰図画像に変換して複数の鳥瞰図画像を作成し(S4)、
    前記カメラを用いて前記画像を取得するとき、前記車両の挙動を表す車両信号を、車載ネットワークから取得し(S2)、
    前記車両信号を用いて、前記複数の鳥瞰図画像の位置関係を決定し(S8、S15)、
    前記複数の鳥瞰図画像の少なくとも一部が前記位置関係で配置された合成画像を作成し(S9)、
    前記車両信号の経時変化を用いて、前記車載ネットワークの信号遅延時間だけ先の時点における前記車両の車速を予測し(S5)、
    予測した前記車速が予め設定された閾値以下である場合、前記カメラを用いて異なる時刻に取得した複数の画像を対比することで、前記車両が停止しているか否かを判断し(S13、S14)、
    前記車両が停止していると判断した場合は、前記車両が停止している場合の前記位置関係を決定する(S15)画像処理方法。
  6. 請求項5に記載の画像処理方法であって、
    前記車両信号は、前記車両の車速、パルスカウンタ、進行方向、及び舵角から選択される1以上を表す信号である画像処理方法。
  7. 請求項5又は6に記載の画像処理方法であって、
    前記複数の画像における同一座標の画素同士を対比することで、前記車両が停止しているか否かを判断する(S13)画像処理方法。
  8. 請求項5又は6に記載の画像処理方法であって、
    前記複数の画像のそれぞれにおいて、同一の物標を認識し、前記複数の画像における前記物標の位置を対比することで、前記車両が停止しているか否かを判断する(S13)画像処理方法。
  9. 請求項1〜4のいずれか1項に記載の画像処理装置における各ユニットとしてコンピュータを機能させるプログラム。
JP2016056975A 2016-03-22 2016-03-22 画像処理装置、画像処理方法、及びプログラム Active JP6512145B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016056975A JP6512145B2 (ja) 2016-03-22 2016-03-22 画像処理装置、画像処理方法、及びプログラム
PCT/JP2017/011498 WO2017164245A1 (ja) 2016-03-22 2017-03-22 画像処理装置、画像処理方法、及びプログラム
CN201780017527.7A CN108780564A (zh) 2016-03-22 2017-03-22 图像处理装置、图像处理方法、以及程序
DE112017001515.4T DE112017001515T5 (de) 2016-03-22 2017-03-22 Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Programm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016056975A JP6512145B2 (ja) 2016-03-22 2016-03-22 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017175268A JP2017175268A (ja) 2017-09-28
JP6512145B2 true JP6512145B2 (ja) 2019-05-15

Family

ID=59900281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016056975A Active JP6512145B2 (ja) 2016-03-22 2016-03-22 画像処理装置、画像処理方法、及びプログラム

Country Status (4)

Country Link
JP (1) JP6512145B2 (ja)
CN (1) CN108780564A (ja)
DE (1) DE112017001515T5 (ja)
WO (1) WO2017164245A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116168362A (zh) * 2023-02-27 2023-05-26 小米汽车科技有限公司 车辆感知模型的预训练方法、装置、电子设备及车辆

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3663801B2 (ja) 1997-01-30 2005-06-22 いすゞ自動車株式会社 車両後方視界支援装置
JP3847547B2 (ja) * 2000-10-17 2006-11-22 三菱電機株式会社 車両周辺監視支援装置
JP4156214B2 (ja) 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
JP3886376B2 (ja) * 2001-12-26 2007-02-28 株式会社デンソー 車両周辺監視システム
JP2007099261A (ja) * 2005-09-12 2007-04-19 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP4934308B2 (ja) * 2005-10-17 2012-05-16 三洋電機株式会社 運転支援システム
JP4770755B2 (ja) * 2007-02-26 2011-09-14 株式会社デンソー 道路標示認識装置
JP2012222617A (ja) * 2011-04-08 2012-11-12 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP5124672B2 (ja) * 2011-06-07 2013-01-23 株式会社小松製作所 作業車両の周辺監視装置
JP5483120B2 (ja) * 2011-07-26 2014-05-07 アイシン精機株式会社 車両周辺監視システム
JP5964332B2 (ja) * 2012-02-03 2016-08-03 パイオニア株式会社 画像表示装置、画像表示方法及び画像表示プログラム
JP5888164B2 (ja) * 2012-07-20 2016-03-16 トヨタ自動車株式会社 車両周辺監視装置、車両周辺監視システム
JP6326869B2 (ja) * 2014-03-05 2018-05-23 株式会社デンソー 車両周辺画像表示装置、車両周辺画像表示方法
JP6312565B2 (ja) 2014-09-08 2018-04-18 日立アプライアンス株式会社 気泡機能付き貯湯式給湯機

Also Published As

Publication number Publication date
JP2017175268A (ja) 2017-09-28
WO2017164245A1 (ja) 2017-09-28
DE112017001515T5 (de) 2018-12-06
CN108780564A (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
JP4818816B2 (ja) 駐車支援プログラム及び駐車支援装置
JP6649738B2 (ja) 駐車区画認識装置、駐車区画認識方法
WO2013175684A1 (ja) 車両周囲画像表示制御装置、車両周囲画像表示制御方法、当該方法を含む命令からなる持続的有形コンピュータ読み取り媒体、車両の周囲の画像をトップビュー変換して表示させる画像処理方法
JP6586849B2 (ja) 情報表示装置及び情報表示方法
WO2014084251A1 (ja) 車載画像処理装置
JP6338930B2 (ja) 車両周囲表示装置
JP7426174B2 (ja) 車両周囲画像表示システム及び車両周囲画像表示方法
JP2016149613A (ja) カメラパラメータ調整装置
JPWO2018221209A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP5262515B2 (ja) 車両用表示装置および表示方法
WO2015133072A1 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP6512145B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6152261B2 (ja) 車載用駐車枠認識装置
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP6148848B2 (ja) 車載画像処理装置
JP7247772B2 (ja) 情報処理装置及び運転支援システム
JP2008294616A (ja) 運転支援システム及び車両
KR101628931B1 (ko) 차량용 블랙박스의 화각 제어 장치 및 방법
JP7354773B2 (ja) 物体検出装置、物体検出方法、及び物体検出プログラム
EP3396620B1 (en) Display control device and display control method
CN105517843B (zh) 用于操纵车辆的方法
US10873725B2 (en) Display control device
US10926700B2 (en) Image processing device
JP4512044B2 (ja) 道路区間線検出装置
WO2017188245A1 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190325

R151 Written notification of patent or utility model registration

Ref document number: 6512145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250