JP2020068515A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2020068515A
JP2020068515A JP2018202196A JP2018202196A JP2020068515A JP 2020068515 A JP2020068515 A JP 2020068515A JP 2018202196 A JP2018202196 A JP 2018202196A JP 2018202196 A JP2018202196 A JP 2018202196A JP 2020068515 A JP2020068515 A JP 2020068515A
Authority
JP
Japan
Prior art keywords
image
area
boundary
vehicle
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018202196A
Other languages
English (en)
Other versions
JP7263731B2 (ja
Inventor
昇幸 横田
Nobuyuki Yokota
昇幸 横田
博彦 柳川
Hirohiko Yanagawa
博彦 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018202196A priority Critical patent/JP7263731B2/ja
Priority to US16/662,573 priority patent/US20200137322A1/en
Publication of JP2020068515A publication Critical patent/JP2020068515A/ja
Application granted granted Critical
Publication of JP7263731B2 publication Critical patent/JP7263731B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】車両が走行できる路面を表した走行可能領域と、立体物が存在するなどにより車両が走行できる路面以外を表した走行不可領域との境界の視認性を向上させる。【解決手段】画像処理装置は、車両に搭載される。画像処理装置は、画像取得部S110と、領域判定部S130と、境界抽出部S140と、画像表示部S220、S250、S260と、を備える。画像取得部は、当該車両の周辺の範囲を撮像する撮像装置により撮像された画像である撮像画像を取得する。領域判定部は、撮像画像において車両が走行可能な領域を走行可能領域とし、走行可能領域以外の領域を走行不可領域として判定する。境界抽出部は、走行可能領域と走行不可領域との境界である領域境界を抽出する。画像表示部は、境界抽出部によって抽出された領域境界を境に、走行可能領域と走行不可領域とを区別して表示する。【選択図】図3

Description

本開示は、車両の周辺を撮像した撮像画像を車載ディスプレイに表示させる画像処理装置に関する。
従来、車載カメラを用いて車両の周辺を撮像した周辺画像を車載ディスプレイに表示画像として表示させるシステムが知られている。また、特許文献1に記載されているように、車両に搭載された車載ディスプレイに鳥瞰画像を表示画像として表示し、ドライバに提示することにより、安全な運転を支援するシステムが知られている。当該鳥瞰画像は、複数の車載カメラを用いて車両の周辺を表した画像を、車両の周囲を車両の上方の仮想カメラから映し出したように変換することにより作成される。
特開2003−189293号公報
しかしながら、車両の周辺を撮像するために用いられる魚眼カメラや画角がほぼ180度となる広角カメラにより撮像された周辺画像においては、画像が歪むため、立体物との距離感が掴みづらい。
また、特許文献1に開示されるように、撮像画像から鳥瞰画像への変換である鳥瞰変換は、撮像画像中のすべての点を路面上に存在する点であるとして撮像画像中において路面であると推定される面に投影する座標変換する。このため、鳥瞰変換では立体物の高さが高くなるほど遠くに存在するように、車載カメラの位置を中心として伸長した形状に変換され、立体物の立体感が損なわれる。
以上示したように、車載ディスプレイに表示された表示画像である周辺画像又は鳥瞰画像を見てドライバが立体物を認識することが困難となる。そして、ドライバは、表示画像において表示された範囲が、自車が走行できる範囲であるか、立体物などが存在し自車が走行できない範囲であるか否かの判断が困難である。
本開示の1つの局面は、表示画像において、車両が走行できる路面を表した走行可能領域と、立体物が存在するなどにより車両が走行できる路面以外を表した走行不可領域との境界の視認性を向上させる技術を提供することにある。
本開示の一態様は、画像処理装置(30)であって、車両に搭載される。画像処理装置(30)は、画像取得部(S110)と、領域判定部(S130)と、境界抽出部(S140)と、画像表示部(S220,S250,S260)と、を備える。画像取得部は、当該車両の周辺の範囲を撮像する撮像装置により撮像された画像である撮像画像を取得するように構成される。領域判定部は、撮像画像において車両が走行可能な領域を走行可能領域とし、走行可能領域以外の領域を走行不可領域として、判定するように構成される。境界抽出部は、領域判定部により判定された走行可能領域と走行不可領域との境界である領域境界(Le)を抽出するように構成される。画像表示部は、境界抽出部によって抽出された領域境界を境に、走行可能領域と走行不可領域とを区別して表示するように構成さ
れる。
このような構成によれば、車両が走行できる路面を表した走行可能領域と立体物が存在するなどにより車両が走行できる路面以外を表した走行不可領域とが区別して表示される。
これにより、表示画像において、走行可能領域と、走行不可領域との境界の視認性を向上させることができる。
画像処理システムの構成を示すブロック図である。 自車において各撮像装置が搭載される位置の例を表した図である。 表示処理のフローチャートである。 撮像画像における領域境界の抽出を表した図である。 鳥瞰変換のイメージを表した図である。 鳥瞰画像のイメージを表した図である。 鳥瞰画像において領域境界を表示した図である。 鳥瞰画像において走行可能領域を表示した図である。 鳥瞰画像において走行不可領域を表示した図である。 近距離範囲Dn及び中距離範囲Dmの範囲を表した図である。 前後方向の近接境界点の位置と特定表示画像の対応関係を表した図である。 左右方向の近接境界点の位置と特定表示画像の対応関係を表した図である。 画像選択処理のフローチャートである。 複数の撮像範囲が重複する範囲に近接境界点が存在する場合に表示する特定表示画像を表した図である。 複数の撮像範囲が重複する範囲に近接境界点が存在する場合を表した図である。
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.構成]
画像表示システム1は車両に搭載され、図1に示すように、フロントカメラ10a、リアカメラ10b、左方カメラ10c、右方カメラ10d、表示装置20及びECU30を備える。なお、以下では、画像表示システム1を備える車両を自車という。
フロントカメラ10a、リアカメラ10b、左方カメラ10c及び右方カメラ10dはそれぞれあらかじめ決められた範囲である撮像範囲を撮像するカメラであり、それぞれ基本的な構成は同様である。また、フロントカメラ10a、リアカメラ10b、左方カメラ10c及び右方カメラ10dは、それぞれ魚眼カメラ又は広角カメラであり、略180度の画角を有する。
また、フロントカメラ10a、リアカメラ10b、左方カメラ10c及び右方カメラ10dにより撮像された撮像画像のそれぞれを以下では、前方撮像画像、後方撮像画像、左方撮像画像、右方撮像画像ともいう。
以下では、フロントカメラ10a、リアカメラ10b、左方カメラ10c及び右方カメラ10dをそれぞれ区別しないときは、撮像装置10ともいう。
図2に示すように、フロントカメラ10a及びリアカメラ10bは、自車の前方部分及び自車の後方部分にそれぞれ搭載される。ここで、自車の前方部分とは、例えば、車両のフロントバンパー、自車のルームミラー付近及び自車のインストルメンタルパネル付近などをいう。また、自車の後方部分とは、例えば自車のリアバンパー及びハッチバックのバ
ックドア付近などをいう。左方カメラ10c及び右方カメラ10dは、自車の側方部分に配置され、例えば、サイドミラーからレンズ部分が露出した状態で内包される。なお、左方カメラ10c及び右方カメラ10dが配置される位置は、サイドミラーに内包されるものに限定されるものではなく自車の車体の前後方向の中央付近にそれぞれ搭載されてもよい。
フロントカメラ10a、リアカメラ10b、左方カメラ10c及び右方カメラ10dは、光軸方向がそれぞれ、自車の前進方向、自車の後進方向、自車の前進方向に対して左側90°の方向及び自車の前進方向に対して右側90°の方向を向くように搭載される。
また、フロントカメラ10a及びリアカメラ10bはそれぞれ、例えば自車の前方及び後方の視野角180°程度の角度範囲を撮像する。左方カメラ10c及び右方カメラ10dはそれぞれ、例えば自車の左側方及び右側方の視野角180°程度の範囲を撮像する。
フロントカメラ10a及び左方カメラ10c、左方カメラ10c及びリアカメラ10b、リアカメラ10b及び右方カメラ10d、右方カメラ10d及びフロントカメラ10aの位置関係を以下では、隣り合う位置関係という。隣り合う位置関係にある撮像装置10は、互いにその撮像範囲同士が一部重なり合う位置及び方向に設置される。
表示装置20は、表示画面21及びタッチパネル22を備える。
表示画面21は、画像を表示する。
タッチパネル22は、自車のドライバが触れることにより行う操作であるタッチ操作が行えるように表示画面21に重畳して配置される。
表示画面21により表示可能な画像には、タッチ操作により後述する表示処理を開始するためのボタンを表した表示が含まれる。
表示装置20は、表示画面21が自車の運転席からドライバが表示を視認できる位置かつタッチパネル22をドライバが触れることにより行う操作であるタッチ操作が可能な位置に搭載される。
表示装置20は、自車に搭載されたカーナビゲーションシステムなどのディスプレイと共用してもよいし、別途自車に搭載されてもよい。
ECU30は、CPU31と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ32)と、を有する周知のマイクロコンピュータを中心に構成される。ECU30の各種機能は、CPU31が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ32がプログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、ECU30を構成するマイクロコンピュータの数は1つでも複数でもよい。
ECU30は、CPU31がプログラムを実行することで実現されるが、この手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。
[2.処理]
<表示処理>
次に、CPU31が実行する表示処理について、図3のフローチャートを用いて説明する。表示処理は、表示装置20の表示画面21に表示されたスイッチを操作するタッチ操
作がタッチパネル22により検出されると実行される。
S110で、CPU31は、各撮像装置10、すなわち、フロントカメラ10a、リアカメラ10b、左方カメラ10c及び右方カメラ10dにより撮像された各撮像画像を取得する。
S110で取得される撮像画像の例を図4に示す。ここで、撮像画像の例としてフロントカメラ10aにより撮像された撮像画像である前方撮像画像の例を挙げる。他の各撮像画像である後方撮像画像、左方撮像画像、右方撮像画像についても同様に取得され、以下の処理が行われる。なお、各撮像画像は、図4に示すような広角画像に限られず、通常の目視した場合と同様の画像である通常画像であってもよい。
図4に示すように、撮像画像には以下の領域が含まれる。撮像画像には、例えば、自車の車体を表した領域Aa、広角画像を通常画像に合わせた際にデータが存在しない領域Ab、自車が走行可能なフリースペースを表した領域Af、領域Aa、領域Abのいずれにも該当しない領域Aoが含まれる。
S120で、CPU31は、S110で取得した各撮像画像それぞれに対して、セマンティックセグメンテーションにより領域の分割を行う。領域の分割を行った画像を以下では分割画像という。また、分割された領域を分割領域という。また、領域の分割は、撮像画像中の各画素の輝度及び色度に基づいて、各画素がアノテーション定義のいずれに属するかを判定することにより行われる。
具体的には、アノテーション定義には、フリースペース領域Bf、自車領域Ba、無効領域Bb及び他領域Boという分類が含まれる。
ここで、フリースペース領域Bfとは、撮像画像中の走行可能な範囲に相当する路面部分を表した領域をいう。自車領域Baとは、撮像画像中に自車の車体の一部が映り込んでいる領域をいう。無効領域Bbとは、撮像画像を長方形の枠に当てはめた際にデータが存在しない領域をいう。他領域Boとは、フリースペース領域Bf、自車領域Ba及び無効領域Bbのいずれにも属さない領域をいう。分割領域がいずれのアノテーション定義に属するかは、機械学習により生成された学習データを元に分類される。
例えば、撮像画像は、S120で領域が分割され、分割画像となる。分割画像では、撮像画像がフリースペース領域Bf、自車領域Ba、無効領域Bb及び他領域Boに分割される。
S130で、CPU31は、分割画像において、境界点Peの抽出を行う。具体的には、下端から上端に向かって上下方向に沿って画素ごとに走査する。ここで、フリースペース領域Bfを走行可能領域とし、それ以外の領域を走行不可領域とし、走行可能領域を表した画素と走行不可領域を表した画素との境界を表した点を境界点Peとして抽出する。境界点Peが抽出された分割画像を、以下では走査画像という。
S140で、CPU31は、走査画像に対して、領域境界Leの抽出を行う処理である領域境界抽出処理を行う。領域境界Leは、走行可能領域と走行不可領域との境界をいう。具体的には、境界点Pe同士を結んだ線を領域境界Leとして抽出する。
S150で、CPU31は、境界点Peと領域境界Leとの位置を表した強調表示を撮像画像に重畳することにより、抽出画像を作成する。ここでは、境界点Peと領域境界Leとの位置を表した強調表示とは、境界点Peと領域境界Leとの位置を目立つように線で示した表示をいう。
なお、強調表示は、境界点Peと領域境界Leとの位置を目立つように線で示した表示に限定されるものではなく、可能強調表示を重畳することにより実現されてもよい。ここで、可能強調表示とは、走行可能領域をあらかじめ決められた色で塗りつぶした表示である。一方、柱状障害物201〜205及び壁状障害物206,207が存在し、走行不可領域であると判定された部分は、塗りつぶされない。
また、走行不可領域を塗りつぶした表示である不可強調表示を重畳してもよい。また、可能強調表示、不可強調表示及び境界強調表示のうちいずれか2つ以上を組み合わせて重畳してもよい。なお、可能強調表示及び不可強調表示を組み合わせて合成する場合、可能強調表示及び不可強調表示をそれぞれ異なる色で表示するなど区別できるような表示態様で重畳してもよい。
ここで、前方撮像画像、後方撮像画像、左方撮像画像及び右方撮像画像のそれぞれに対応する抽出画像をそれぞれ、前方抽出画像、後方抽出画像、左方抽出画像、右方抽出画像ともいう。
S160で、CPU31は、S150で作成された各抽出画像を鳥瞰変換し合成することにより全体鳥瞰画像300を作成する処理をいう。ここでいう、全体鳥瞰画像300は、自車の上方から自車の存在する路面を見下ろしたように変換された画像である。
鳥瞰変換は、具体的には、CPU31は図5に示すように自車の存在する平面に対応した面である路面投影面Srに仮想カメラPiから見たように変換することをいう。なお、仮想カメラPiは車両の上方に仮想的に設定されるカメラである。また、図5では、フロントカメラ10aについて図示しているが、他の撮像装置10についても同様に仮想カメラPiから見たように変換する鳥瞰変換がなされる。
前方抽出画像、後方抽出画像、左方抽出画像及び右方抽出画像それぞれを鳥瞰変換した画像を前方鳥瞰画像300a、後方鳥瞰画像300b、左方鳥瞰画像300c及び右方鳥瞰画像300dという。なお、前方鳥瞰画像300a、後方鳥瞰画像300b、左方鳥瞰画像300c及び右方鳥瞰画像300dをそれぞれ個別鳥瞰画像ともいう。
そして、CPU31は、図6に示すように各抽出画像を鳥瞰変換した画像である前方鳥瞰画像300a、後方鳥瞰画像300b、左方鳥瞰画像300c及び右方鳥瞰画像300dを自車の位置に対して対応する位置に合成する。
ここで、各抽出画像を元に鳥瞰画像が作成されることにより、図7に示すように鳥瞰画像の一部に強調表示が含まれる。すなわち、強調表示が境界点Peと領域境界Leとの位置を目立つように線で示した表示である場合には、鳥瞰画像において、柱状障害物201〜205及び壁状障害物206,207が存在する部分と路面を表した部分との境界である領域境界Leに線が引かれた表示となる。
なお、強調表示が可能強調表示を重畳する表示である場合には、図8に示すような鳥瞰画像が作成される。すなわち、鳥瞰画像においても、可能強調表示は、走行可能領域をあらかじめ決められた色で塗りつぶした表示である。可能強調表示において、柱状障害物201〜205及び壁状障害物206,207が存在し、走行不可領域であると判定された部分は、塗りつぶされない。
また、強調表示が不可強調表示を重畳する表示である場合には、図9に示すような鳥瞰画像が作成される。すなわち、鳥瞰画像においても、不可強調表示は、走行不可領域をあ
らかじめ決められた色で塗りつぶされた表示である。不可強調表示において、柱状障害物201〜205及び壁状障害物206,207が存在し、走行不可領域であると判定された部分が、塗りつぶされる。
重畳画像においても、抽出画像と同様に、可能強調表示、不可強調表示及び境界強調表示のうちいずれか2つ以上を組み合わせて重畳してもよい。なお、可能強調表示及び不可強調表示を組み合わせて合成する場合、可能強調表示及び不可強調表示をそれぞれ異なる色で表示するなど区別できるような表示態様で重畳してもよい。
S170で、CPU31は、S140で抽出された領域境界Leを構成する各境界点Peの境界距離の算出を行う。ここでいう境界距離とは、各撮像画像の下端であって各撮像画像の横方向の中心位置を原点として、当該原点と各境界点Peとの距離をいう。
S180で、CPU31は、複数の撮像装置10により撮像されたすべての撮像画像において抽出された境界点のうち、算出された境界距離が最も短い境界点を近接境界点Npとして選択する。なお、近接境界点Npが複数存在する場合には複数の近接境界点Npを選択する。
なお、選択する近接境界点Npが検出されなかった場合、未選択状態としてS190に処理を移行する。
続いてCPU31は、S190からS260までの処理により、特定表示画像を作成し、表示する。ここでいう特定表示画像とは、鳥瞰画像と併せて表示装置20に表示される画像であり、近接境界点Npと自車との相対位置をドライバが認識できるように作成される画像である。
まず、S190で、PU31は、近接画像の選択を行う。近接画像とは、S180で選択された近接境界点Npが含まれる自車の進行方向、自車の左方向又は自車の右方向を表した抽出画像をいう。近接画像の選択を行う処理である画像選択処理の詳細については後述する。
S200で、CPU31は、S190で選択された近接画像において近接境界点Npが近距離範囲Dnに存在するか否かを判定する。ここでいう近距離範囲Dnとは、図10に示すように車両の周囲に存在する障害物を検出するための範囲であって、例えば、車両から見て車両の前後の車両端から2メートル以内車両の左右の端部から1メートル以内の範囲をいう。なお、近距離範囲Dnの範囲はこのような範囲に限定されるものではなく、車両の周囲に存在する障害物を検出できる範囲であればよい。
CPU31は、S200で近接境界点Npが近距離範囲Dnに存在すると判定した場合には、S210に処理を移行する。
S210で、CPU31は、S190で選択された近接画像を近距離変換する。ここで、近距離変換とは、自車の上方向から鉛直真下方向に向かう方向に仮想カメラPiの光軸方向が向き、自車の端部から近距離範囲Dnを含むように拡大して表示する鳥瞰変換である。
S220で、CPU31は、S210で近距離変換された近接画像を近距離画像として、近距離画像をS160で鳥瞰変換された画像と併せて表示装置20に表示させ、表示処理を終了する。
一方、S200で、近接境界点Npが近距離範囲Dnに存在しないと判定された場合には、S230に処理を移行する。
S230で、CPU31は、近接境界点Npが中距離範囲Dmに存在するか否かを判定する。ここでいう中距離範囲Dmとは、図10に示すように、車両の周囲を歩行する歩行者を検出するために設定される範囲をいう。中距離範囲Dmは、例えば、車両から見て車両の前後の車両端から2メートル以上10メートル以内かつ車両の左右の端部から1メートル以上5メートル以内の範囲をいう。なお、中距離範囲Dmの範囲はこのような範囲に限定されるものではなく、車両の周囲を歩行する歩行者が検出できる範囲であればよい。
CPU31は、S230で近接境界点Npが中距離範囲Dmに存在すると判定した場合には、S240に処理を移行する。
S240で、CPU31は、S190で選択された近接画像を中距離変換する。ここで、中距離変換とは、自車の上方向から鉛直下方向に対して斜め45度だけ傾いた方向に仮想カメラPiの光軸方向が向き、中距離範囲Dmの範囲を含むように表示する鳥瞰変換である。
S250で、CPU31は、S210で中距離変換された近接画像を中距離画像として、中距離画像をS160で鳥瞰変換された画像と併せて表示装置20に表示させ、表示処理を終了する。
一方、S230で、近接境界点Npが中距離範囲Dmに存在すると判定された場合、すなわち、近接境界点Npが近距離範囲Dnにも中距離範囲Dmにも存在しないと判定された場合、S260に処理を移行する。
S260で、CPU31は、S150で領域境界Leが強調表示された抽出画像をS160で鳥瞰変換された画像と併せて表示装置20に表示させ、表示処理を終了する。
S190で、フロントカメラ10aにより撮像された撮像画像である前方撮像画像が近接画像として選択された場合に表示装置20に表示される表示画像の例について図11を用いて説明する。
図11に示すように近接境界点Npが各段の左欄に示すような位置関係に存在する場合に、仮想カメラPiの視点が中欄に示すような位置及び向きとなるように、前方撮像画像の座標変換又は抽出画像の取得がなされる。そして、右欄に示すような表示画像が表示装置20に表示される。表示画像の左側部分には、S160の鳥瞰変換により作成された鳥瞰画像が表示され、表示画像の右側部分には、特定表示画像が表示される。
具体的には、図11下段左欄に示すように、近接境界点Npが近距離範囲Dnの範囲内に存在する場合には、下段中欄に示すように、仮想カメラPiの位置及び向きは、自車の前方1メートル程度の位置に、鉛直下向きを向くように設定される。そして、前方撮像画像を当該仮想カメラPiの向きの画像となるように座標変換することにより自車の端部から前方2メートル以内の範囲が映り込んだ画像である特定表示画像が形成される。なお、特定表示画像において、走行可能領域と走行不可領域との境界部分を表した境界強調表示に相当する表示が重畳表示される。その結果、下段右側に示すような表示画像が表示装置20に表示される。ここで、表示画像の左側部分には鳥瞰画像が表示され、表示画像の右側部分には、S210で作成された近距離画像が特定表示画像として表示される。
近接境界点Npが図11中段左欄に示すように、近接境界点Npが中距離範囲Dmに存在する場合、中段中欄に示すように、仮想カメラPiの位置及び向きが設定される。具体的には仮想カメラPiの位置及び向きは、自車においてフロントカメラ10aが設置されている位置に、鉛直下方向から自車の前方に向かって斜め45度だけ傾いた方向に仮想的な光軸が向くように設定される。そして、前方撮像画像を当該仮想カメラPiの向きの画像となるように座標変換することにより、自車の端部から前方2メートル以上10メート
ル以内の範囲が映り込んだ画像である特定表示画像が形成される。その結果、中断右側に示すような表示画像が表示装置20に表示される。ここで、表示画像の左側部分には鳥瞰画像が表示され、表示画像の右側部分には、S210で作成された中距離画像が特定表示画像として表示される。
近接境界点Npが図11上段左欄に示すように、近接境界点Npが近距離範囲Dnにも中距離範囲Dmにも存在しない場合、上段中欄に示すように、抽出画像が特定画像として設定される。具体的には、S140で領域境界Leが抽出され、撮像画像に領域境界Leの位置が重畳表示された画像である抽出画像が特定表示画像として設定される。表示画像の左側部分には鳥瞰画像が表示され、表示画像の右側部分には抽出画像が特定表示画像として表示される。
なお、前方撮像画像に近接境界点Npが存在する場合について図11を用いて説明した。リアカメラ10bにより撮像された撮像画像である後方撮像画像に近接境界点Npが存在する場合は、自車の前方と後方とが反対になるが、それ以外の点について同様である。
一方、S190で、左方カメラ10cにより撮像された撮像画像である左方撮像画像が近接画像として選択された場合に表示装置20に表示される表示画像の例について図12を用いて説明する。
S190で、左方カメラ10cにより撮像された撮像画像である左方撮像画像に近接境界点Npが存在する場合に表示装置20に表示される表示画像の例について図12を用いて説明する。
図11と同様、近接境界点Npが各段の左欄に示すような位置関係に存在する場合に、仮想カメラPiの視点が中欄に示すような位置及び向きとなるように、左方撮像画像の座標変換、又は抽出画像の取得がなされる。そして、右欄に示すような表示画像が表示装置20に表示される。なお、表示画像の左側部分には、S160の鳥瞰変換により作成された鳥瞰画像が表示され、表示画像の右側部分には、特定表示画像が表示される。
具体的には、図12下段左欄に示すように、近接境界点Npが近距離範囲Dnの範囲内に存在する場合には、下段中欄に示すように、仮想カメラPiの位置及び向きは、自車の左側前端部の位置に、自車の左後方を向くように設定される。そして、左方撮像画像を座標変換することにより自車の左方の自車の端部から1メートル以内の範囲が映り込んだ特定表示画像が形成される。その結果、下段右側に示すような表示画像が表示装置20に表示される。ここで、表示画像の左側部分には鳥瞰画像が表示され、表示画像の右側部分には、S210で作成された近距離画像が特定表示画像として表示される。
近接境界点Npが図12中段左欄に示すように、近接境界点Npが中距離範囲Dmに存在する場合、中段中欄に示すように、鉛直下方向から自車の左方に向かって斜め45度だけ傾いた方向に仮想的な光軸が向くように仮想カメラPiの位置が設定される。そして、自車の左方から2〜10mの範囲が映り込んだ画像に変換された特定表示画像が形成される。ここで、表示画像の左側部分には鳥瞰画像が表示され、表示画像の右側部分には中距離画像が特定表示画像として表示される。
近接境界点Npが図12上段左欄に示すように、近接境界点Npが近距離範囲Dn及び中距離範囲Dmに存在しない場合、上段中欄に示すように、抽出画像が特定表示画像として設定される。表示画像の左側部分には鳥瞰画像が表示され、表示画像の右側部分には抽出画像が特定表示画像として表示される。
なお、左方撮像画像に近接境界点Npが存在する場合について図12を用いて説明した。右方カメラ10dにより撮像された撮像画像である右方撮像画像に近接境界点Npが存在する場合は、自車の左方と右方とが反対になるが、それ以外の点について同様である。
可能強調表示、不可強調表示及び境界強調表示が強調範囲画像に相当する。
S110が画像取得部としての処理に相当し、S120が分類部としての処理に相当し、S130が領域判定部としての処理に相当し、S140が境界抽出部としての処理に相当し、S150が境界強調部としての処理に相当する。また、S160が鳥瞰変換部としての処理に相当し、S170が、距離算出部としての処理に相当し、S190〜S210及びS230〜S240が特定作成部としての処理に相当する。また、S220,S250及びS260が画像表示部及び特定表示部としての処理に相当し、S210及びS240が特定調整部としての処理に相当する。
<画像選択処理>
次に、CPU31がS190で実行する画像選択処理の詳細について図13を用いて説明する。
S310で、CPU31は、S180での近接境界点Npの選択において、近接境界点Npが検出されたか否か判定する。
近接境界点Npが検出されなかったと判定した場合、S320に処理を移行する。
S320で、CPU31は、進行方向の抽出画像を近接画像として設定し、画像選択処理を終了する。
近接境界点Npが検出されたと判定した場合、S330に処理を移行する。
S330で、CPU31は、S180で選択された近接境界点Npが、進行方向を撮像した撮像画像に含まれるか否か判定する。
ここでいう、進行方向を撮像した撮像画像とは、自車が前進する場合には前方撮像画像、自車が後進する場合には、後方撮像画像をいう。自車が前進するか後進するかは、自車のシフトレバーの位置により判定してもよい。例えば、シフトレバーが「D」の位置にある場合には、自車が前進すると判定してもよい。また、シフトレバーが「R」の位置にある場合には、自車が後進すると判定してもよい。ここでいう「D」の位置、「R」の位置とはそれぞれ、車両を前進させる際にシフトレバーを移動させる位置であるドライブレンジ、車両を後進させる際にシフトレバーを移動させる位置であるリバースレンジをいう。
CPU31は、S330で進行方向を撮像した撮像画像に近接境界点Npが存在すると判定した場合、S320に処理を移行する。
一方、CPU31は、S330で進行方向を撮像した撮像画像に近接境界点Npが存在しないと判定した場合、S340に処理を移行する。
S340で、CPU31は、近接境界点Npが左方撮像画像と右方撮像画像との両方に存在するか否か判定する。すなわち、自車の左側及び右側の両側に自車との距離が同一である近接境界点Npが存在するか否かを判定する。
CPU31は、S340で、近接境界点Npが、左方撮像画像と右方撮像画像との両方に存在すると判定した場合、S350に処理を移行する。
S350で、CPU31は、助手席側の撮像装置10により撮像された抽出画像を近接画像として設定し、画像選択処理を終了する。すなわち、自車が右ハンドルの車両である場合には、左方カメラ10cにより撮像された撮像画像を元に作成された抽出画像が近接画像として設定される。一方、自車が左ハンドルの車両である場合には、右方カメラ10
dにより撮像された撮像画像を元に作成された抽出画像が近接画像として設定される。ECU30の搭載された自車が右ハンドルであるか、左ハンドルであるかは、例えば製造時点に設定されてもよい。
一方、CPU31は、S340で、近接境界点Npが、左方撮像画像と右方撮像画像との両方に存在しないと判定した場合、左方撮像画像と右方撮像画像のうち、近接境界点Npを含む抽出画像を近接画像に設定し、画像選択処理を終了する。
検出された近接境界点Npと近接境界点Npが含まれる撮像画像との関係を、図14を用いて説明する。図14中、○で示した部分が近接境界点Npが検出された撮像画像を示し、×で示した部分が近接境界点Npが検出されなかった撮像画像を示す。例えば、一行目の欄は、進行方向に近接境界点Npが検出され、他の左方撮像画像及び右方撮像画像には近接境界点Npが検出されなかったことを示している。同様に最下段は、進行方向には近接境界点Npが検出されず、左方撮像画像と右方撮像画像との両方に近接境界点Npが検出されたことを示している。すなわち、左右で自車と同じ距離の近接境界点Npが検出されたことを示している。
進行方向に近接境界点Npが含まれる場合又は近接境界点Npが検出されなかった場合については、進行方向を表した抽出画像が近接画像に設定される。
一方、進行方向に近接境界点Npが検出された場合において、左方撮像画像と右方撮像画像との両方に近接境界点Npが存在する場合には、運転席とは反対側に配置された助手席側の抽出画像が近接画像に設定される。
左方撮像画像と右方撮像画像との一方に近接境界点Npが存在する場合には、その近接境界点Npが存在する一方の抽出画像が近接画像に設定される。
[3.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(1)上記実施形態によれば、表示装置20に表示される表示画像である周辺画像及び鳥瞰画像において、車両が走行できる路面を表した走行可能領域と立体物が存在するなどにより車両が走行できる路面以外を表した走行不可領域とが区別して表示される。このため、表示画像において、走行可能領域と、走行不可領域との境界の視認性を向上させることができる。
(2)上記実施形態によれば、鳥瞰画像において、車両が走行できる路面を表した走行可能領域と、立体物が存在するなどにより車両が走行できる路面以外を表した走行不可領域との境界を鳥瞰画像中に強調表示する。このため、鳥瞰画像における走行可能領域と走行不可領域との境界部分の視認性を向上させることができる。ドライバが境界部分を視認しやすくなるため安全性が向上する。
(3)上記実施形態によれば、表示画面21には、車両の周囲を表した鳥瞰画像に加え、車両の周囲に存在する近接境界点Npが映り込んだ画像である特定表示画像を表示する。ここで、近接境界点Npは、例えば車両の周囲において最も近くに存在する立体物の位置を表している。このため、ドライバが注意すべき近接境界点Npの位置を特定表示画像で確認できるため、安全性を向上させることができる。
(4)上記実施形態によれば画像選択処理により、図15に示すように撮像装置10同士の撮像範囲が重複する範囲である重複範囲Cdに近接境界点Npが存在する場合であっても、画像選択処理により図14に示すように、近接画像を選択できる。
具体的には、例えば車両が図15に示すように前進する際に、前方撮像画像と右方撮像画像との重複範囲Cdに近接境界点Npが存在する場合、画像選択処理により進行方向である前方を撮像した前方撮像画像が優先される。このため、図14の表の3行目に示すように前方撮像画像を元にした特定表示画像が表示される。進行方向を表した撮像画像を元に作成された特定表示画像を表示することにより、走行不可領域との境界を表す近接境界点Npに車両が進入することを抑制できる。
さらに、進行方向に近接境界点Npが存在することなく、左右の両方に近接境界点Npが存在する場合に助手席側の画像を優先的に表示できる。これにより運転席側から視認することが困難である助手席側を表示により確認できる。
(5)上記実施形態によれば、特定表示画像は、車両の位置と近接境界点Npの位置との位置関係及び距離に応じて異なる位置及び向きに仮想カメラPiの視点が設定される。そして設定された仮想カメラPiの位置から見た特定表示画像が表示される。ここで、設定される仮想カメラPiの位置及び向きは、近接境界点Npが特定表示画像中に映り込むように設定されるため、近接境界点Npをより好適に映し出すことができる。
(6)上記実施形態によれば、セマンティックセグメンテーションにより分類を行い、分類に従って、走行可能領域であるか走行不可領域を判定する。このため、例えば、センサを用いて立体物を検出し、検出した立体物の位置を走行できない領域として画像処理を行うような画像処理装置では、立体物でない部分は、走行できない領域であっても走行不可領域として表示することができない。しかし、本願では、分類にしたがって走行可能であるか否かを判定するため、立体物でなくても走行できない領域を走行不可領域と判定できる。例えば路面の凍結している部分など、立体物でなくても走行しないことが望ましい領域を走行不可領域として設定されるように分類させることで立体物でなくても走行不可領域として認識させることができる。
[4.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施できる。
(1)上記実施形態では、セマンティックセグメンテーションにより、アノテーション定義のいずれに属するかを判定する。ここで、アノテーション定義には、フリースペース領域Bf、自車領域Ba、無効領域Bb及び他領域Boという分類が含まれる。しかし、アノテーション定義に含まれる分類についてはこのような分類に限定されるものではなく、物標及び立体物の種類に対応した分類が設定されてもよい。すなわち、物標及び立体物の種類に対応した分類を設定した後に、それぞれの分類されたものが走行可能領域及び走行不可領域のいずれに該当するかが判定されてもよい。
(2)上記実施形態では、複数の撮像装置10から撮像画像を取得するが、撮像装置10の数は複数に限定されるものではなく、一つであってもよい。すなわち、一つの撮像画像に対して上述した鳥瞰変換を行ってもよい。
(3)上記実施形態では表示処理は、表示装置20の表示画面21に表示されたスイッチを操作するタッチ操作がタッチパネル22により検出されると実行される。しかし、表示処理は、タッチパネル22がタッチ操作を検出下場合に実行されるものに限定されない。例えば、シフトレバーがリバースレンジである「R」の位置に位置した場合に実行されてもよい。
(4)上記実施形態では、特定表示画像に重畳表示される表示は境界強調表示に相当す
る画像である。しかし、特定表示画像に重畳表示される表示は境界強調表示に相当する画像に限定されるものではなく、可能強調表示及び不可強調表示に相当する画像であってもよく、これらを組み合わせたものであってもよい。
(5)上記実施形態では、近距離変換及び中距離変換は、近接境界点Npを含む近接画像を元に合成されるが、近距離変換及び中距離変換は近接境界点Npを含む近接画像以外を元に合成されてもよい。すなわち、各抽出画像を、設定された仮想カメラPiの位置からみたように変換し、合成することにより、近接画像を合成してもよい。
(6)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
(7)上述したECU30の他、当該ECU30を構成要素とするシステム、当該ECU30としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、画像作成方法など、種々の形態で本開示を実現することもできる。
1…画像表示システム、10…撮像装置、10a…フロントカメラ、10b…リアカメラ、10c…左方カメラ、10d…右方カメラ、20…表示装置、21…表示画面、22…タッチパネル、30…ECU、31…CPU、32…メモリ、300…全体鳥瞰画像、Ba…自車領域、Bb…無効領域、Cd…重複範囲、Bf…フリースペース領域、Dm…中距離範囲、Dn…近距離範囲、Bo…他領域、Le…領域境界、Np…近接境界点、Pe…境界点、Pi…仮想カメラ、Sr…路面投影面。

Claims (7)

  1. 車両に搭載され、
    当該車両の周辺の範囲を撮像する撮像装置により撮像された画像である撮像画像を取得するように構成された画像取得部(S110)と、
    前記撮像画像において、前記車両が走行可能な領域を走行可能領域とし、前記走行可能領域以外の領域を走行不可領域として判定するように構成された領域判定部(S130)と、
    前記領域判定部により判定された前記走行可能領域と前記走行不可領域との境界である領域境界(Le)を抽出するように構成された境界抽出部(S140)と、
    前記境界抽出部によって抽出された前記領域境界を境に、前記走行可能領域と前記走行不可領域とを区別して表示するように構成された画像表示部(S220,S250,S260)と、
    を備える画像処理装置(30)。
  2. 請求項1に記載の画像処理装置であって、
    前記領域判定部は、前記撮像画像において、セマンティックセグメンテーションを実施し、当該撮像画像を複数の領域に分割し、分割された領域である分割領域のそれぞれに路面かそれ以外かを少なくとも分ける分類を対応付けるように構成された分類部(S120)を備え、
    前記領域判定部は、前記分類部により分類された前記分割領域が前記走行可能領域及び前記走行不可領域のいずれに含まれるかを、当該分割領域に対応付けられた分類により、前記走行可能領域及び前記走行不可領域を判定するように構成された、画像処理装置。
  3. 請求項1又は請求項2に記載の画像処理装置であって、
    前記境界抽出部により抽出された前記領域境界の位置が強調される表示である強調表示を前記撮像画像に重畳した画像である抽出画像を作成するように構成された境界強調部(S150)、を更に備える、画像処理装置。
  4. 請求項3に記載の画像処理装置であって、
    前記境界強調部は、前記走行可能領域及び前記走行不可領域の少なくとも一方と対応した範囲を強調する画像である強調範囲画像を重畳表示するように構成された、画像処理装置。
  5. 請求項3又は請求項4に記載の画像処理装置であって、
    前記境界強調部により作成された前記抽出画像を前記車両の上方から見た画像である鳥瞰画像に変換する処理である鳥瞰変換を行うように構成された鳥瞰変換部(S160)を更に備え、
    前記画像表示部は、前記鳥瞰変換部により鳥瞰変換された前記鳥瞰画像を表示画像として表示するように構成された、画像処理装置。
  6. 請求項1から請求項5までのいずれか1項に記載の画像処理装置であって、
    前記境界抽出部により抽出された前記領域境界と、前記車両との距離を算出するように構成された距離算出部(S170)と、
    前記距離算出部により距離が算出された前記領域境界のうち、前記車両との距離が最も近い部分を近接境界点(Np)として、前記近接境界点と前記車両との距離に応じて、前記近接境界点が映り込むように前記撮像画像を鳥瞰変換した画像である特定表示画像を作成するように構成された特定作成部(S190〜S210,S230〜S240)と、
    前記特定作成部により作成された前記特定表示画像を表示するように構成された特定表示部(S220,S250,S260)と、
    を備える、画像処理装置。
  7. 請求項6に記載の画像処理装置であって、
    前記特定表示画像を映し出す仮想的なカメラを仮想カメラ(Pi)として、前記近接境界点と前記車両との距離に応じて、前記近接境界点を含むように、当該仮想カメラの仮想的な位置及び光軸方向を調整するように構成された特定調整部(S210,S240)を更に備え、
    前記特定作成部は、前記特定調整部により調整された前記仮想カメラから撮像した画像となるように鳥瞰変換を行うように構成された、画像処理装置。
JP2018202196A 2018-10-26 2018-10-26 画像処理装置 Active JP7263731B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018202196A JP7263731B2 (ja) 2018-10-26 2018-10-26 画像処理装置
US16/662,573 US20200137322A1 (en) 2018-10-26 2019-10-24 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018202196A JP7263731B2 (ja) 2018-10-26 2018-10-26 画像処理装置

Publications (2)

Publication Number Publication Date
JP2020068515A true JP2020068515A (ja) 2020-04-30
JP7263731B2 JP7263731B2 (ja) 2023-04-25

Family

ID=70327824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018202196A Active JP7263731B2 (ja) 2018-10-26 2018-10-26 画像処理装置

Country Status (2)

Country Link
US (1) US20200137322A1 (ja)
JP (1) JP7263731B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753639A (zh) * 2020-05-06 2020-10-09 上海欧菲智能车联科技有限公司 感知地图生成方法、装置、计算机设备和存储介质
KR20230046909A (ko) * 2021-09-30 2023-04-06 서울대학교산학협력단 비-구조화된 주행 환경을 위한 자율 주행 방법 및 장치

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6607272B2 (ja) * 2018-03-02 2019-11-20 株式会社Jvcケンウッド 車両用記録装置、車両用記録方法及びプログラム
EP3776485B1 (en) * 2018-09-26 2022-01-26 Coherent Logix, Inc. Any world view generation
JP7380435B2 (ja) * 2020-06-10 2023-11-15 株式会社Jvcケンウッド 映像処理装置、及び映像処理システム
CN111912418A (zh) * 2020-07-16 2020-11-10 知行汽车科技(苏州)有限公司 删除移动载体不可行驶区域内障碍物的方法、装置及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019552A (ja) * 2001-03-28 2012-01-26 Panasonic Corp 運転支援装置
JP2014006588A (ja) * 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc 路面境界推定装置及びプログラム
JP2014125029A (ja) * 2012-12-25 2014-07-07 Kyocera Corp カメラシステム、カメラモジュールおよびカメラ制御方法
JP2018006865A (ja) * 2016-06-28 2018-01-11 アイシン精機株式会社 表示制御装置
JP2018142882A (ja) * 2017-02-28 2018-09-13 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8340870B2 (en) * 2008-09-16 2012-12-25 Honda Motor Co., Ltd. Vehicle maneuver assistance device
JP5483120B2 (ja) * 2011-07-26 2014-05-07 アイシン精機株式会社 車両周辺監視システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019552A (ja) * 2001-03-28 2012-01-26 Panasonic Corp 運転支援装置
JP2014006588A (ja) * 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc 路面境界推定装置及びプログラム
JP2014125029A (ja) * 2012-12-25 2014-07-07 Kyocera Corp カメラシステム、カメラモジュールおよびカメラ制御方法
JP2018006865A (ja) * 2016-06-28 2018-01-11 アイシン精機株式会社 表示制御装置
JP2018142882A (ja) * 2017-02-28 2018-09-13 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753639A (zh) * 2020-05-06 2020-10-09 上海欧菲智能车联科技有限公司 感知地图生成方法、装置、计算机设备和存储介质
KR20230046909A (ko) * 2021-09-30 2023-04-06 서울대학교산학협력단 비-구조화된 주행 환경을 위한 자율 주행 방법 및 장치
KR102600238B1 (ko) * 2021-09-30 2023-11-10 서울대학교산학협력단 비-구조화된 주행 환경을 위한 자율 주행 방법 및 장치

Also Published As

Publication number Publication date
JP7263731B2 (ja) 2023-04-25
US20200137322A1 (en) 2020-04-30

Similar Documents

Publication Publication Date Title
US10970562B2 (en) Display apparatus
JP7263731B2 (ja) 画像処理装置
CN109691088B (zh) 图像处理设备、图像处理方法、以及程序
WO2016002163A1 (ja) 画像表示装置、画像表示方法
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP4315968B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP4893212B2 (ja) 周辺監視装置
US10703275B2 (en) Image generation apparatus
JP2004240480A (ja) 運転支援装置
JP2009206747A (ja) 車両用周囲状況監視装置及び映像表示方法
JP2013001366A (ja) 駐車支援装置および駐車支援方法
JP2018144526A (ja) 周辺監視装置
JP5966513B2 (ja) 車両の後側方撮影装置
JP2018063294A (ja) 表示制御装置
JP2018142884A (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
WO2015122124A1 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2021013072A (ja) 画像処理装置および画像処理方法
JP2006238131A (ja) 車両周辺監視装置
JP2018056951A (ja) 表示制御装置
JP5226641B2 (ja) 車両用障害物検出装置
JP2008114691A (ja) 車両周辺監視装置および車両周辺監視映像表示方法
JP2007251880A (ja) 車両用画像表示装置および画像合成方法
JP2006224927A (ja) 車両周辺視認装置
JP6274936B2 (ja) 運転支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R151 Written notification of patent or utility model registration

Ref document number: 7263731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151