JP7217090B2 - Information providing device and information providing method - Google Patents

Information providing device and information providing method Download PDF

Info

Publication number
JP7217090B2
JP7217090B2 JP2018048882A JP2018048882A JP7217090B2 JP 7217090 B2 JP7217090 B2 JP 7217090B2 JP 2018048882 A JP2018048882 A JP 2018048882A JP 2018048882 A JP2018048882 A JP 2018048882A JP 7217090 B2 JP7217090 B2 JP 7217090B2
Authority
JP
Japan
Prior art keywords
image
vehicle
past
viewpoint
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018048882A
Other languages
Japanese (ja)
Other versions
JP2019160118A (en
Inventor
将嘉 伊井野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018048882A priority Critical patent/JP7217090B2/en
Publication of JP2019160118A publication Critical patent/JP2019160118A/en
Application granted granted Critical
Publication of JP7217090B2 publication Critical patent/JP7217090B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両の乗員に情報を提供する技術に関する。 The present invention relates to technology for providing information to vehicle occupants.

駐車支援や自動駐車を行うことができる車両が既に市販されている。駐車支援や自動駐車では駐車位置の設定が必要となるが、車載カメラの撮影画像を用いて駐車位置を設定する場合、通過時に駐車位置候補を検出してバックカメラ映像上で示すことができるが、位置がわかりにくい表現となり、選択しやすいとは言えない。それを解決するために俯瞰画像上に駐車位置候補を表示することが考えられるが、車両が通り過ぎて現在の撮影画像に含まれなくなった領域は駐車位置候補として選択することができない。例えば図8では、自車両V1の車載カメラで撮影された撮影画像から生成される俯瞰画像の表示範囲R1内に存在する空きスペースP1~P3を駐車位置候補として選択することができる。図9では自車両V1が前進したために、自車両V1の車載カメラで撮影された撮影画像から生成される俯瞰画像の表示範囲R1内に存在する空きスペースP3~P4を駐車位置候補として選択することができるが、空きスペースP1~P2を駐車位置候補として選択することができなくなる。 Vehicles capable of parking assistance and automatic parking are already on the market. Parking assistance and automatic parking require the setting of a parking position, but when setting a parking position using an image captured by an in-vehicle camera, it is possible to detect parking position candidates when passing and indicate them on the rear camera image. , the position is difficult to understand, and it cannot be said that it is easy to select. To solve this problem, it is conceivable to display parking position candidates on the bird's-eye view image. For example, in FIG. 8, empty spaces P1 to P3 existing within a display range R1 of a bird's-eye view image generated from an image captured by an on-board camera of the vehicle V1 can be selected as parking position candidates. In FIG. 9, since the vehicle V1 has moved forward, empty spaces P3 to P4 existing within the display range R1 of the bird's-eye view image generated from the captured image captured by the vehicle-mounted camera of the vehicle V1 are selected as parking position candidates. However, the vacant spaces P1 to P2 cannot be selected as parking position candidates.

図9に示す状態で、空きスペースP1~P2を駐車位置候補として選択するためには、過去画像(例えば図8に示す状態で撮影された画像)を利用することが考えられる。 In order to select the empty spaces P1 to P2 as parking position candidates in the state shown in FIG. 9, it is conceivable to use a past image (for example, an image captured in the state shown in FIG. 8).

特開2012-253609号公報JP 2012-253609 A

例えば特許文献1等で開示されているドライブレコーダは過去画像を記録しているため、過去画像を利用することができる。しかしながら、ドライブレコーダによって記録された過去画像をそのまま再生して表示した場合、現在位置と過去画像に対応する撮影画像が撮影された位置との位置関係をユーザが容易に把握できなかった。このため、過去画像と現在位置とを関連付けた上で過去画像を有効に利用することが難しかった。 For example, since the drive recorder disclosed in Patent Document 1 records past images, the past images can be used. However, when the past image recorded by the drive recorder is reproduced and displayed as it is, the user cannot easily grasp the positional relationship between the current position and the position where the photographed image corresponding to the past image was taken. Therefore, it was difficult to effectively use the past image after associating the past image with the current position.

本発明は、上記課題に鑑みて、現在位置と過去画像に対応する撮影画像が撮影された位置との位置関係をユーザが容易に把握できる過去画像を提供する情報提供技術を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide an information providing technique that provides a past image that allows the user to easily grasp the positional relationship between the current position and the position where the photographed image corresponding to the past image was photographed. and

本発明の一局面に係る情報提供装置は、自車両の周辺を撮影するカメラで得られた撮影画像を取得する取得部と、前記撮影画像及び前記撮影画像に基づく視点変換画像の少なくとも一方を記憶する記憶部と、前記自車両を表す像を生成する生成部と、前記撮影画像及び前記視点変換画像の少なくとも一方の過去画像における前記自車両の現在位置に前記自車両を表す像を重畳する重畳部と、過去に撮影された画像であることをユーザに視認させるための画像加工処理として、透過有色のマスクを行うか、若しくは過去に遡っている時間を重畳する画像加工処理を前記過去画像に施す画像加工処理部と、を備える構成(第1の構成)である。 An information providing device according to one aspect of the present invention stores at least one of an acquisition unit that acquires a photographed image obtained by a camera that photographs the surroundings of a vehicle, and the photographed image and a viewpoint-converted image based on the photographed image. a storage unit for generating an image representing the own vehicle; and a superimposing unit for superimposing the image representing the own vehicle on the current position of the own vehicle in at least one of the captured image and the viewpoint converted image. In addition, as an image processing process for allowing the user to visually recognize that the image was taken in the past, a transparent colored mask is applied, or an image processing process for superimposing a time going back in the past is performed on the past image. and an image processing unit that performs the processing (first configuration).

上記第1の構成の情報提供装置において、前記撮影画像又は前記視点変換画像のいずれかの過去画像と、前記撮影画像又は前記視点変換画像のいずれかの現在画像と、を表示画像として出力する構成(第2の構成)であってもよい。 In the information providing apparatus having the first configuration, a configuration in which a past image of either the captured image or the viewpoint-transformed image and a current image of either the captured image or the viewpoint-transformed image are output as display images. (Second configuration).

上記第1又は第2の構成の情報提供装置において、前記重畳部は、前記視点変換画像の過去画像における前記過去画像に対応する前記撮影画像が撮影された前記自車両の位置に前記自車両を表す像を重畳する構成(第の構成)であってもよい。 In the information providing apparatus having the first or second configuration, the superimposing unit places the own vehicle at the position of the own vehicle where the photographed image corresponding to the past image in the past image of the viewpoint conversion image was photographed. A configuration (a third configuration) in which an image representing the image is superimposed may be employed.

上記第構成の情報提供装置において、前記過去画像における前記自車両の現在位置に重畳する前記自車両を表す像と、前記視点変換画像の過去画像における前記過去画像に対応する前記撮影画像が撮影された前記自車両の位置に重畳する前記自車両を表す像と、を異なる表示態様にする構成(第の構成)であってもよい。 In the information providing apparatus of the third configuration, an image representing the own vehicle superimposed on the current position of the own vehicle in the past image and the photographed image corresponding to the past image in the past image of the viewpoint conversion image are photographed. The image representing the own vehicle superimposed on the position of the own vehicle thus displayed may be displayed in a different display mode ( fourth configuration).

本発明の一局面に係る情報提供方法は、自車両の周辺を撮影するカメラで得られた撮影画像を取得する取得工程と、前記撮影画像及び前記撮影画像に基づく視点変換画像の少なくとも一方を記憶する記憶工程と、前記自車両を表す像を生成する生成工程と、前記撮影画像及び前記視点変換画像の少なくとも一方の過去画像における前記自車両の現在位置に前記自車両を表す像を重畳する重畳工程と、過去に撮影された画像であることをユーザに視認させるための画像加工処理として、透過有色のマスクを行うか、若しくは過去に遡っている時間を重畳する画像加工処理を前記過去画像に施す画像加工処理工程と、を備える構成(第5の構成)である。 An information providing method according to one aspect of the present invention includes an acquiring step of acquiring a photographed image obtained by a camera that photographs the surroundings of a vehicle, and storing at least one of the photographed image and a viewpoint-converted image based on the photographed image. a generating step of generating an image representing the own vehicle; and a superimposition of superimposing the image representing the own vehicle on the current position of the own vehicle in at least one of the captured image and the viewpoint converted image. and, as an image processing process for allowing the user to visually recognize that the image was taken in the past, a transparent colored mask is applied, or an image processing process for superimposing a time going back in time is applied to the past image. and an image processing step to be applied (fifth configuration).

本発明によると、現在位置と過去画像に対応する撮影画像が撮影された位置との位置関係をユーザが容易に把握できる過去画像を提供することができる。 According to the present invention, it is possible to provide a past image that allows the user to easily grasp the positional relationship between the current position and the position where the photographed image corresponding to the past image was photographed.

情報提供装置の構成例を示す図A diagram showing a configuration example of an information providing device 4つの車載カメラが車両に配置される位置を例示する図A diagram illustrating the positions where four in-vehicle cameras are arranged in a vehicle 仮想投影面の例を示す図A diagram showing an example of a virtual projection plane 表示画像の一例を示す図A diagram showing an example of a display image 表示画像の一例を示す図A diagram showing an example of a display image 表示画像の一例を示す図A diagram showing an example of a display image 表示画像の一例を示す図A diagram showing an example of a display image 駐車場の状態を示す俯瞰図Bird's-eye view showing the state of the parking lot 駐車場の状態を示す俯瞰図Bird's-eye view showing the state of the parking lot

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。 Exemplary embodiments of the invention are described in detail below with reference to the drawings.

<1.情報提供装置の構成例>
図1は情報提供装置の構成例を示す図である。図1に示す情報提供装置201は、例えば自動車などの車両に搭載されている。以下、情報提供装置201が搭載される車両を「自車両」という。また、自車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方」という。また、自車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方」という。また、自車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」という。また、自車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」という。
<1. Configuration example of information providing device>
FIG. 1 is a diagram showing a configuration example of an information providing apparatus. An information providing device 201 shown in FIG. 1 is mounted in a vehicle such as an automobile. Hereinafter, the vehicle in which the information providing device 201 is mounted is referred to as "own vehicle". In addition, the direction from the driver's seat to the steering wheel, which is the straight traveling direction of the own vehicle, is referred to as "forward". In addition, the direction from the steering wheel to the driver's seat, which is the straight traveling direction of the own vehicle, is called "rear". Also, a direction that is perpendicular to the straight traveling direction and the vertical line of the own vehicle and that extends from the right side to the left side of the driver who is facing forward is referred to as the "left direction." Also, the direction perpendicular to the straight traveling direction and the vertical line of the own vehicle and from the left side to the right side of the driver who is facing forward is referred to as the "right direction."

図1に示すフロントカメラ11、バックカメラ12、左サイドカメラ13、右サイドカメラ14、情報提供装置201、表示装置31、操作装置32、及び駐車枠認識装置33は自車両に搭載される。 The front camera 11, the back camera 12, the left side camera 13, the right side camera 14, the information providing device 201, the display device 31, the operation device 32, and the parking frame recognition device 33 shown in FIG. 1 are mounted on the own vehicle.

図2は、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)が自車両V1に配置される位置を例示する図である。 FIG. 2 is a diagram exemplifying the positions where four in-vehicle cameras (the front camera 11, the back camera 12, the left side camera 13, and the right side camera 14) are arranged in the host vehicle V1.

フロントカメラ11は自車両V1の前端に設けられる。フロントカメラ11の光軸11aは上からの平面視で自車両V1の前後方向に沿っている。フロントカメラ11は自車両V1の前方向を撮影する。バックカメラ12は自車両V1の後端に設けられる。バックカメラ12の光軸12aは上からの平面視で自車両V1の前後方向に沿っている。バックカメラ12は自車両V1の後方向を撮影する。フロントカメラ11及びバックカメラ12の取付位置は、自車両V1の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であってもよい。 The front camera 11 is provided at the front end of the own vehicle V1. The optical axis 11a of the front camera 11 extends along the longitudinal direction of the vehicle V1 when viewed from above. The front camera 11 photographs the front direction of the own vehicle V1. The back camera 12 is provided at the rear end of the own vehicle V1. The optical axis 12a of the back camera 12 extends along the longitudinal direction of the vehicle V1 when viewed from above. The back camera 12 photographs the rear direction of the own vehicle V1. The mounting position of the front camera 11 and the rear camera 12 is preferably the left-right center of the vehicle V1, but may be slightly shifted in the left-right direction from the left-right center.

左サイドカメラ13は自車両V1の左側ドアミラーM1に設けられる。左サイドカメラ13の光軸13aは上からの平面視で自車両V1の左右方向に沿っている。左サイドカメラ13は自車両V1の左方向を撮影する。右サイドカメラ14は自車両V1の右側ドアミラーM2に設けられる。右サイドカメラ14の光軸14aは上からの平面視で自車両V1の左右方向に沿っている。右サイドカメラ14は自車両V1の右方向を撮影する。なお、自車両V1がいわゆるドアミラーレス車である場合には、左サイドカメラ13は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられ、右サイドカメラ14は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。 The left side camera 13 is provided on the left door mirror M1 of the own vehicle V1. The optical axis 13a of the left side camera 13 extends along the lateral direction of the vehicle V1 when viewed from above. The left side camera 13 photographs the left direction of the own vehicle V1. The right side camera 14 is provided on the right door mirror M2 of the vehicle V1. The optical axis 14a of the right side camera 14 extends along the left-right direction of the vehicle V1 when viewed from above. The right side camera 14 photographs the right direction of the own vehicle V1. When the own vehicle V1 is a so-called door mirrorless vehicle, the left side camera 13 is attached around the rotation axis (hinge portion) of the left side door without interposing the door mirror, and the right side camera 14 is attached to the right side door. It is attached around the rotating shaft (hinge part) of the door mirror without intervening the door mirror.

各車載カメラの水平方向の画角θは180度以上である。このため、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)によって、自車両V1の水平方向における全周囲を撮影することができる。なお、本実施形態では、車載カメラの数を4つとしているが、車載カメラの撮影画像を用いて後述する俯瞰画像を作成するために必要な車載カメラの数は4つに限られることはなく、複数のカメラであればよい。一例として、各車載カメラの水平方向の画角θが比較的広い場合は、4つよりも少ない3つのカメラから取得される3つの撮影画像に基づき俯瞰画像を生成してもよい。さらに、別の例として、各車載カメラの水平方向の画角θが比較的狭い場合は、4つよりも多い5つのカメラから得られる5つの撮影画像に基づき俯瞰画像を生成してもよい。 The horizontal angle of view θ of each vehicle-mounted camera is 180 degrees or more. Therefore, the four in-vehicle cameras (the front camera 11, the back camera 12, the left side camera 13, and the right side camera 14) can photograph the entire circumference of the vehicle V1 in the horizontal direction. In this embodiment, the number of onboard cameras is four, but the number of onboard cameras required to create a bird's-eye view image described later using the images captured by the onboard cameras is not limited to four. , multiple cameras. As an example, when the horizontal angle of view θ of each in-vehicle camera is relatively wide, a bird's-eye view image may be generated based on three captured images acquired from three cameras, which is less than four. Furthermore, as another example, when the horizontal angle of view θ of each vehicle-mounted camera is relatively narrow, a bird's-eye view image may be generated based on five captured images obtained from five cameras, which is more than four.

図1に戻って、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)は、撮影画像を情報提供装置201及び駐車枠認識装置33に出力する。 Returning to FIG. 1, the four in-vehicle cameras (the front camera 11, the back camera 12, the left side camera 13, and the right side camera 14) output captured images to the information providing device 201 and the parking frame recognition device 33.

情報提供装置201は、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)から出力される撮影画像を処理し、処理後の画像を表示装置31に出力する。 The information providing device 201 processes captured images output from four in-vehicle cameras (the front camera 11, the back camera 12, the left side camera 13, and the right side camera 14) and outputs the processed images to the display device 31. do.

表示装置31は、自車両のドライバーが表示装置31の表示画面を視認できる位置に設けられ、情報提供装置201から出力される表示画像を表示する。表示装置31としては、例えばセンターコンソールに設置されるディスプレイ、運転席の対向位置に設置されるメータディスプレイ、フロントガラスに画像を投影するヘッドアップディスプレイなどを挙げることができる。 The display device 31 is provided at a position where the display screen of the display device 31 can be viewed by the driver of the vehicle, and displays a display image output from the information providing device 201 . Examples of the display device 31 include a display installed in the center console, a meter display installed opposite the driver's seat, and a head-up display that projects an image onto the windshield.

操作装置32は、自車両のドライバーが行った操作に応じた操作情報を生成する装置である。操作装置32としては、例えば、押し釦、タッチパネル等を用いることができる。また、操作装置は、マイクロフォンを有し、自車両のドライバーが発した音声を認識して自車両のドライバーが発した音声に応じた操作情報を生成してもよい。なお、以下の説明では、操作装置32を、表示装置31と一体として構成されるタッチパネルとする。 The operation device 32 is a device that generates operation information according to an operation performed by the driver of the own vehicle. As the operation device 32, for example, a push button, a touch panel, or the like can be used. Further, the operating device may have a microphone, recognize a voice uttered by the driver of the vehicle, and generate operation information according to the voice uttered by the driver of the vehicle. In the following description, it is assumed that the operation device 32 is a touch panel integrated with the display device 31 .

情報提供装置201は、ASIC(application specific integrated circuit)やFPGA(field-programmable gate array)等のハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて情報提供装置201を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、当該プログラムをプログラム実行装置上で実行することによって、その機能を実現するようにしてもよい。プログラム実行装置としては、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えるコンピュータを挙げることができる。 The information providing device 201 can be configured by hardware such as ASIC (application specific integrated circuit) or FPGA (field-programmable gate array), or a combination of hardware and software. When the information providing apparatus 201 is configured using software, a block diagram of a portion realized by software represents a functional block diagram of that portion. A function realized using software may be described as a program, and the function may be realized by executing the program on a program execution device. Examples of the program execution device include a computer including a CPU (Central Processing Unit), RAM (Random Access Memory), and ROM (Read Only Memory).

情報提供装置201は、撮影画像取得部21と、表示制御部22と、記憶部23と、駐車位置選択部24と、を備える。 The information providing device 201 includes a captured image acquisition unit 21 , a display control unit 22 , a storage unit 23 and a parking position selection unit 24 .

撮影画像取得部21は、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。そして、取得した撮影画像がアナログの場合には、撮影画像取得部21は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。撮影画像取得部21は、取得した撮影画像、或いは、取得及び変換した撮影画像を、表示制御部22に出力する。 The captured image acquisition unit 21 acquires analog or digital captured images from the four on-vehicle cameras (front camera 11, back camera 12, left side camera 13, and right side camera 14) at a predetermined cycle (for example, 1/30 second cycle). ) to acquire continuously in time. When the acquired captured image is analog, the captured image acquisition unit 21 converts (A/D converts) the analog captured image into a digital captured image. The captured image acquisition unit 21 outputs the acquired captured image or the acquired and converted captured image to the display control unit 22 .

表示制御部22は、俯瞰画像生成部22aと、自車両像生成部22bと、重畳部22cと、画像加工処理部22dと、を備える。 The display control unit 22 includes a bird's-eye view image generation unit 22a, an own vehicle image generation unit 22b, a superimposition unit 22c, and an image processing unit 22d.

俯瞰画像生成部22aは、撮影画像取得部21によって取得された撮影画像を仮想投影面に投影して投影画像に変換する。具体的には、俯瞰画像生成部22aは、図3に示す仮想的な三次元空間における仮想投影面100の第1領域R1にフロントカメラ11の撮影画像を投影して、フロントカメラ11の撮影画像を第1の投影画像に変換する。同様に、俯瞰画像生成部22aは、図3に示す仮想投影面100の第2~第4領域R2~R4それぞれにバックカメラ12の撮影画像、左サイドカメラ13の撮影画像、及び右サイドカメラ14の撮影画像を投影して、バックカメラ12の撮影画像、左サイドカメラ13の撮影画像、及び右サイドカメラ14の撮影画像それぞれを第2~第4の投影画像に変換する。 The bird's-eye view image generation unit 22a projects the captured image acquired by the captured image acquisition unit 21 onto a virtual projection plane and converts it into a projected image. Specifically, the overhead image generator 22a projects the image captured by the front camera 11 onto the first region R1 of the virtual projection plane 100 in the virtual three-dimensional space shown in FIG. to the first projection image. Similarly, the bird's-eye view image generating unit 22a generates images captured by the back camera 12, captured by the left side camera 13, and captured by the right side camera 14 in the second to fourth regions R2 to R4 of the virtual projection plane 100 shown in FIG. , and converts the image captured by the back camera 12, the image captured by the left side camera 13, and the image captured by the right side camera 14 into second to fourth projection images, respectively.

図3に示す仮想投影面100は、例えば略半球状(お椀形状)をしている。仮想投影面100の中心部分(お椀の底部分)は、自車両V1が存在する位置として定められている。このように仮想投影面100が曲面を含むようにすることで、自車両V1から離れた位置に存在する物体の像の歪みを少なくすることができる。また、第1~第4領域R1~R4それぞれは、隣接する他の領域と重複する部分を有している。このような重複部分を設けることで、領域の境界部分に投影される物体の像が投影画像から消失することを防止することができる。 A virtual projection plane 100 shown in FIG. 3 has, for example, a substantially hemispherical shape (bowl shape). A center portion (bottom portion of the bowl) of the virtual projection plane 100 is defined as a position where the own vehicle V1 exists. By making the virtual projection plane 100 include a curved surface in this way, it is possible to reduce the distortion of the image of an object existing at a position distant from the host vehicle V1. Also, each of the first to fourth regions R1 to R4 has a portion that overlaps with other adjacent regions. By providing such an overlapping portion, it is possible to prevent the image of the object projected on the boundary portion of the region from disappearing from the projection image.

俯瞰画像生成部22aは、複数の投影画像に基づいて仮想視点からみた仮想視点画像を生成する。具体的には、俯瞰画像生成部22aは、第1~第4の投影画像を仮想投影面100の第1~第4領域R1~R4に仮想的に貼り付ける。 The bird's-eye view image generation unit 22a generates a virtual viewpoint image viewed from a virtual viewpoint based on a plurality of projection images. Specifically, the bird's-eye view image generator 22a virtually pastes the first to fourth projection images onto the first to fourth regions R1 to R4 of the virtual projection plane 100. FIG.

また、自車両像生成部22bは、自車両V1の三次元形状を示すポリゴンのモデルを仮想的に構成する。この自車両V1のモデルは、仮想投影面100が設定される仮想的な三次元空間において、自車両V1が存在する位置として定められた位置(仮想投影面100の中心部分)に第1領域R1が前側、第4領域R4が後ろ側に成るように配置される。 In addition, the host vehicle image generator 22b virtually constructs a polygonal model representing the three-dimensional shape of the host vehicle V1. This model of the own vehicle V1 is located in a position defined as the position where the own vehicle V1 exists (the central portion of the virtual projection plane 100) in a virtual three-dimensional space in which the virtual projection plane 100 is set. is on the front side, and the fourth region R4 is on the rear side.

さらに、俯瞰画像生成部22aは、仮想投影面100が設定される仮想的な三次元空間において、仮想視点を設定する。仮想視点は、視点位置及び視野方向によって規定される。仮想投影面100の少なくとも一部が視野に入る限り、仮想視点の視点位置及び視野方向は、任意の視点位置及び任意の視野方向に設定することができる。本実施形態では、仮想視点の視点位置を自車両のほぼ真上とし、仮想視点の視野方向を自車両のほぼ前下(ほぼ重力方向)とする。これにより、俯瞰画像生成部22aが生成する仮想視点画像が俯瞰画像となる。 Furthermore, the bird's-eye view image generator 22a sets a virtual viewpoint in the virtual three-dimensional space in which the virtual projection plane 100 is set. A virtual viewpoint is defined by a viewpoint position and a viewing direction. As long as at least part of the virtual projection plane 100 is within the field of view, the viewpoint position and viewing direction of the virtual viewpoint can be set to any viewpoint position and any viewing direction. In the present embodiment, the viewpoint position of the virtual viewpoint is set to be substantially directly above the own vehicle, and the visual field direction of the virtual viewpoint is set to be substantially forward and downward of the own vehicle (substantially in the direction of gravity). As a result, the virtual viewpoint image generated by the bird's-eye view image generator 22a becomes the bird's-eye view image.

俯瞰画像生成部22aは、設定した仮想視点に応じて、仮想投影面100における必要な領域(仮想視点からみえる領域)の画像を仮想的に切り出す。また、自車両像生成部22bは、設定した仮想視点に応じて、ポリゴンのモデルに関してレンダリングを行い、自車両V1のレンダリング像を生成する。そして、重畳部22cは、切り出した画像に対して自車両V1のレンダリング像を重畳した俯瞰画像を生成する。すなわち、自車両像生成部22bは、自車両を表す像を生成している。また、自車両V1のレンダリング像(自車両を表す像)は、現在の俯瞰画像中の自車両の現在位置に対応する領域に重畳されている。 The bird's-eye view image generator 22a virtually cuts out an image of a required area (area visible from the virtual viewpoint) on the virtual projection plane 100 according to the set virtual viewpoint. In addition, the own vehicle image generation unit 22b performs rendering on a polygon model according to the set virtual viewpoint, and generates a rendered image of the own vehicle V1. Then, the superimposing unit 22c generates a bird's-eye view image by superimposing the rendered image of the own vehicle V1 on the clipped image. That is, the own vehicle image generation unit 22b generates an image representing the own vehicle. A rendered image of the own vehicle V1 (an image representing the own vehicle) is superimposed on an area corresponding to the current position of the own vehicle in the current bird's-eye view image.

なお、自車両像生成部22bは、自車両V1のレンダリング像のみならず、自車両V1のCG(Computer Graphics)像も生成することができる。また、重畳部22cは、撮影画像又は仮想視点画像の任意の位置に自車両を表す像を重畳することができる。したがって、自車両V1のCG像は、現在の自車両位置を示す表示である車両イラスト画像として利用することができ、過去画像に対応した自車両位置に相当する位置に過去車両イラスト画像として表示することもできる。 Note that the own vehicle image generator 22b can generate not only a rendered image of the own vehicle V1 but also a CG (Computer Graphics) image of the own vehicle V1. Also, the superimposing unit 22c can superimpose an image representing the own vehicle on an arbitrary position of the captured image or the virtual viewpoint image. Therefore, the CG image of the own vehicle V1 can be used as a vehicle illustration image that is a display indicating the current position of the own vehicle, and is displayed as the past vehicle illustration image at a position corresponding to the own vehicle position corresponding to the past image. can also

記憶部23は、例えば自車両の駐車支援機能や自動駐車機能がオン状態になると、駐車位置の設定が完了するまで、過去画像である撮影画像を記憶する。過去画像である撮影画像は、最大で現在から所定期間遡った分、又は、最大で現在から所定走行距離遡った分が記憶部23に記憶される。なお、過去画像である撮影画像の代わりに、又は、過去画像である撮影画像に加えて、過去画像である視点変換画像が記憶部23に記憶されてもよい。自車両の駐車支援機能や自動駐車機能は、例えば自車両の速度が所定値以下などの条件が成立すると、自動的にオン状態になる。したがって、例えば情報提供装置201は、駐車支援機能や自動駐車機能を実行する制御部から出力される情報、又は、車速センサから出力される情報に基づいて、自車両の駐車支援機能や自動駐車機能がオン状態になったか否かを判定すればよい。 For example, when the parking support function or the automatic parking function of the own vehicle is turned on, the storage unit 23 stores captured images, which are past images, until the setting of the parking position is completed. The photographed image, which is a past image, is stored in the storage unit 23 for a maximum of a predetermined period of time before the present or a maximum of a predetermined running distance from the present. Instead of or in addition to the captured image, which is a past image, a viewpoint-converted image, which is a past image, may be stored in the storage unit 23 . The self-vehicle parking support function and the automatic parking function are automatically turned on when conditions such as the speed of the self-vehicle being equal to or less than a predetermined value are met. Therefore, for example, the information providing device 201 can perform the parking assistance function or the automatic parking function of the host vehicle based on information output from a control unit that executes the parking assistance function or the automatic parking function or information output from the vehicle speed sensor. is turned on.

情報提供装置201は、操作装置32からの出力に応じて、過去画像を表示装置31に表示させる。例えば、表示装置31の表示画面に現在画像が表示されている状態で、現在画像内の自車両を表す像又は路面に対応するタッチパネルの位置でスワイプ操作が行われると、情報提供装置201は、スワイプ量に応じた時間だけ過去に遡った過去画像を表示画像に含める。なお、初回の過去画像表示において、過去に遡る量が自動的に調整されてもよい。過去に遡る量が自動的に調整される場合には、例えば複数の駐車位置候補のうち最も駐車し易い駐車位置候補が表示画像の上下方向における中央部分にくるようにすればよい。最も駐車し易い駐車位置候補であるかの判定は、駐車位置候補の広さや駐車動作において必要となるステアリング操作量などをスコア化して判定すればよい。 The information providing device 201 causes the display device 31 to display the past image according to the output from the operation device 32 . For example, when an image is currently displayed on the display screen of the display device 31, when a swipe operation is performed at a position of the touch panel corresponding to the image representing the own vehicle or the road surface in the current image, the information providing device 201 A past image that goes back in time corresponding to the amount of swiping is included in the display image. In addition, in the first past image display, the amount of going back to the past may be automatically adjusted. When the amount of going back in the past is automatically adjusted, for example, the parking position candidate, which is the easiest to park among the plurality of parking position candidates, may be positioned in the center portion of the display image in the vertical direction. Whether or not the parking position candidate is the easiest to park may be determined by scoring the width of the parking position candidate, the amount of steering operation required for the parking operation, and the like.

駐車枠認識装置33は、不図示のクリアランスソナーから出力される信号に基づいて空間認識を行って駐車場の空きスペース(車両が止まっていない空き領域)を検出する。また、駐車枠認識装置33は、カメラ11~14によって撮影された映像から、白線認識により空きスペースに対し駐車枠を認識する。そして、駐車枠認識装置33は、認識した駐車枠の画素位置から駐車枠と自車両との相対位置情報を検出し、当該相対位置情報を駐車候補位置情報として自身のメモリに記憶する。 The parking frame recognition device 33 performs space recognition based on a signal output from a clearance sonar (not shown) to detect an empty space in the parking lot (an empty area where the vehicle is not parked). Also, the parking frame recognition device 33 recognizes the parking frame for the empty space by recognizing the white line from the images captured by the cameras 11 to 14 . Then, the parking frame recognition device 33 detects relative position information between the parking frame and the own vehicle from the pixel position of the recognized parking frame, and stores the relative position information in its own memory as parking candidate position information.

さらに、駐車枠認識装置33は、不図示の車速センサから得られる自車の移動量と不図示の舵角センサから得られるステアリング角による進行方向とに基づき、これまで検出した駐車候補位置(即ち、現在の画像に含まれている駐車候補位置だけでなく過去に検出した駐車候補位置も含む)の自車に対する位置情報を補正し、自身のメモリに記憶する。従って、駐車枠認識装置33内のメモリには、過去検出分も含め補正された最新の駐車候補位置情報が記憶される。駐車枠認識装置33は、この最新の駐車候補位置情報をその都度表示制御部22に送信する。 Furthermore, the parking frame recognizing device 33 is based on the amount of movement of the own vehicle obtained from a vehicle speed sensor (not shown) and the traveling direction based on the steering angle obtained from a steering angle sensor (not shown). , including not only the parking candidate positions contained in the current image but also the parking candidate positions detected in the past), corrects the position information for the own vehicle and stores it in its own memory. Therefore, the memory in the parking frame recognition device 33 stores the latest corrected parking candidate position information including past detection information. The parking frame recognition device 33 transmits the latest parking candidate position information to the display control unit 22 each time.

表示制御部22は、駐車枠認識装置33から受信した駐車候補位置情報を記憶部23に記憶させる。 The display control unit 22 causes the storage unit 23 to store the parking candidate position information received from the parking frame recognition device 33 .

重畳部22cは、記憶部23に記憶された駐車候補位置情報に基づき、俯瞰画像やカメラ映像等の表示装置31に表示する画像に駐車候補位置を重畳表示する。例えば、表示装置31に表示する画像に駐車候補位置を特定色の枠で重畳表示する等すればよい。この駐車候補位置が重畳表示された画像を基に、ユーザは駐車したい駐車スペースを表示装置31の画面上でタッチして操作装置32(タッチパネル)を操作する。 Based on the parking candidate position information stored in the storage unit 23, the superimposing unit 22c superimposes the parking candidate position on an image displayed on the display device 31, such as a bird's-eye view image or a camera image. For example, the parking candidate position may be superimposed on the image displayed on the display device 31 with a frame of a specific color. The user touches the desired parking space on the screen of the display device 31 to operate the operation device 32 (touch panel) based on the image on which the parking candidate positions are superimposed.

駐車位置選択部24は、ユーザのタッチ位置から駐車候補位置を選択し、選択された駐車候補位置を駐車枠認識装置33に送信する。 The parking position selection unit 24 selects a parking candidate position from the user's touch position, and transmits the selected parking candidate position to the parking frame recognition device 33 .

駐車枠認識装置33は、駐車位置選択部24から受信した駐車候補位置を目標駐車位置として決定する。 The parking frame recognition device 33 determines the parking candidate position received from the parking position selection unit 24 as the target parking position.

<2.表示画像の第1例>
図4は、過去画像を含む表示画像の一例である。図4に示す表示画像は、バックカメラ12によって撮影された現在画像F1と、過去画像である俯瞰画像F2(以下、過去俯瞰画像という)と、を含む。図4に示す表示画像が現在画像F1を含むことによって、現在の自車両周辺の状況を表示画像で確認することができる。
<2. First example of display image>
FIG. 4 is an example of a display image including past images. The display image shown in FIG. 4 includes a current image F1 captured by the back camera 12 and a bird's-eye view image F2 that is a past image (hereinafter referred to as a past bird's-eye view image). Since the display image shown in FIG. 4 includes the current image F1, it is possible to confirm the current situation around the vehicle with the display image.

過去俯瞰画像F2には、自車両の現在位置に自車両を表す像CV1が重畳されている。これにより、現在位置と過去画像に対応する撮影画像が撮影された位置との位置関係をユーザが容易に把握できる過去画像を提供することができる。また、現在画像である俯瞰画像(以下、現在俯瞰画像という)から徐々に過去に遡って過去画像を動的に変化させ、最終的に過去俯瞰画像F2に至るようにしてもよく、過去画像を表示する際に直ちに過去俯瞰画像F2を表示するようにしてよい。なお、現在俯瞰画像から徐々に過去に遡って過去画像を動的に変化させ、最終的に過去俯瞰画像F2に至るようにする場合、現在の自車両位置に基づく表示の視点の撮影画像の表示から、記憶部23に記憶された過去画像を用いて自車両が過去に通過した範囲を含む方向に視点を遷移させた撮影画像を表示するとともに、当該遷移中おいて現在の自車両位置を示す表示を継続することになる。また、上記の遷移は、例えば、操作装置32に対するユーザのスクロール操作に応じて視点移動すればよい。また、上記の遷移中の過去画像表示おいて、例えば、重畳部23cが、駐車候補位置を重畳表示すればよい。 An image CV1 representing the vehicle is superimposed on the current position of the vehicle on the past bird's-eye view image F2. Thus, it is possible to provide a past image that allows the user to easily grasp the positional relationship between the current position and the position where the photographed image corresponding to the past image was taken. Alternatively, a past image may be dynamically changed by gradually going back from a bird's-eye view image that is a current image (hereinafter referred to as a current bird's-eye view image) to finally reach a past bird's-eye view image F2. The past bird's-eye view image F2 may be displayed immediately upon display. In the case of dynamically changing the past image from the current bird's-eye view image gradually going back to the past and finally reaching the past bird's-eye view image F2, the captured image of the display viewpoint based on the current position of the vehicle is displayed. , displays a photographed image in which the viewpoint is shifted in a direction including the range through which the vehicle has passed in the past using the past image stored in the storage unit 23, and shows the current position of the vehicle during the transition. Display will continue. Further, the above transition may be performed by moving the viewpoint according to the user's scrolling operation on the operation device 32, for example. Moreover, in the past image display during the transition, for example, the superimposing unit 23c may superimpose and display the parking candidate position.

また、過去俯瞰画像F2には、過去俯瞰画像F2に対応する撮影画像が撮影された位置に自車両を表す像PV1が重畳されている。これにより、現在位置と過去画像に対応する撮影画像が撮影された位置との位置関係をユーザがより一層容易に把握できる過去画像を提供することができる。 Further, on the past bird's-eye view image F2, an image PV1 representing the own vehicle is superimposed at the position where the photographed image corresponding to the past bird's-eye view image F2 was taken. Thus, it is possible to provide a past image that allows the user to more easily grasp the positional relationship between the current position and the position where the photographed image corresponding to the past image was taken.

なお、図4に示すように、自車両の現在位置に重畳される自車両を表す像CV1と、過去俯瞰画像F2に対応する撮影画像が撮影された位置に重畳される自車両を表す像PV1とを異なる表示態様にすることで、自車両を表す像CV1と自車両を表す像PV1との識別が容易になる。 Note that, as shown in FIG. 4, an image CV1 representing the own vehicle superimposed on the current position of the own vehicle, and an image PV1 representing the own vehicle superimposed on the position where the photographed image corresponding to the previous bird's-eye view image F2 was photographed. are displayed in different modes, it becomes easier to distinguish between the image CV1 representing the own vehicle and the image PV1 representing the own vehicle.

また、画像加工処理部22dが、図5に示すように、過去俯瞰画像F2に対して例えば透過青色(図5では透過青色をドット柄で表現している)でマスクを行ってもよい。過去画像では現在の状況と不一致が生じることがあり得るが、過去画像であることを明確にしておくことで現在の状況との不一致に対する納得感を高めることができる。 Further, as shown in FIG. 5, the image processing unit 22d may mask the past bird's-eye view image F2 with, for example, transparent blue (in FIG. 5, transparent blue is represented by a dot pattern). Although the past image may be inconsistent with the current situation, making it clear that the image is the past image can increase the satisfaction of the inconsistency with the current situation.

駐車位置候補の選択は、過去俯瞰画像F2内のみで行えるようにしてもよく、現在画像F1内と過去俯瞰画像F2内との両方で行えるようにしてもよい。過去俯瞰画像F2内のみで行えるようにした場合、駐車位置候補の選択操作が容易になる。また、現在画像F1内と過去俯瞰画像F2内との両方で行えるようにした場合、駐車位置候補の選択肢が広がる。 Selection of parking position candidates may be performed only within the past bird's-eye view image F2, or may be performed both within the current image F1 and within the past bird's-eye view image F2. If the operation can be performed only within the past bird's-eye view image F2, the selection operation of the parking position candidate is facilitated. In addition, if it can be performed in both the current image F1 and the past bird's-eye view image F2, options for parking position candidates are expanded.

<3.表示画像の第2例>
図6は、過去画像を含む表示画像の一例である。図6に示す表示画像は、過去画像であって視点位置を標準的な運転者の目の位置とし、視野方向を自車両の前方にして自車両の車体部分を透過させた視点変換画像F3と、現在俯瞰画像F4と、を含む。図6に示す表示画像が現在俯瞰画像F4を含むことによって、現在の自車両周辺の状況を表示画像で確認することができる。
<3. Second example of display image>
FIG. 6 is an example of a display image including past images. The display image shown in FIG. 6 is a past image, and is a viewpoint conversion image F3 obtained by setting the viewpoint position to the standard position of the eyes of the driver, setting the viewing direction to the front of the vehicle, and transmitting the vehicle body portion of the vehicle. , and the current overhead image F4. Since the display image shown in FIG. 6 includes the current bird's-eye view image F4, it is possible to confirm the current situation around the vehicle in the display image.

過去画像である視点変換画像F3(以下、過去視点変換画像という)には、自車両の現在位置に自車両を表す像CV1が重畳されている。これにより、現在位置と過去画像に対応する撮影画像が撮影された位置との位置関係をユーザが容易に把握できる過去画像を提供することができる。 An image CV1 representing the vehicle is superimposed on the current position of the vehicle on the viewpoint-transformed image F3 (hereinafter referred to as the past-viewpoint-transformed image), which is a past image. Thus, it is possible to provide a past image that allows the user to easily grasp the positional relationship between the current position and the position where the photographed image corresponding to the past image was taken.

視点位置を標準的な運転者の目の位置とし、視野方向を自車両の前方にした過去視点変換画像F3は、フロントカメラ11で撮影された撮影画像と類似の画像である。自車両の現在位置に自車両を表す像CV1を重畳し、現在画像から徐々に過去に遡って過去画像を動的に変化させ、自車両を表す像を自車であると認識しやすくして過去映像との位置関係を把握し易くする場合、自車両の現在位置に自車両を表す像CV1の内部を通過するような過去画像が生成されることになる。しかしながら、フロントカメラ11で撮影された撮影画像を用いた場合、自車両の現在位置に自車両を表す像CV1の内部を通過するような過去画像が滑らかな映像にならない。このため、視点位置を標準的な運転者の目の位置とし、視野方向を自車両の前方にした過去視点変換画像F3を用いることが望ましい。 The past-viewpoint-converted image F<b>3 is similar to the captured image captured by the front camera 11 , with the viewpoint position set to the standard eye position of the driver and the visual field direction set to the front of the vehicle. An image CV1 representing the own vehicle is superimposed on the current position of the own vehicle, and the past image is dynamically changed by gradually going back from the current image to make it easier to recognize the image representing the own vehicle as the own vehicle. To make it easier to grasp the positional relationship with the past image, a past image is generated in which the current position of the own vehicle passes through the image CV1 representing the own vehicle. However, when the captured image captured by the front camera 11 is used, the past image passing through the image CV1 representing the vehicle at the current position of the vehicle does not become a smooth image. For this reason, it is desirable to use the past viewpoint conversion image F3 in which the viewpoint position is the standard eye position of the driver and the viewing direction is the front of the vehicle.

また、画像加工処理部22dが、図7に示すように、過去視点変換画像F3に対して例えば透過青色(図7では透過青色をドット柄で表現している)でマスクを行ってもよい。過去画像では現在の状況と不一致が生じることがあり得るが、過去画像であることを明確にしておくことで現在の状況との不一致に対する納得感を高めることができる。 Further, as shown in FIG. 7, the image processing unit 22d may mask the past-viewpoint-converted image F3 with, for example, transparent blue (transparent blue is represented by a dot pattern in FIG. 7). Although the past image may be inconsistent with the current situation, making it clear that the image is the past image can increase the satisfaction of the inconsistency with the current situation.

駐車位置候補の選択は、過去視点変換画像F3内のみで行えるようにしてもよく、現在画像F4内と過去視点変換画像F3内との両方で行えるようにしてもよい。過去視点変換画像F3内のみで行えるようにした場合、駐車位置候補の選択操作が容易になる。また、現在画像F4内と過去視点変換画像F3内との両方で行えるようにした場合、駐車位置候補の選択肢が広がる。 The parking position candidate may be selected only within the past-viewpoint-converted image F3, or may be performed both within the current image F4 and the past-viewpoint-converted image F3. If the operation can be performed only within the past-viewpoint-converted image F3, the selection operation of the parking position candidate becomes easier. In addition, if it is possible to perform the operation in both the current image F4 and the past viewpoint converted image F3, options for parking position candidates are expanded.

<4.その他>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。また、本明細書中に示される複数の変形例は可能な範囲で組み合わせて実施されてよい。
<4. Others>
Various modifications can be made to the various technical features disclosed in this specification without departing from the gist of the technical creation in addition to the above-described embodiments. In addition, multiple modifications shown in this specification may be combined to the extent possible.

上述した実施形態では、過去画像は俯瞰画像であったが、過去画像は撮影画像であってもよい。 In the above-described embodiment, the past image was a bird's-eye view image, but the past image may be a photographed image.

また、過去画像である俯瞰画像と現在画像である俯瞰画像とを合成して1つの俯瞰画像を生成してもよい。 Alternatively, a bird's-eye view image that is a past image and a bird's-eye view image that is a current image may be synthesized to generate one bird's-eye view image.

また、仮想視点画像の視点位置を変更することによって、過去画像での表示領域を変更してもよい。 Also, the display area in the past image may be changed by changing the viewpoint position of the virtual viewpoint image.

また、過去画像であること示す画像加工は透過有色のマスク以外であってもよく、例えば過去に遡っている時間を過去画像内に重畳してもよい。 Further, the image processing indicating that it is a past image may be performed by using a mask other than a transparent colored mask, and for example, a past time may be superimposed on the past image.

21 カメラ画像取得部
22 表示制御部
22a 俯瞰画像生成部
22b 自車両像生成部
22c 重畳部
22d 画像加工処理部
23 記憶部
24 駐車位置選択部
201 情報提供装置
21 camera image acquisition unit 22 display control unit 22a overhead image generation unit 22b own vehicle image generation unit 22c superimposition unit 22d image processing unit 23 storage unit 24 parking position selection unit 201 information providing device

Claims (5)

自車両の周辺を撮影するカメラで得られた撮影画像を取得する取得部と、
前記撮影画像及び前記撮影画像に基づく視点変換画像の少なくとも一方を記憶する記憶部と、
前記自車両を表す像を生成する生成部と、
前記撮影画像及び前記視点変換画像の少なくとも一方の過去画像における前記自車両の現在位置に前記自車両を表す像を重畳する重畳部と、
過去に撮影された画像であることをユーザに視認させるための画像加工処理として、透過有色のマスクを行うか、若しくは過去に遡っている時間を重畳する画像加工処理を前記過去画像に施す画像加工処理部と、を備える、情報提供装置。
an acquisition unit that acquires a photographed image obtained by a camera that photographs the surroundings of the own vehicle;
a storage unit that stores at least one of the captured image and a viewpoint-converted image based on the captured image;
a generation unit that generates an image representing the own vehicle;
a superimposing unit that superimposes an image representing the own vehicle on a current position of the own vehicle in at least one of the captured image and the viewpoint converted image;
As an image processing process for allowing the user to visually recognize that the image was taken in the past, image processing is performed on the past image by applying a transparent colored mask or superimposing an image that goes back in time. An information providing device, comprising: a processing unit;
前記撮影画像又は前記視点変換画像のいずれかの過去画像と、前記撮影画像又は前記視点変換画像のいずれかの現在画像と、を表示画像として出力する、請求項1に記載の情報提供装置。 2. The information providing apparatus according to claim 1, wherein a past image, which is either the captured image or the viewpoint-transformed image, and a current image, which is the captured image or the viewpoint-transformed image, are output as display images. 前記重畳部は、前記視点変換画像の過去画像における前記過去画像に対応する前記撮影画像が撮影された前記自車両の位置に前記自車両を表す像を重畳する、請求項1又は2に記載の情報提供装置。 3. The superimposing unit according to claim 1, wherein the superimposing unit superimposes an image representing the own vehicle on a position of the own vehicle at which the photographed image corresponding to the past image in the past image of the viewpoint converted image was taken. Information provider. 前記過去画像における前記自車両の現在位置に重畳する前記自車両を表す像と、前記視点変換画像の過去画像における前記過去画像に対応する前記撮影画像が撮影された前記自車両の位置に重畳する前記自車両を表す像と、を異なる表示態様にする、請求項に記載の情報提供装置。 An image representing the own vehicle superimposed on the current position of the own vehicle in the past image, and an image representing the own vehicle superimposed on the position of the own vehicle at which the photographed image corresponding to the past image in the past image of the viewpoint conversion image was photographed. 4. The information providing apparatus according to claim 3 , wherein the image representing the own vehicle is displayed in a different manner. 自車両の周辺を撮影するカメラで得られた撮影画像を取得する取得工程と、
前記撮影画像及び前記撮影画像に基づく視点変換画像の少なくとも一方を記憶する記憶工程と、
前記自車両を表す像を生成する生成工程と、
前記撮影画像及び前記視点変換画像の少なくとも一方の過去画像における前記自車両の現在位置に前記自車両を表す像を重畳する重畳工程と、
過去に撮影された画像であることをユーザに視認させるための画像加工処理として、透過有色のマスクを行うか、若しくは過去に遡っている時間を重畳する画像加工処理を前記過去画像に施す画像加工処理工程と、を備える、情報提供方法。
an acquisition step of acquiring a photographed image obtained by a camera that photographs the surroundings of the own vehicle;
a storage step of storing at least one of the captured image and a viewpoint-converted image based on the captured image;
a generating step of generating an image representing the own vehicle;
a superimposing step of superimposing an image representing the own vehicle on the current position of the own vehicle in at least one of the captured image and the viewpoint converted image;
As an image processing process for allowing the user to visually recognize that the image was taken in the past, image processing is performed on the past image by applying a transparent colored mask or superimposing an image that goes back in time. A method of providing information, comprising: a processing step;
JP2018048882A 2018-03-16 2018-03-16 Information providing device and information providing method Active JP7217090B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018048882A JP7217090B2 (en) 2018-03-16 2018-03-16 Information providing device and information providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018048882A JP7217090B2 (en) 2018-03-16 2018-03-16 Information providing device and information providing method

Publications (2)

Publication Number Publication Date
JP2019160118A JP2019160118A (en) 2019-09-19
JP7217090B2 true JP7217090B2 (en) 2023-02-02

Family

ID=67994833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018048882A Active JP7217090B2 (en) 2018-03-16 2018-03-16 Information providing device and information providing method

Country Status (1)

Country Link
JP (1) JP7217090B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7425622B2 (en) * 2020-02-17 2024-01-31 フォルシアクラリオン・エレクトロニクス株式会社 parking assist device
JPWO2022249318A1 (en) * 2021-05-26 2022-12-01

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003252151A (en) 2002-03-06 2003-09-10 Auto Network Gijutsu Kenkyusho:Kk Parking support system
JP2006327498A (en) 2005-05-27 2006-12-07 Aisin Aw Co Ltd Parking support method and parking support device
JP2007183877A (en) 2006-01-10 2007-07-19 Nissan Motor Co Ltd Driving support device for vehicle and display method for bird's-eye video
JP2009171129A (en) 2008-01-15 2009-07-30 Nissan Motor Co Ltd Parking support device for vehicle and image display method
JP2016021653A (en) 2014-07-14 2016-02-04 アイシン精機株式会社 Periphery monitoring device and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003252151A (en) 2002-03-06 2003-09-10 Auto Network Gijutsu Kenkyusho:Kk Parking support system
JP2006327498A (en) 2005-05-27 2006-12-07 Aisin Aw Co Ltd Parking support method and parking support device
JP2007183877A (en) 2006-01-10 2007-07-19 Nissan Motor Co Ltd Driving support device for vehicle and display method for bird's-eye video
JP2009171129A (en) 2008-01-15 2009-07-30 Nissan Motor Co Ltd Parking support device for vehicle and image display method
JP2016021653A (en) 2014-07-14 2016-02-04 アイシン精機株式会社 Periphery monitoring device and program

Also Published As

Publication number Publication date
JP2019160118A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
JP6148887B2 (en) Image processing apparatus, image processing method, and image processing system
JP5251947B2 (en) Image display device for vehicle
JP6413207B2 (en) Vehicle display device
JP5300443B2 (en) Image processing device
JP6512016B2 (en) Vehicle display device
JP5549235B2 (en) Driving assistance device
WO2005084027A1 (en) Image generation device, image generation program, and image generation method
JP2007183877A (en) Driving support device for vehicle and display method for bird&#39;s-eye video
JPWO2011043006A1 (en) Control device and vehicle surrounding monitoring device
JP7523196B2 (en) Peripheral image display device
US11601621B2 (en) Vehicular display system
JP2009105660A (en) On-vehicle imaging apparatus
JP2008279875A (en) Parking support device
JP4855884B2 (en) Vehicle periphery monitoring device
JP2009171129A (en) Parking support device for vehicle and image display method
JP7217090B2 (en) Information providing device and information providing method
JP2010257242A (en) Image data generation device
JP2017111739A (en) Driving support apparatus and driving support method
JP2008148114A (en) Drive assisting device
JP5273068B2 (en) Vehicle periphery monitoring device
JP2005269010A (en) Image creating device, program and method
KR20180094717A (en) Driving assistance apparatus using avm
WO2018030320A1 (en) Vehicle display device
JP4379148B2 (en) Rear confirmation device
US11938863B2 (en) Peripheral image generation device and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210303

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R150 Certificate of patent or registration of utility model

Ref document number: 7217090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150