JP2020024487A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2020024487A
JP2020024487A JP2018147437A JP2018147437A JP2020024487A JP 2020024487 A JP2020024487 A JP 2020024487A JP 2018147437 A JP2018147437 A JP 2018147437A JP 2018147437 A JP2018147437 A JP 2018147437A JP 2020024487 A JP2020024487 A JP 2020024487A
Authority
JP
Japan
Prior art keywords
image
vehicle
display image
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018147437A
Other languages
Japanese (ja)
Other versions
JP7209442B2 (en
Inventor
大輔 縣
Daisuke Agata
大輔 縣
加江 長福
Kae Chofuku
加江 長福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018147437A priority Critical patent/JP7209442B2/en
Publication of JP2020024487A publication Critical patent/JP2020024487A/en
Application granted granted Critical
Publication of JP7209442B2 publication Critical patent/JP7209442B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing technique that enables a user to grasp easily whether an own vehicle can pass through in advance when the vehicle is to pass through a place with obstacles.SOLUTION: An image processing apparatus includes a photographing image acquisition unit and display image generation unit. The photographing image acquisition unit acquires a photographed image obtained by a camera photographing the periphery of the own vehicle. The display image generation unit generates a display image by overlapping an image of a virtual vehicle representing the own vehicle on a translated image in which the photographing image or a converted image converted from the photographing image. In addition, the display image generation unit can move at least one of the photographing image, the converted image, or an image of the virtual vehicle as a moving target to an area of the display image, and adjusts a scale rate of the moving target according to the movement.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理技術に関する。   The present invention relates to an image processing technique.

自車両の前方に存在する障害物をセンサで検出し、自車両とセンサで検出された障害物との衝突可能性が所定レベルより大きいときに警報を発する運転支援システムが特許文献1で開示されている。   Patent Document 1 discloses a driving support system that detects an obstacle existing in front of a host vehicle by a sensor and issues an alarm when the possibility of collision between the host vehicle and the obstacle detected by the sensor is greater than a predetermined level. ing.

特開2004−145725号公報JP-A-2004-145725

特許文献1では、衝突可能性の例示として、自車両と障害物との間の距離を自車両と障害物との相対速度で割って求まる時間に応じた値が挙げられている。そのため、例えば自車両が細い道で対向車両とのすれ違い走行を行う場合、特許文献1で開示されている運転支援システムは、すれ違い走行の可否にかかわらず警報を発すると考えられる。すなわち、特許文献1で開示されている運転支援システムは、障害物が存在する場所を自車両が通過しようとするときに役立つ情報をユーザに提供できるシステムではない。   In Patent Document 1, as an example of the possibility of collision, a value corresponding to a time obtained by dividing the distance between the host vehicle and the obstacle by the relative speed between the host vehicle and the obstacle is given. Therefore, for example, when the own vehicle travels on a narrow road by passing with an oncoming vehicle, the driving support system disclosed in Patent Literature 1 is considered to issue an alarm regardless of whether the vehicle can pass. That is, the driving support system disclosed in Patent Literature 1 is not a system that can provide a user with useful information when the own vehicle attempts to pass a place where an obstacle exists.

本発明は、上記課題に鑑みて、障害物が存在する場所を自車両が通過しようとするときに、事前に通過可能かをユーザが容易に把握できる画像処理技術を提供することを目的とする。   The present invention has been made in view of the above circumstances, and has as its object to provide an image processing technique that allows a user to easily understand in advance whether a vehicle can pass through a place where an obstacle exists, in advance. .

本発明に係る画像処理装置は、自車両の周辺を撮影するカメラで得られた撮影画像を取得する撮影画像取得部と、前記撮影画像又は前記撮影画像を変換した変換画像に前記自車両を表す仮想車両の像を重畳して表示画像を生成する表示画像生成部と、を備え、前記表示画像生成部は、前記撮影画像又は前記変換画像と前記仮想車両の像との少なくも一方を移動対象として前記表示画像の領域に対して移動させることができ、前記移動対象の拡大縮小率を前記移動に応じて調整する構成(第1の構成)である。   An image processing device according to the present invention represents a photographed image acquisition unit that acquires a photographed image obtained by a camera that photographs the periphery of the vehicle, and represents the vehicle in the captured image or a converted image obtained by converting the captured image. A display image generation unit configured to generate a display image by superimposing an image of the virtual vehicle, wherein the display image generation unit moves at least one of the captured image or the converted image and the image of the virtual vehicle. The first configuration is a configuration that can be moved with respect to the area of the display image and that adjusts the enlargement / reduction ratio of the movement target according to the movement.

上記第1の構成の画像処理装置において、前記表示画像生成部は、ユーザ操作を受け付ける操作部の出力に基づき前記移動対象を移動させる構成(第2の構成)であってもよい。   In the image processing device having the first configuration, the display image generation unit may be configured to move the movement target based on an output of an operation unit that receives a user operation (a second configuration).

上記第1の構成の画像処理装置において、前記表示画像生成部は、前記自車両の予想進路に関する情報を取得し、前記予想進路に基づき前記移動対象を移動させる構成(第3の構成)であってもよい。   In the image processing device according to the first configuration, the display image generation unit acquires information on an expected course of the host vehicle and moves the moving target based on the estimated course (third configuration). You may.

上記第1〜第3いずれかの構成の画像処理装置において、前記表示画像において障害物が存在する領域を推定する推定部と、前記推定部によって推定された前記領域と前記仮想車両の像との位置関係に基づき警報信号を出力する警報部と、をさらに備える構成(第4の構成)であってもよい。   In the image processing device according to any one of the first to third configurations, an estimating unit that estimates an area where an obstacle exists in the display image, and an image of the virtual vehicle and the area estimated by the estimating unit. And a warning unit that outputs a warning signal based on the positional relationship (fourth structure).

上記第1〜第4いずれかの構成の画像処理装置において、前記表示画像生成部は、前記変換画像に前記仮想車両の像を重畳して前記表示画像を生成し、前記変換画像は、仮想視点からみた仮想視点画像である構成(第5の構成)であってもよい。   In the image processing device according to any one of the first to fourth configurations, the display image generation unit generates the display image by superimposing an image of the virtual vehicle on the conversion image, and the conversion image includes a virtual viewpoint. A configuration that is a virtual viewpoint image viewed from the viewpoint (fifth configuration) may be used.

上記第5の構成の画像処理装置において、前記仮想視点の視点位置が前記自車両の略真上であり、前記仮想視点の視線方向が前記自車両の略真下である場合、前記表示画像生成部は、前記移動対象の拡大縮小を行わない構成(第6の構成)であってもよい。   In the image processing apparatus having the fifth configuration, the display image generation unit may be configured such that when a viewpoint position of the virtual viewpoint is substantially directly above the own vehicle and a line of sight of the virtual viewpoint is substantially directly below the own vehicle. May be a configuration (sixth configuration) in which the movement target is not enlarged or reduced.

本発明に係る画像処理方法は、自車両の周辺を撮影するカメラで得られた撮影画像を取得する撮影画像取得工程と、前記撮影画像又は前記撮影画像を変換した変換画像に前記自車両を表す仮想車両の像を重畳して表示画像を生成する表示画像生成工程と、を備え、前記表示画像生成工程は、前記撮影画像又は前記変換画像と前記仮想車両の像との少なくも一方を移動対象として前記表示画像の領域に対して移動させたときに前記移動対象の拡大縮小率を前記移動に応じて調整する調整工程を含む構成(第7の構成)である。   An image processing method according to the present invention includes a photographed image acquiring step of acquiring a photographed image obtained by a camera photographing the periphery of the vehicle, and representing the vehicle in the photographed image or a converted image obtained by converting the photographed image. A display image generating step of generating a display image by superimposing an image of the virtual vehicle, wherein the display image generating step includes moving at least one of the captured image or the converted image and the image of the virtual vehicle. (7th configuration) including an adjustment step of adjusting the enlargement / reduction ratio of the movement target according to the movement when the movement target is moved with respect to the area of the display image.

本発明によると、障害物が存在する場所を自車両が通過しようとするときに、事前に通過可能かをユーザが容易に把握できる。   ADVANTAGE OF THE INVENTION According to this invention, when an own vehicle tries to pass through the place where an obstacle exists, a user can easily grasp in advance whether it is possible to pass.

第1実施形態に係る画像処理装置の構成を示す図FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to a first embodiment. フロントカメラが車両に配置される位置を例示する図Diagram exemplifying a position where a front camera is arranged in a vehicle 第1実施形態に係る画像処理装置の動作例を示すフローチャート4 is a flowchart illustrating an operation example of the image processing apparatus according to the first embodiment. 表示画像の一例を示す図Diagram showing an example of a display image 表示画像の一例を示す図Diagram showing an example of a display image 表示画像の一例を示す図Diagram showing an example of a display image 第2実施形態に係る画像処理装置の構成を示す図FIG. 2 is a diagram illustrating a configuration of an image processing apparatus according to a second embodiment. 第3実施形態に係る画像処理装置の構成を示す図FIG. 3 is a diagram illustrating a configuration of an image processing apparatus according to a third embodiment. 第3実施形態に係る画像処理装置の動作例を示すフローチャート9 is a flowchart illustrating an operation example of the image processing apparatus according to the third embodiment. 第4実施形態に係る画像処理装置の構成を示す図FIG. 4 is a diagram illustrating a configuration of an image processing apparatus according to a fourth embodiment. 仮想投影面の例を示す図Diagram showing an example of a virtual projection plane 表示画像の一例を示す図Diagram showing an example of a display image 表示画像の一例を示す図Diagram showing an example of a display image 表示画像の一例を示す図Diagram showing an example of a display image

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.

<1.第1実施形態>
<1−1.第1実施形態に係る画像処理装置の構成>
図1は本実施形態に係る画像処理装置201の構成を示す図である。画像処理装置201は、例えば自動車などの車両に搭載されている。以下、画像処理装置201又は後述する他の実施形態に係る画像処理装置が搭載される車両を「自車両」という。また、自車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方」という。また、自車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方」という。
<1. First Embodiment>
<1-1. Configuration of Image Processing Apparatus According to First Embodiment>
FIG. 1 is a diagram illustrating a configuration of an image processing apparatus 201 according to the present embodiment. The image processing device 201 is mounted on a vehicle such as an automobile, for example. Hereinafter, a vehicle on which the image processing device 201 or an image processing device according to another embodiment described later is mounted is referred to as “own vehicle”. Further, the direction in which the host vehicle travels straight, and the direction from the driver's seat to the steering wheel is referred to as “forward”. The direction in which the host vehicle travels straight ahead, and the direction from the steering to the driver's seat is referred to as "rearward".

図1に示すフロントカメラ11、操作部12、画像処理装置201、及び表示装置31は自車両に搭載される。   The front camera 11, the operation unit 12, the image processing device 201, and the display device 31 shown in FIG. 1 are mounted on the own vehicle.

図2は、フロントカメラ11が自車両V1に配置される位置を例示する図である。   FIG. 2 is a diagram exemplifying a position where the front camera 11 is arranged on the host vehicle V1.

フロントカメラ11は自車両V1の前端に設けられる。フロントカメラ11の光軸11aは上からの平面視で自車両V1の前後方向に沿っている。フロントカメラ11は自車両V1の前方向を撮影する。フロントカメラ11の取付位置は、自車両V1の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であってもよい。   The front camera 11 is provided at the front end of the host vehicle V1. The optical axis 11a of the front camera 11 extends in the front-rear direction of the vehicle V1 in plan view from above. The front camera 11 photographs the front direction of the own vehicle V1. The mounting position of the front camera 11 is preferably at the center in the left and right direction of the host vehicle V1, but may be a position slightly shifted in the left and right direction from the center in the left and right direction.

本実施形態では、フロントカメラ11の水平方向の画角θは180度以上である。しかしながら、フロントカメラ11の水平方向の画角θは180度未満であってもよい。また、本実施形態とは異なり、フロントカメラ11を自車両V1の車室内に設けてもよい。   In the present embodiment, the horizontal view angle θ of the front camera 11 is 180 degrees or more. However, the horizontal angle of view θ of the front camera 11 may be less than 180 degrees. Further, different from the present embodiment, the front camera 11 may be provided in the cabin of the host vehicle V1.

図1に戻って、フロントカメラ11は、撮影画像を画像処理装置201に出力する。   Returning to FIG. 1, the front camera 11 outputs a captured image to the image processing device 201.

操作部12は、ユーザ操作を受け付け、ユーザ操作の内容に応じた操作信号を出力する。操作部12としては、例えば表示装置31の表示画面上に設けられるタッチパネル、方向キー及び決定キーを含むキー群などを挙げることができる。本実施形態では、操作部12は、撮影画像又はCGを移動対象として表示画像の領域に対して移動させるためのユーザ操作を受け付ける。   The operation unit 12 receives a user operation and outputs an operation signal according to the content of the user operation. The operation unit 12 includes, for example, a touch panel provided on a display screen of the display device 31, a key group including a direction key and an enter key, and the like. In the present embodiment, the operation unit 12 accepts a user operation for moving a captured image or CG as a movement target with respect to an area of a display image.

画像処理装置201は、フロントカメラ11から出力される撮影画像を処理し、処理後の画像を表示装置31に出力する。   The image processing device 201 processes the captured image output from the front camera 11 and outputs the processed image to the display device 31.

表示装置31は、自車両のドライバーが表示装置31の表示画面を視認できる位置に設けられ、画像処理装置201から出力される画像を表示する。表示装置31としては、例えばセンターコンソールに設置されるディスプレイ、運転席の対向位置に設置されるメータディスプレイ、フロントガラスに画像を投影するヘッドアップディスプレイなどを挙げることができる。   The display device 31 is provided at a position where the driver of the vehicle can visually recognize the display screen of the display device 31 and displays an image output from the image processing device 201. Examples of the display device 31 include a display installed at a center console, a meter display installed at a position facing a driver's seat, and a head-up display that projects an image on a windshield.

画像処理装置201は、ASIC(application specific integrated circuit)やFPGA(field-programmable gate array)等のハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて画像処理装置201を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、当該プログラムをプログラム実行装置上で実行することによって、その機能を実現するようにしてもよい。プログラム実行装置としては、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えるコンピュータを挙げることができる。   The image processing device 201 can be configured by hardware such as an ASIC (application specific integrated circuit) or an FPGA (field-programmable gate array), or a combination of hardware and software. When the image processing apparatus 201 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. A function realized by using software may be described as a program, and the function may be realized by executing the program on a program execution device. Examples of the program execution device include a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory).

画像処理装置201は、撮影画像取得部21と、表示画像生成部22と、を備える。   The image processing device 201 includes a captured image acquisition unit 21 and a display image generation unit 22.

撮影画像取得部21は、フロントカメラ11からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。そして、取得した撮影画像がアナログの場合には、撮影画像取得部21は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。撮影画像取得部21は、取得した撮影画像、或いは、取得及び変換した撮影画像を、表示画像生成部22に出力する。   The photographed image acquiring unit 21 continuously and temporally acquires an analog or digital photographed image from the front camera 11 at a predetermined cycle (for example, a 1/30 second cycle). If the acquired captured image is analog, the captured image acquisition unit 21 converts the analog captured image into a digital captured image (A / D conversion). The captured image acquisition unit 21 outputs the acquired captured image or the acquired and converted captured image to the display image generation unit 22.

画像生成部22は、CG(Computer Graphics)生成部22aと、移動量決定部22b、拡大縮小率調整部22cと、重畳部22dと、を備える。   The image generation unit 22 includes a CG (Computer Graphics) generation unit 22a, a movement amount determination unit 22b, an enlargement / reduction ratio adjustment unit 22c, and a superimposition unit 22d.

CG生成部22aは、自車両を表す仮想車両の背面画像CGを生成する。なお、本実施形態では、自車両を表す仮想車両の像としてCGを用いるが、CGの代わりに自車両の撮影画像を用いてもよい。   The CG generation unit 22a generates a back image CG of the virtual vehicle representing the own vehicle. In the present embodiment, CG is used as an image of the virtual vehicle representing the own vehicle, but a captured image of the own vehicle may be used instead of CG.

移動量決定部22bは、操作部12から出力される操作信号に基づき移動対象の移動量を決定する。   The movement amount determination unit 22b determines the movement amount of the movement target based on the operation signal output from the operation unit 12.

拡大縮小率調整部22cは、移動対象の拡大縮小率を移動対象の移動量に応じて調整する。   The enlargement / reduction ratio adjustment unit 22c adjusts the enlargement / reduction ratio of the moving object according to the moving amount of the moving object.

重畳部22dは、撮影画像取得部21から出力される撮影画像に、CG生成部22aによって生成されたCGを重畳して表示画像を生成する。   The superimposition unit 22d generates a display image by superimposing the CG generated by the CG generation unit 22a on the captured image output from the captured image acquisition unit 21.

<1−2.第1実施形態に係る画像処理装置の動作>
図3は、画像処理装置201の動作例を示すフローチャートである。
<1-2. Operation of Image Processing Apparatus According to First Embodiment>
FIG. 3 is a flowchart illustrating an operation example of the image processing apparatus 201.

操作部12により、車両CGの表示指示があると図3に示すフロー動作が開始される。重畳部22dは、撮影画像取得部21から出力される撮影画像に、CG生成部22aによって生成されたCGを初期位置で重畳して表示画像を生成する(ステップS10)。撮影画像取得部21から出力される撮影画像の初期位置は、例えば表示画像の領域の中心と撮影画像の領域の中心とが一致する位置にすればよい。CG生成部22aによって生成されたCGの初期位置は、例えば自車両から所定距離前方の位置にすればよい。なお、CG生成部22aによって生成されたCGの大きさは、撮影画像取得部21から出力される撮影画像の大きさ、CG生成部22aによって生成されたCGの初期位置に基づいて設定するとよい。   When there is a display instruction of the vehicle CG by the operation unit 12, the flow operation shown in FIG. 3 is started. The superimposition unit 22d generates a display image by superimposing the CG generated by the CG generation unit 22a on the captured image output from the captured image acquisition unit 21 at the initial position (Step S10). The initial position of the captured image output from the captured image acquisition unit 21 may be, for example, a position where the center of the region of the display image matches the center of the region of the captured image. The initial position of the CG generated by the CG generation unit 22a may be, for example, a position ahead of the own vehicle by a predetermined distance. Note that the size of the CG generated by the CG generation unit 22a may be set based on the size of the captured image output from the captured image acquisition unit 21 and the initial position of the CG generated by the CG generation unit 22a.

図4は、ステップS10において生成される表示画像の一例である。図4及び後述する他の表示画像において、符号1は表示画像の領域を示しており、符号2は自車両を表す仮想車両の背面画像CGを示している。   FIG. 4 is an example of the display image generated in step S10. In FIG. 4 and other display images to be described later, reference numeral 1 indicates a region of the display image, and reference numeral 2 indicates a back image CG of the virtual vehicle representing the own vehicle.

ステップS10に続くステップS20において、表示画像生成部22は、操作部12から出力される操作信号に基づき、移動対象の移動を指示する操作が有ったかを判定する。   In step S20 following step S10, the display image generation unit 22 determines whether or not an operation for instructing movement of the movement target has been performed based on the operation signal output from the operation unit 12.

例えば、操作部12がタッチパネルである場合、CG2がユーザの指で表示画像の領域1の下方から上方にドラッグされると、CG2を移動対象として移動を指示する操作が有ったと判定すればよい。また例えば、表示画像のCG2以外の部分がユーザの指で表示画像の領域1の上方から下方にドラッグされると、撮影画像を移動対象として移動を指示する操作が有ったと判定すればよい。   For example, when the operation unit 12 is a touch panel, when the CG 2 is dragged upward from below the region 1 of the display image with the user's finger, it may be determined that there is an operation of instructing movement with the CG 2 as a movement target. . Further, for example, when a part other than the CG 2 of the display image is dragged down from above the area 1 of the display image with the user's finger, it may be determined that an operation for instructing movement has been performed with the captured image as a movement target.

移動対象の移動を指示する操作がないと判定された場合(ステップS20のNO)、表示画像生成部22は、無操作期間が所定時間継続しているかを判定する(ステップS30)。無操作期間が所定時間継続していなければ(ステップS30のNO)、ステップS20に戻り、無操作期間が所定時間継続していれば(ステップS30のYES)、フロー動作を終了する。   When it is determined that there is no operation for instructing the movement of the movement target (NO in step S20), the display image generation unit 22 determines whether the no-operation period has continued for a predetermined time (step S30). If the no-operation period has not continued for the predetermined time (NO in step S30), the process returns to step S20, and if the no-operation period has continued for the predetermined time (YES in step S30), the flow operation ends.

一方、移動対象の移動を指示する操作が有ったと判定された場合(ステップS20のYES)、移動量決定部22bは、操作部12から出力される操作信号に基づき移動対象の移動量を決定し、拡大縮小率調整部22cは、移動対象の拡大縮小率を移動対象の移動量に応じて調整する(ステップS40)。なお、移動量は、移動距離と移動方向を含む。移動対象を表示画像の領域1に対して自車両の進行方向に移動させる場合、移動距離が長いほど移動対象を縮小し、移動対象を表示画像の領域1に対して自車両の進行方向の逆方向に移動させる場合、移動距離が長いほど移動対象を拡大すればよい。移動対象の縮小率又は拡大率は、移動対象の移動距離の他、フロントカメラ11の光軸11aの方向等に基づいて設定するとよい。   On the other hand, when it is determined that the operation for instructing the movement of the movement target has been performed (YES in step S20), the movement amount determination unit 22b determines the movement amount of the movement target based on the operation signal output from the operation unit 12. Then, the enlargement / reduction ratio adjustment unit 22c adjusts the enlargement / reduction ratio of the moving object according to the moving amount of the moving object (Step S40). The moving amount includes the moving distance and the moving direction. When the moving object is moved in the traveling direction of the own vehicle with respect to the area 1 of the display image, the moving object is reduced as the moving distance is longer, and the moving object is moved in the reverse direction of the moving direction of the own vehicle with respect to the area 1 of the display image. When moving in the direction, the moving target may be expanded as the moving distance is longer. The reduction ratio or the enlargement ratio of the moving target may be set based on the direction of the optical axis 11a of the front camera 11 in addition to the moving distance of the moving target.

ステップS40に続くステップS50において、重畳部22dは、移動対象を移動させ且つ移動対象の拡大縮小率を調整した状態で撮影画像にCG2を重畳し、その後ステップS20に戻る。   In step S50 following step S40, the superimposing unit 22d superimposes CG2 on the captured image in a state where the moving target has been moved and the enlargement / reduction ratio of the moving target has been adjusted, and then returns to step S20.

したがって、操作部12がタッチパネルである場合、CG2がユーザの指で表示画像の領域1の下方から上方にドラッグされると、CG2が移動に伴い徐々に小さくなる。図5に示す表示画像は、CG2のドラッグが完了した時点における表示画像の一例である。また、表示画像のCG2以外の部分がユーザの指で表示画像の領域1の上方から下方にドラッグされると、撮影画像が伴い徐々に大きくなる。図6に示す表示画像は、表示画像のCG2以外の部分のドラッグが完了した時点における表示画像の一例である。   Therefore, when the operation unit 12 is a touch panel, when the CG 2 is dragged upward from below the region 1 of the display image with the user's finger, the CG 2 gradually decreases as the user moves. The display image shown in FIG. 5 is an example of the display image at the time when the dragging of the CG 2 is completed. When a part other than the CG 2 of the display image is dragged from above to below the display image area 1 with the user's finger, the captured image is gradually enlarged. The display image shown in FIG. 6 is an example of the display image at the time when the drag of the portion other than CG2 of the display image is completed.

図5に示す表示画像又は図6に示す表示画像のように、移動対象を移動させてCG2と撮影画像中の障害物(例えばロードコーン)とを自車両の左右方向に沿って並べることで、障害物が存在する場所を自車両が通過しようとするときに、事前に通過可能かをユーザが表示画面を見て容易に把握できる。   Like the display image shown in FIG. 5 or the display image shown in FIG. 6, by moving the moving target, the CG 2 and obstacles (for example, road cones) in the captured image are arranged along the left-right direction of the vehicle. When the host vehicle attempts to pass through the place where the obstacle exists, the user can easily understand whether the vehicle can pass in advance by looking at the display screen.

また、ユーザ操作によって移動対象の移動量を変更することができるので、種々の条件で障害物が存在する場所を自車両が通過可能であるかをシミュレートすることができる。   Further, since the moving amount of the moving target can be changed by a user operation, it is possible to simulate whether or not the own vehicle can pass a place where an obstacle exists under various conditions.

なお、本実施形態では、撮影画像又はCGのいずれかを移動対象としているが、撮影画像及びCGの両方を移動対象としてもよい。例えば、操作部12がタッチパネルである場合、ユーザの親指がCG2に触れユーザの人差し指が表示画像のCG2以外の部分に触れている状態でピンチイン操作を行うことで、撮影画像及びCG2の両方を互いに逆方向で表示画像の領域1に対して移動させてもよい。   In the present embodiment, either the captured image or CG is set as the moving target, but both the captured image and CG may be set as the moving target. For example, when the operation unit 12 is a touch panel, the pinch-in operation is performed while the user's thumb is touching the CG2 and the user's index finger is touching a part other than the CG2 of the display image, so that both the captured image and the CG2 can be mutually connected. The display image may be moved in the reverse direction with respect to the area 1 of the display image.

<2.第2実施形態>
図7は本実施形態に係る画像処理装置202の構成を示す図である。画像処理装置202は、予想進路情報取得部23を備え、さらに表示画像生成部22が操作部12から出力される操作信号の代わりに予想進路情報取得部23の出力信号を用いて移動対象を移動させる点で画像処理装置201と異なっており、それ以外の点では画像処理装置201と基本的に同様である。
<2. Second Embodiment>
FIG. 7 is a diagram illustrating a configuration of the image processing apparatus 202 according to the present embodiment. The image processing device 202 includes a predicted route information acquisition unit 23, and further, the display image generation unit 22 moves the moving target using the output signal of the predicted route information acquisition unit 23 instead of the operation signal output from the operation unit 12. The image processing apparatus 201 is different from the image processing apparatus 201 in that it is different from the image processing apparatus 201.

予想進路情報取得部23は、自車両の車両制御ECU(Electronic Control Unit)などから自車両の舵角情報、車速情報などを取得し、その取得した情報に基づいて自車両の予想進路に関する情報を生成することで自車両の予想進路に関する情報を取得する。なお、予想進路情報取得部23は、自車両の車両制御ECUなどから自車両の予想進路に関する情報を取得してもよい。   The predicted course information acquisition unit 23 obtains steering angle information, vehicle speed information, and the like of the own vehicle from a vehicle control ECU (Electronic Control Unit) of the own vehicle and the like, and obtains information about the predicted course of the own vehicle based on the obtained information. By generating the information, information on the predicted course of the own vehicle is acquired. Note that the predicted route information acquisition unit 23 may obtain information on the predicted route of the vehicle from the vehicle control ECU of the vehicle.

予想進路情報取得部23は、取得した自車両の予想進路に関する情報を表示画像生成部22に出力する。表示画像生成部22は、自車両の予想進路の方向を仮想車両の背面画像CGの移動方向として利用する、又は、自車両の予想進路の逆方向を撮影画像の移動方向として利用する。   The predicted route information acquiring unit 23 outputs the acquired information on the predicted route of the own vehicle to the display image generating unit 22. The display image generation unit 22 uses the direction of the predicted course of the own vehicle as the moving direction of the back image CG of the virtual vehicle, or uses the reverse direction of the predicted course of the own vehicle as the moving direction of the captured image.

本実施形態に係る画像処理装置202によって生成される表示画像をユーザが確認することで、障害物が存在する場所を自車両が予想進路に沿って通過しようとするときに、事前に通過可能かをユーザが容易に把握できる。なお、本実施形態も第1実施形態と同様、操作部12からの車両CGの表示指示があると処理を行う。   When the user confirms the display image generated by the image processing device 202 according to the present embodiment, when the own vehicle attempts to pass the place where the obstacle exists along the expected path, it is possible to pass in advance. Can be easily grasped by the user. In the present embodiment, as in the first embodiment, processing is performed when there is an instruction to display the vehicle CG from the operation unit 12.

<3.第3実施形態>
図8は本実施形態に係る画像処理装置203の構成を示す図である。画像処理装置203は、推定部24及び警報部25を備える点で画像処理装置201と異なっており、それ以外の点では画像処理装置201と基本的に同様である。
<3. Third Embodiment>
FIG. 8 is a diagram illustrating a configuration of the image processing apparatus 203 according to the present embodiment. The image processing device 203 is different from the image processing device 201 in that the image processing device 203 includes an estimation unit 24 and an alarm unit 25, and is basically the same as the image processing device 201 in other points.

推定部24は、表示画像において障害物が存在する領域を推定する。推定部24は、フロントカメラ11の撮影画像に基づいて、自車両の前方に存在し得る障害物を検知する。障害物候補物体の検知には、公知の画像認識技術を用いる。例えば、移動物である障害物候補物体の検知には背景差分方式を用いることができ、静止物である障害物候補物体の検知には移動ステレオ方式を用いることができる。なお、本実施形態では、画像認識技術を用いて障害物を検知したが、画像認識技術に加えて、又は、画像認識技術の代わりに、例えば、自車両に搭載したレーダ装置から出力される情報、クラウドセンターとの通信、車車間通信、路車間通信などで得られる情報などを用いて障害物を検知してもよい。   The estimating unit 24 estimates an area where an obstacle exists in the display image. The estimating unit 24 detects an obstacle that may exist in front of the host vehicle based on the image captured by the front camera 11. A known image recognition technique is used for detecting the obstacle candidate object. For example, a background difference method can be used for detecting an obstacle candidate object that is a moving object, and a moving stereo method can be used for detecting an obstacle candidate object that is a stationary object. In the present embodiment, the obstacle is detected by using the image recognition technology. However, in addition to or instead of the image recognition technology, for example, information output from a radar device mounted on the own vehicle is used. An obstacle may be detected using information obtained by communication with a cloud center, inter-vehicle communication, road-to-vehicle communication, and the like.

警報部25は、推定部24によって推定された障害物が存在する領域と、仮想車両の背面画像CGとの位置関係に基づき警報信号をスピーカ32に出力する。   The warning unit 25 outputs a warning signal to the speaker 32 based on the positional relationship between the area where the obstacle is estimated by the estimation unit 24 and the rear image CG of the virtual vehicle.

自車両に設けられるスピーカ32は、警報部25から出力される警報信号に従って警報音を出力する。   The speaker 32 provided in the own vehicle outputs an alarm sound according to an alarm signal output from the alarm unit 25.

図9は、画像処理装置203の動作例を示すフローチャートである。図9に示すフローチャートは、図3に示すフローチャートにステップS60及びS70を追加したものである。   FIG. 9 is a flowchart illustrating an operation example of the image processing apparatus 203. The flowchart shown in FIG. 9 is obtained by adding steps S60 and S70 to the flowchart shown in FIG.

図9に示すフローチャートでは、ステップS50の処理が完了すると、ステップS60に移行する。ステップS60において、警報部25は、推定部24によって推定された障害物が存在する領域と、仮想車両の背面画像CGとが重なっているかを判定する。   In the flowchart shown in FIG. 9, when the process of step S50 is completed, the process proceeds to step S60. In step S60, the alarm unit 25 determines whether the area where the obstacle estimated by the estimating unit 24 is present overlaps the back image CG of the virtual vehicle.

推定部24によって推定された障害物が存在する領域と、仮想車両の背面画像CGとが重なっていないと判定された場合(ステップS60のNO)、ステップS20に戻る。   If it is determined that the area where the obstacle estimated by the estimating unit 24 is present does not overlap the back image CG of the virtual vehicle (NO in step S60), the process returns to step S20.

一方、推定部24によって推定された障害物が存在する領域と、仮想車両の背面画像CGとが重なっていると判定された場合(ステップS60のYES)、警報部25が警告信号を出力し(ステップS70)、その後ステップS20に戻る。   On the other hand, when it is determined that the area where the obstacle estimated by the estimating unit 24 exists and the back image CG of the virtual vehicle overlap (YES in step S60), the warning unit 25 outputs a warning signal ( (Step S70), and then return to step S20.

本実施形態に係る画像処理装置203によると、障害物が存在する場所を自車両が通過しようとするときに、事前に通過可能かをユーザが警告の有無によって容易に把握できる。   According to the image processing apparatus 203 according to the present embodiment, when the own vehicle attempts to pass a place where an obstacle exists, the user can easily grasp in advance whether or not the vehicle can pass by the presence or absence of a warning.

なお、本実施形態では、警報音によって警告を出力しているが、警報音の代わりに又は警報音に加えて警告の出力として警告表示を用いてもよい。また、本実施形態では、推定部24によって推定された障害物が存在する領域と、仮想車両の背面画像CGとが重なっている場合に警告が出力されるが、例えば、推定部24によって推定された障害物が存在する領域と、仮想車両の背面画像CGとの距離が所定距離以下になっている場合に、警告部25が警告信号を出力するようにしてもよい。さらに、推定部24によって推定された障害物が存在する領域と、仮想車両の背面画像CGとの距離が所定距離以下になっている場合に、警告部25が警告信号を出力する構成において、両者が重なっていない場合と両者が重なっている場合とで、警告の形態が異なるようにしてもよい。   In the present embodiment, the warning is output by a warning sound, but a warning display may be used as a warning output instead of or in addition to the warning sound. In the present embodiment, a warning is output when the area where the obstacle estimated by the estimating unit 24 is present overlaps with the back image CG of the virtual vehicle. The warning unit 25 may output a warning signal when the distance between the area where the obstacle is present and the back image CG of the virtual vehicle is less than or equal to a predetermined distance. Further, in a configuration in which the warning unit 25 outputs a warning signal when the distance between the area where the obstacle estimated by the estimation unit 24 is present and the back image CG of the virtual vehicle is equal to or smaller than a predetermined distance, May be different from each other in the case where is not overlapped and the case where both are overlapped.

<4.第4実施形態>
図10は本実施形態に係る画像処理装置204の構成を示す図である。画像処理装置204は、表示画像生成部22が俯瞰画像部22eを含み、重畳部22dが撮影画像取得部21から出力される撮影画像の代わりに俯瞰画像部22eによって生成される俯瞰画像を用いる点で画像処理装置201と異なっており、それ以外の点では画像処理装置201と基本的に同様である。
<4. Fourth embodiment>
FIG. 10 is a diagram illustrating a configuration of the image processing device 204 according to the present embodiment. The image processing apparatus 204 is different from the image processing apparatus 204 in that the display image generation unit 22 includes the overhead image unit 22e and the superimposition unit 22d uses the overhead image generated by the overhead image unit 22e instead of the captured image output from the captured image acquisition unit 21. , And is basically the same as the image processing apparatus 201 in the other points.

俯瞰画像部22eは、撮影画像取得部21から出力された撮影画像を仮想投影面に投影して投影画像に変換する。具体的には、俯瞰画像部22eは、図11に示す仮想的な三次元空間における仮想投影面100の所定領域R1にフロントカメラ11の撮影画像を投影して、フロントカメラ11の撮影画像を投影画像に変換する。   The bird's-eye view image unit 22e projects the captured image output from the captured image acquisition unit 21 onto a virtual projection plane and converts it into a projected image. Specifically, the bird's-eye view image unit 22e projects the captured image of the front camera 11 onto a predetermined region R1 of the virtual projection plane 100 in the virtual three-dimensional space illustrated in FIG. Convert to image.

図11に示す仮想投影面100は、例えば略半球状(お椀形状)をしている。仮想投影面100の中心部分(お椀の底部分)は、自車両V1が存在する位置として定められている。このように仮想投影面100が曲面を含むようにすることで、自車両V1から離れた位置に存在する物体の像の歪みを少なくすることができる。   The virtual projection surface 100 shown in FIG. 11 has, for example, a substantially hemispherical shape (bowl shape). The center part (bottom part of the bowl) of the virtual projection plane 100 is determined as a position where the host vehicle V1 exists. By making the virtual projection plane 100 include a curved surface in this way, it is possible to reduce distortion of an image of an object existing at a position distant from the host vehicle V1.

俯瞰画像部22eは、投影画像に基づいて仮想視点からみた仮想視点画像を生成する。具体的には、俯瞰画像部22eは、投影画像を仮想投影面100の所定領域R1に仮想的に貼り付ける。   The bird's-eye view image unit 22e generates a virtual viewpoint image viewed from the virtual viewpoint based on the projection image. Specifically, the bird's-eye view image unit 22e virtually pastes the projection image into a predetermined region R1 of the virtual projection plane 100.

また、俯瞰画像部22eは、仮想投影面100が設定される仮想的な三次元空間において、仮想視点を設定する。仮想視点は、視点位置及び視野方向によって規定される。仮想投影面100の少なくとも一部が視野に入る限り、仮想視点の視点位置及び視野方向は、任意の視点位置及び任意の視野方向に設定することができる。   The bird's-eye view image unit 22e sets a virtual viewpoint in a virtual three-dimensional space where the virtual projection plane 100 is set. The virtual viewpoint is defined by the viewpoint position and the viewing direction. As long as at least a part of the virtual projection plane 100 enters the visual field, the viewpoint position and the visual field direction of the virtual viewpoint can be set to an arbitrary visual point position and an arbitrary visual field direction.

本実施形態では、仮想視点の視点位置を自車両の略真上とし、仮想視点の視野方向を自車両の略真下とする。これにより、俯瞰画像部22eによって生成される仮想視点画像がいわゆるトップビューの俯瞰画像となる。トップビューの俯瞰画像では、同じ大きさの物体は自車両の近傍に存在する場合でも自車両の遠方に存在する場合でも同一の大きさで写ることになる。したがって、拡大縮小率調整部22cは、移動対象の拡大縮小率を略1に調整する。あるいは、拡大縮小率調整部22cは、拡大縮小を行わない。   In the present embodiment, the viewpoint position of the virtual viewpoint is substantially directly above the own vehicle, and the view direction of the virtual viewpoint is substantially directly below the own vehicle. Thereby, the virtual viewpoint image generated by the bird's-eye view image unit 22e becomes a so-called top-view bird's-eye view image. In the overhead view image of the top view, an object of the same size is photographed in the same size regardless of whether the object exists near the own vehicle or when it exists far from the own vehicle. Therefore, the enlargement / reduction ratio adjustment unit 22c adjusts the enlargement / reduction ratio of the movement target to approximately 1. Alternatively, the scaling ratio adjustment unit 22c does not perform scaling.

なお、本実施形態とは異なり、仮想視点の視点位置を自車両より後方且つ上方とし、仮想視点の視野方向を自車両の前方且つ下方としてもよい。この場合には第1実施形態等と同様に、移動対象を表示画像の領域1に対して自車両の進行方向に移動させるのであれば、移動距離が長いほど移動対象を縮小し、移動対象を表示画像の領域1に対して自車両の進行方向の逆方向に移動させるのであれば、移動距離が長いほど移動対象を拡大すればよい。移動対象の縮小率又は拡大率は、移動対象の移動距離の他、フロントカメラ11の光軸11aの方向、仮想視点の視点位置等に基づいて設定するとよい。   Note that, unlike the present embodiment, the viewpoint position of the virtual viewpoint may be behind and above the own vehicle, and the viewing direction of the virtual viewpoint may be ahead and below the own vehicle. In this case, as in the first embodiment and the like, if the moving target is moved in the traveling direction of the own vehicle with respect to the area 1 of the display image, the moving target is reduced as the moving distance is longer, and the moving target is reduced. If the vehicle is to be moved in the direction opposite to the traveling direction of the host vehicle with respect to the area 1 of the display image, the moving object may be enlarged as the moving distance becomes longer. The reduction ratio or the enlargement ratio of the moving object may be set based on the direction of the optical axis 11a of the front camera 11, the viewpoint position of the virtual viewpoint, and the like, in addition to the moving distance of the moving object.

俯瞰画像部22eは、設定した仮想視点に応じて、仮想投影面100における必要な領域(仮想視点からみえる領域)の画像を仮想的に切り出した俯瞰画像を生成する。   The bird's-eye view image unit 22e generates a bird's-eye view image virtually cut out of an image of a necessary region (a region viewed from the virtual viewpoint) on the virtual projection plane 100 according to the set virtual viewpoint.

図12は、CG生成部22aによって生成されたCGを初期位置でトップビューの俯瞰画像に重畳して生成される表示画像の一例である。図13に示す表示画像は、CG2のドラッグが完了した時点における表示画像の一例である。図14に示す表示画像は、表示画像のCG2以外の部分のドラッグが完了した時点における表示画像の一例である。   FIG. 12 is an example of a display image generated by superimposing the CG generated by the CG generation unit 22a on the top-view overhead image at the initial position. The display image shown in FIG. 13 is an example of the display image at the time when the dragging of the CG 2 is completed. The display image shown in FIG. 14 is an example of the display image at the time when the drag of the portion other than CG2 of the display image is completed.

本実施形態に係る画像処理装置204によると、障害物が存在する場所を自車両が通過しようとするときに、事前に通過可能かをユーザが俯瞰画像を含む表示画像を見て把握できる。したがって、撮影画像を含む表示画像を見て自車両が通過可能かを把握するよりも把握が容易になる。   According to the image processing device 204 according to the present embodiment, when the own vehicle attempts to pass a place where an obstacle exists, the user can know in advance whether the vehicle can pass by viewing the display image including the bird's-eye view image. Therefore, it is easier to determine whether the own vehicle can pass by looking at the display image including the captured image.

また、俯瞰画像がトップビューの俯瞰画像である場合には、フロントカメラ11からの距離が互いに異なるCG2と障害物との重なりがなくなるので、俯瞰画像を含む表示画像見て自車両が通過可能かを把握することがより一層容易になる。また、俯瞰画像がトップビューの俯瞰画像である場合には、拡大縮小率を略1に固定したり、拡大縮小を行わないようにできるので、拡大縮小率の調整処理にかかる負担を軽減することができる。   When the overhead view image is a top view overhead view image, the CG 2 and the obstacle at different distances from the front camera 11 do not overlap with each other, so that the own vehicle can pass through the display image including the overhead view image. It becomes even easier to figure out. In addition, when the overhead image is a top-view overhead image, the enlargement / reduction ratio can be fixed to approximately 1 or the enlargement / reduction can be prevented, so that the burden on the adjustment process of the enlargement / reduction ratio can be reduced. Can be.

<5.その他>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
<5. Others>
Various technical features disclosed in the present specification can be variously modified without departing from the spirit of the technical creation in addition to the above-described embodiment. In addition, a plurality of embodiments and modifications shown in this specification may be implemented in combination within a possible range.

例えば上述した実施形態では、自車両の進行方向は前方であったが、自車両の後方向を撮影するバックカメラを自車両に設け、画像処理装置がバックカメラの撮影画像を取得する構成にすれば、自車両の進行方向が後方であるときにも本発明を適用することができる。   For example, in the above-described embodiment, the traveling direction of the own vehicle is forward, but a back camera that captures the rear direction of the own vehicle is provided in the own vehicle, and the image processing apparatus acquires a captured image of the back camera. For example, the present invention can be applied even when the traveling direction of the host vehicle is backward.

例えば上述した実施形態では、ロードコーンを障害物の一例として示しているが、障害物は当然の事ながらロードコーンに限定されない。例えば、他車両、歩行者、看板などを障害物に含めるとよい。また、例えば橋の欄干を障害物に含めることで、幅の狭い橋を自車両が渡れるかどうかを事前にユーザが容易に把握できる。また、例えば側溝を障害物に含めることで、自車両が脱輪することなく通過できるかどうかを事前にユーザが容易に把握できる。   For example, in the embodiment described above, the road cone is shown as an example of the obstacle, but the obstacle is not limited to the road cone as a matter of course. For example, other vehicles, pedestrians, signs, and the like may be included in the obstacle. In addition, for example, by including the railing of the bridge in the obstacle, the user can easily grasp in advance whether the vehicle can cross the narrow bridge. In addition, for example, by including the gutter in the obstacle, the user can easily understand in advance whether the vehicle can pass without derailing.

例えば上述した実施形態では、仮想車両の背面画像CGが自車両の前方に直進している像であったが、移動対象が移動する方向に応じた方向を向いている像にしてもよい。これにより、ユーザは、仮想車両の背面画像CGと表示画像内の障害物との位置関係をより正確に把握することができる。   For example, in the above-described embodiment, the back image CG of the virtual vehicle is an image that goes straight ahead of the host vehicle, but may be an image that faces in a direction corresponding to the direction in which the moving target moves. Accordingly, the user can more accurately grasp the positional relationship between the back image CG of the virtual vehicle and the obstacle in the display image.

11 フロントカメラ
12 操作部
21 カメラ画像取得部
22 表示画像生成部
201〜204 画像処理装置
DESCRIPTION OF SYMBOLS 11 Front camera 12 Operation part 21 Camera image acquisition part 22 Display image generation part 201-204 Image processing apparatus

Claims (7)

自車両の周辺を撮影するカメラで得られた撮影画像を取得する撮影画像取得部と、
前記撮影画像又は前記撮影画像を変換した変換画像に前記自車両を表す仮想車両の像を重畳して表示画像を生成する表示画像生成部と、
を備え、
前記表示画像生成部は、前記撮影画像又は前記変換画像と前記仮想車両の像との少なくも一方を移動対象として前記表示画像の領域に対して移動させることができ、前記移動対象の拡大縮小率を前記移動に応じて調整する、画像処理装置。
A photographed image acquisition unit that acquires a photographed image obtained by a camera that photographs the periphery of the own vehicle,
A display image generation unit that generates a display image by superimposing an image of the virtual vehicle representing the host vehicle on the captured image or the converted image obtained by converting the captured image,
With
The display image generation unit can move at least one of the captured image or the converted image and the image of the virtual vehicle with respect to a region of the display image as a movement target, and the scaling ratio of the movement target An image processing device that adjusts according to the movement.
前記表示画像生成部は、ユーザ操作を受け付ける操作部の出力に基づき前記移動対象を移動させる、請求項1に記載の画像処理装置。   The image processing device according to claim 1, wherein the display image generation unit moves the movement target based on an output of an operation unit that receives a user operation. 前記表示画像生成部は、前記自車両の予想進路に関する情報を取得し、前記予想進路に基づき前記移動対象を移動させる、請求項1に記載の画像処理装置。   The image processing device according to claim 1, wherein the display image generation unit acquires information on an expected course of the own vehicle, and moves the moving target based on the estimated course. 前記表示画像において障害物が存在する領域を推定する推定部と、
前記推定部によって推定された前記領域と前記仮想車両の像との位置関係に基づき警報信号を出力する警報部と、
をさらに備える、請求項1〜3のいずれか一項に記載の画像処理装置。
An estimating unit that estimates an area where an obstacle exists in the display image,
An alarm unit that outputs an alarm signal based on a positional relationship between the area and the image of the virtual vehicle estimated by the estimation unit,
The image processing apparatus according to claim 1, further comprising:
前記表示画像生成部は、前記変換画像に前記仮想車両の像を重畳して前記表示画像を生成し、
前記変換画像は、仮想視点からみた仮想視点画像である、請求項1〜4のいずれか一項に記載の画像処理装置。
The display image generation unit generates the display image by superimposing an image of the virtual vehicle on the conversion image,
The image processing device according to claim 1, wherein the converted image is a virtual viewpoint image viewed from a virtual viewpoint.
前記仮想視点の視点位置が前記自車両の略真上であり、前記仮想視点の視線方向が前記自車両の略真下である場合、
前記表示画像生成部は、前記移動対象の拡大縮小を行わない、請求項5に記載の画像処理装置。
When the viewpoint position of the virtual viewpoint is substantially directly above the own vehicle, and the line of sight of the virtual viewpoint is substantially directly below the own vehicle,
The image processing device according to claim 5, wherein the display image generation unit does not perform scaling of the moving target.
自車両の周辺を撮影するカメラで得られた撮影画像を取得する撮影画像取得工程と、
前記撮影画像又は前記撮影画像を変換した変換画像に前記自車両を表す仮想車両の像を重畳して表示画像を生成する表示画像生成工程と、
を備え、
前記表示画像生成工程は、前記撮影画像又は前記変換画像と前記仮想車両の像との少なくも一方を移動対象として前記表示画像の領域に対して移動させたときに前記移動対象の拡大縮小率を前記移動に応じて調整する調整工程を含む、画像処理方法。
A captured image obtaining step of obtaining a captured image obtained by a camera that captures the periphery of the vehicle,
A display image generating step of generating a display image by superimposing an image of the virtual vehicle representing the host vehicle on the captured image or the converted image obtained by converting the captured image,
With
The display image generation step includes: when moving at least one of the photographed image or the converted image and the image of the virtual vehicle with respect to the display image area as a movement target, the scaling ratio of the movement target is changed. An image processing method, comprising: an adjusting step of adjusting according to the movement.
JP2018147437A 2018-08-06 2018-08-06 Image processing device and image processing method Active JP7209442B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018147437A JP7209442B2 (en) 2018-08-06 2018-08-06 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018147437A JP7209442B2 (en) 2018-08-06 2018-08-06 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2020024487A true JP2020024487A (en) 2020-02-13
JP7209442B2 JP7209442B2 (en) 2023-01-20

Family

ID=69618696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018147437A Active JP7209442B2 (en) 2018-08-06 2018-08-06 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7209442B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114620570A (en) * 2020-12-10 2022-06-14 株式会社日立大厦系统 Maintenance work remote management server and maintenance work remote management method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018061294A1 (en) * 2016-09-30 2018-04-05 アイシン精機株式会社 Periphery monitoring device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018061294A1 (en) * 2016-09-30 2018-04-05 アイシン精機株式会社 Periphery monitoring device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114620570A (en) * 2020-12-10 2022-06-14 株式会社日立大厦系统 Maintenance work remote management server and maintenance work remote management method
CN114620570B (en) * 2020-12-10 2024-03-22 株式会社日立大厦系统 Maintenance work remote management server and maintenance work remote management method

Also Published As

Publication number Publication date
JP7209442B2 (en) 2023-01-20

Similar Documents

Publication Publication Date Title
CN111052733B (en) Surrounding vehicle display method and surrounding vehicle display device
US10322674B2 (en) Display control method and display control device
WO2016002163A1 (en) Image display device and image display method
JP6453192B2 (en) Image recognition processing apparatus and program
JP6307895B2 (en) Vehicle periphery monitoring device
JP2011119917A (en) Display device for vehicle
JP2010026708A (en) Driver assistance device, driver assistance method and driver assistance processing program
JP6577347B2 (en) Information transmission device, information transmission method and program
JP2019046069A (en) Driving support device and driving support method
JP6081247B2 (en) Display switching device and display switching method for vehicle rear image
JP2017016200A (en) Image processing apparatus, image display system, and image processing method
WO2019038904A1 (en) Surrounding vehicle display method and surrounding vehicle display apparatus
JP2009253460A (en) Parking support system
JP4968369B2 (en) In-vehicle device and vehicle recognition method
JP7209442B2 (en) Image processing device and image processing method
JP2023165721A (en) display control device
JP2017191472A (en) Image display method and image display device
JP2019140518A (en) Image generating apparatus
JP2014164637A (en) Solid object detection device, drive assist device, and solid object detection method
JP6295868B2 (en) Vehicle display device
JP2017124751A (en) Parking support device and parking support method
JP4598011B2 (en) Vehicle display device
JP6569356B2 (en) Information presentation device and information presentation method
JP7342926B2 (en) Display control device and display control program
JP2007028444A (en) Image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210730

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230109

R150 Certificate of patent or registration of utility model

Ref document number: 7209442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150