JP6906576B2 - Image processing equipment, image processing methods and in-vehicle equipment - Google Patents

Image processing equipment, image processing methods and in-vehicle equipment Download PDF

Info

Publication number
JP6906576B2
JP6906576B2 JP2019160583A JP2019160583A JP6906576B2 JP 6906576 B2 JP6906576 B2 JP 6906576B2 JP 2019160583 A JP2019160583 A JP 2019160583A JP 2019160583 A JP2019160583 A JP 2019160583A JP 6906576 B2 JP6906576 B2 JP 6906576B2
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
viewpoint
unit
composite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019160583A
Other languages
Japanese (ja)
Other versions
JP2020074503A (en
Inventor
隆幸 小笹
隆幸 小笹
輝彦 上林
輝彦 上林
康司 大西
康司 大西
武生 松本
武生 松本
知之 藤本
知之 藤本
山本 大輔
大輔 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015089738A external-priority patent/JP6585371B2/en
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019160583A priority Critical patent/JP6906576B2/en
Publication of JP2020074503A publication Critical patent/JP2020074503A/en
Application granted granted Critical
Publication of JP6906576B2 publication Critical patent/JP6906576B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、画像処理装置、画像処理方法および車載装置に関する。 The present invention relates to an image processing device, an image processing method, and an in-vehicle device.

従来、車両の所定位置に設置された撮像手段によって撮像した車両の周辺画像に基づいて仮想視点から見た画像である仮想視点画像を生成し、かかる仮想視点画像を表示手段に表示する技術が知られている(例えば、特許文献1参照)。 Conventionally, there is a technique known for generating a virtual viewpoint image which is an image viewed from a virtual viewpoint based on a peripheral image of the vehicle captured by an imaging means installed at a predetermined position of the vehicle and displaying the virtual viewpoint image on the display means. (See, for example, Patent Document 1).

特開2011−244239号公報Japanese Unexamined Patent Publication No. 2011-244239

しかしながら、従来技術においては仮想視点画像のみを表示するものであり、仮想視点画像を用いた表示をより適切に行うことができれば、より利便性が増し望ましいと考えられる。 However, in the prior art, only the virtual viewpoint image is displayed, and it is considered desirable to increase the convenience if the display using the virtual viewpoint image can be performed more appropriately.

本発明は、上記に鑑みてなされたものであって、仮想視点画像を用いた表示をより適切に行うことができる画像処理装置、画像処理方法および車載装置を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an image processing device, an image processing method, and an in-vehicle device capable of more appropriately displaying a virtual viewpoint image.

上記課題を解決し、目的を達成するために、本発明は、画像処理装置において、撮像部の撮像画像に基づき、仮想視点の画像を生成する画像生成部と、前記仮想視点の画像上に合成用画像を表示した画像を生成する画像処理部とを備え、前記画像処理部は、前記仮想視点の画像が前記仮想視点の移動中の視点位置の画像である場合、前記合成用画像の透明度を高めた前記仮想視点の画像を表示部に出力することを特徴とする。 In order to solve the above problems and achieve the object, the present invention synthesizes an image generating unit that generates an image of a virtual viewpoint based on an image captured by the imaging unit and an image of the virtual viewpoint in an image processing apparatus. The image processing unit includes an image processing unit that generates an image displaying the image for use, and when the image of the virtual viewpoint is an image of the viewpoint position during movement of the virtual viewpoint, the image processing unit determines the transparency of the composite image. It is characterized in that the enhanced image of the virtual viewpoint is output to the display unit.

本発明によれば、仮想視点画像を用いた表示をより適切に行うことができる画像処理装置、画像処理方法および車載装置を提供することができる。 According to the present invention, it is possible to provide an image processing device, an image processing method, and an in-vehicle device capable of more appropriately displaying a virtual viewpoint image.

図1は、本発明の実施形態に係る画像処理方法を示す説明図である。FIG. 1 is an explanatory diagram showing an image processing method according to an embodiment of the present invention. 図2は、本発明の実施形態に係る車載装置の構成例を示す図である。FIG. 2 is a diagram showing a configuration example of an in-vehicle device according to an embodiment of the present invention. 図3は、撮像装置の配置例を示す図である。FIG. 3 is a diagram showing an arrangement example of the imaging device. 図4は、合成用画像をガイド線の画像とした場合の合成部によって行われる合成処理の説明図である。FIG. 4 is an explanatory diagram of the compositing process performed by the compositing unit when the compositing image is used as a guide line image. 図5は、始点となる視点位置から終点となる視点位置にかけて視点位置が連続的に移動する場合の各視点位置の一例を示す図である。FIG. 5 is a diagram showing an example of each viewpoint position when the viewpoint position continuously moves from the viewpoint position which is the start point to the viewpoint position which is the end point. 図6は、仮想視点が移動する場合における画像処理部による処理内容を示す説明図である。FIG. 6 is an explanatory diagram showing the processing contents by the image processing unit when the virtual viewpoint moves. 図7は、画像処理装置が実行する画像処理手順を示すフローチャートである。FIG. 7 is a flowchart showing an image processing procedure executed by the image processing apparatus.

以下に、本発明に係る画像処理装置、画像処理方法および車載装置の実施形態を図面に基づいて詳細に説明する。 Hereinafter, embodiments of an image processing device, an image processing method, and an in-vehicle device according to the present invention will be described in detail with reference to the drawings.

[1.画像処理方法]
図1は、本発明の実施形態に係る画像処理方法を示す説明図であり、かかる画像処理方法は、例えば、車両に搭載される車両用画像処理装置(以下、画像処理装置と記載する)によって実行される。
[1. Image processing method]
FIG. 1 is an explanatory diagram showing an image processing method according to an embodiment of the present invention, and the image processing method is, for example, by a vehicle image processing device (hereinafter, referred to as an image processing device) mounted on a vehicle. Will be executed.

本実施形態に係る画像処理装置は、車両の所定位置に設置され車両の周辺を撮像する不図示の撮像装置(撮像部の一例)によって撮像された画像(以下、撮像画像と記載する)に基づき、図1(a)に示すように、仮想視点から見た画像(以下、仮想視点画像と記載する)を生成する。 The image processing device according to the present embodiment is based on an image (hereinafter referred to as an captured image) captured by an imaging device (an example of an imaging unit) (not shown) that is installed at a predetermined position of the vehicle and images the periphery of the vehicle. , As shown in FIG. 1A, an image viewed from a virtual viewpoint (hereinafter referred to as a virtual viewpoint image) is generated.

さらに、画像処理装置は、仮想視点画像に合成用画像を合成した合成画像を生成し、かかる合成画像を表示装置(表示部の一例)へ出力することによって、仮想視点画像上に合成用画像を表示した画像を表示装置へ表示する。 Further, the image processing device generates a composite image in which the composite image is combined with the virtual viewpoint image, and outputs the composite image to the display device (an example of the display unit) to display the composite image on the virtual viewpoint image. The displayed image is displayed on the display device.

合成用画像は、運転を支援するための指標となる画像であり、例えば、ガイド線の画像、警告画像および駐車スペースを示す画像などである。かかる合成用画像は、例えば、画像生成装置(図示せず)によって生成され、画像処理装置へ出力される。 The composite image is an image that serves as an index for supporting driving, and is, for example, a guide line image, a warning image, an image showing a parking space, and the like. Such a composite image is generated by, for example, an image generation device (not shown) and output to an image processing device.

ガイド線は、例えば、車両に設けられた舵角センサ(図示せず)によって検出された舵角などに基づいて予測された車両の走行軌跡を示すガイド線の画像である。警告画像は、例えば、車両の後方に障害物が存在する場合にかかる障害物の位置を報知するための画像であり、例えば、障害物を囲む囲い線の画像である。なお、仮想視点に応じてガイド線、障害物および駐車スペースの位置が変わることから、画像生成装置は、仮想視点に応じた合成用画像を生成する。 The guide line is, for example, an image of a guide line showing a traveling locus of the vehicle predicted based on a steering angle detected by a steering angle sensor (not shown) provided in the vehicle. The warning image is, for example, an image for notifying the position of an obstacle when an obstacle is present behind the vehicle, and is, for example, an image of an enclosure line surrounding the obstacle. Since the positions of the guide line, the obstacle, and the parking space change according to the virtual viewpoint, the image generation device generates a composite image according to the virtual viewpoint.

画像処理装置は、仮想視点の視点位置が移動中の仮想視点画像に合成用画像を合成する場合、仮想視点画像と合成用画像とが共に視点位置が連続して変化しながら表示されることになる。そのため、車両の乗員は、仮想視点画像および合成用画像の変化をそれぞれ視認しなければならず、画像の把握が難しくなるおそれがあり、また、距離感などの把握も難しくなるおそれがある。 When the image processing device synthesizes a composite image with a virtual viewpoint image in which the viewpoint position of the virtual viewpoint is moving, both the virtual viewpoint image and the composite image are displayed while the viewpoint position continuously changes. Become. Therefore, the occupant of the vehicle must visually recognize the changes in the virtual viewpoint image and the composite image, which may make it difficult to grasp the images, and may also make it difficult to grasp the sense of distance.

そこで、画像処理装置は、仮想視点画像が仮想視点の移動中の視点位置の画像である場合、合成用画像の視認性を低下させる処理を行うようにしている。これにより、車両の乗員は、画像や距離感などの把握を容易に行うことができる。 Therefore, when the virtual viewpoint image is an image of the viewpoint position during movement of the virtual viewpoint, the image processing device performs a process of reducing the visibility of the composite image. As a result, the occupant of the vehicle can easily grasp the image, the sense of distance, and the like.

例えば、画像処理装置は、図1(b)に示すように、仮想視点画像が仮想視点の移動前後の視点位置A、Bの画像である場合、仮想視点画像上に合成用画像が表示された画像を表示装置に出力する一方で、仮想視点画像が仮想視点の移動中の視点位置の画像である場合、仮想視点画像上に合成用画像が表示されていない画像を表示装置に出力する。 For example, in the image processing device, as shown in FIG. 1B, when the virtual viewpoint image is an image of the viewpoint positions A and B before and after the movement of the virtual viewpoint, the composite image is displayed on the virtual viewpoint image. While the image is output to the display device, when the virtual viewpoint image is an image of the viewpoint position during movement of the virtual viewpoint, an image in which the composite image is not displayed on the virtual viewpoint image is output to the display device.

なお、合成用画像の視認性を低下させる処理は、合成用画像を合成せずに仮想視点画像を表示装置へ出力して合成用画像の視認性をゼロにする処理に限定されない。例えば、合成用画像の視認性を低下させる処理には、合成用画像の透過度を高めて仮想視点画像に合成した画像を表示装置へ出力する処理などがある。なお、以下においては、合成用画像を合成せずに仮想視点画像を表示装置へ出力する処理の例について詳細に説明する。 The process of reducing the visibility of the composite image is not limited to the process of outputting the virtual viewpoint image to the display device without synthesizing the composite image to make the visibility of the composite image zero. For example, as a process of reducing the visibility of the composite image, there is a process of increasing the transparency of the composite image and outputting the composite image to the virtual viewpoint image to the display device. In the following, an example of a process of outputting a virtual viewpoint image to a display device without synthesizing a composite image will be described in detail.

[2.車載装置の構成]
図2は、本発明の実施形態に係る車載装置の構成例を示す図である。図2に示すように、車載装置100は、撮像装置1(撮像部の一例)と、画像制御装置2と、画像処理装置3と、表示装置4(表示部の一例)とを備える。なお、画像処理装置3は、例えば、画像制御装置2および表示装置4の少なくとも一つを含む構成であってもよい。
[2. In-vehicle device configuration]
FIG. 2 is a diagram showing a configuration example of an in-vehicle device according to an embodiment of the present invention. As shown in FIG. 2, the in-vehicle device 100 includes an image pickup device 1 (an example of an image pickup unit), an image control device 2, an image processing device 3, and a display device 4 (an example of a display unit). The image processing device 3 may include, for example, at least one of the image control device 2 and the display device 4.

撮像装置1は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、かかる撮像素子によって撮像した動画像である撮像画像を画像処理装置3へ出力する。かかる撮像装置1は、例えば、図3に示すように、車両5の後方部に配置され、車両5の後方を撮像する。図3は、撮像装置1の配置例を示す図である。なお、撮像装置1の配置および撮像装置1の数は、図3に示す例に限定されない。 The image pickup device 1 includes, for example, an image pickup element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and outputs a captured image which is a moving image captured by the image pickup device to the image processing device 3. As shown in FIG. 3, for example, the image pickup device 1 is arranged at the rear portion of the vehicle 5 and images the rear portion of the vehicle 5. FIG. 3 is a diagram showing an arrangement example of the image pickup apparatus 1. The arrangement of the image pickup device 1 and the number of the image pickup devices 1 are not limited to the example shown in FIG.

画像制御装置2は、合成用画像生成部6と、画像制御部7と、操作部8とを備える。合成用画像生成部6は、仮想視点画像にクロマキー合成を行うための合成用画像を生成して出力する。かかる合成用画像は、運転を支援するための指標となる画像であり、例えば、ガイド線の画像や警告画像である。 The image control device 2 includes a composition image generation unit 6, an image control unit 7, and an operation unit 8. The compositing image generation unit 6 generates and outputs a compositing image for performing chroma key compositing on the virtual viewpoint image. The composite image is an image that serves as an index for supporting driving, and is, for example, a guide line image or a warning image.

合成用画像生成部6は、例えば、ガイド線の画像を生成する場合、車両に設けられた舵角センサ(図示せず)によって検出された舵角の情報などを取得し、かかる舵角などに基づいて車両の走行軌跡を予測する。合成用画像生成部6は、予測した走行軌跡を示すガイド線の画像を生成する。 For example, when generating an image of a guide line, the composite image generation unit 6 acquires information on the steering angle detected by a steering angle sensor (not shown) provided in the vehicle, and obtains the steering angle information or the like. Based on this, the traveling locus of the vehicle is predicted. The compositing image generation unit 6 generates an image of a guide line showing the predicted traveling locus.

また、合成用画像生成部6は、例えば、警告画像を生成する場合、撮像装置1の撮像画像を解析し、車両の後方に存在する障害物を検出する。合成用画像生成部6は、車両の乗員に対し障害物の存在を報知するための警告画像を生成する。かかる警告画像は、例えば、障害物の位置を報知する画像であり、障害物を囲む囲い線の画像である。 Further, for example, when generating a warning image, the composite image generation unit 6 analyzes the captured image of the imaging device 1 and detects an obstacle existing behind the vehicle. The composite image generation unit 6 generates a warning image for notifying the occupants of the vehicle of the presence of an obstacle. Such a warning image is, for example, an image for notifying the position of an obstacle, and is an image of a surrounding line surrounding the obstacle.

画像制御部7は、例えば、操作部8への入力操作などに基づき、画像処理装置3や合成用画像生成部6を制御する。画像制御部7は、操作部8への入力操作などにより仮想視点の変更要求がある場合、仮想視点の変更処理を行う。 The image control unit 7 controls the image processing device 3 and the image generation unit 6 for compositing based on, for example, an input operation to the operation unit 8. When there is a request to change the virtual viewpoint due to an input operation to the operation unit 8, the image control unit 7 performs a change process of the virtual viewpoint.

例えば、画像制御部7は、現在の仮想視点の視点位置(以下、視点位置Aと記載する)から変更先の視点位置(以下、視点位置Bと記載する)への変更要求がある場合、視点位置Bの情報を合成用画像生成部6や画像処理装置3へ出力する。 For example, when the image control unit 7 requests a change from the viewpoint position of the current virtual viewpoint (hereinafter referred to as the viewpoint position A) to the change destination viewpoint position (hereinafter referred to as the viewpoint position B), the viewpoint The information of the position B is output to the image generation unit 6 for compositing and the image processing device 3.

合成用画像生成部6は、画像制御部7から出力される視点位置Bの情報に基づき、視点位置Bに応じた合成用画像を生成し、画像処理装置3へ出力する。また、画像処理装置3は、画像制御装置2から出力される視点位置Bの情報に基づき、かかる視点位置Bまでの連続する視点位置から見た画像である仮想視点画像を生成する。 The compositing image generation unit 6 generates a compositing image according to the viewpoint position B based on the information of the viewpoint position B output from the image control unit 7, and outputs the compositing image to the image processing device 3. Further, the image processing device 3 generates a virtual viewpoint image which is an image viewed from a continuous viewpoint position up to the viewpoint position B based on the information of the viewpoint position B output from the image control device 2.

画像処理装置3は、撮像装置1から撮像画像を取得すると共に、画像制御装置2から合成用画像を取得する。画像処理装置3は、取得した撮像画像に基づき、仮想視点の画像(以下、仮想視点画像と記載する)を生成し、かかる仮想視点画像と合成用画像とをクロマキー合成し、生成した合成画像を表示装置4へ出力する。 The image processing device 3 acquires an captured image from the image pickup device 1 and also acquires a composite image from the image control device 2. The image processing device 3 generates a virtual viewpoint image (hereinafter, referred to as a virtual viewpoint image) based on the acquired captured image, chromakey-synthesizes the virtual viewpoint image and the composite image, and produces the generated composite image. Output to display device 4.

表示装置4は、LCD(Liquid Crystal Display)を備え、画像処理装置3から取得した合成画像や仮想視点画像のデータに基づき、合成画像や仮想視点画像を表示する。 The display device 4 includes an LCD (Liquid Crystal Display) and displays a composite image or a virtual viewpoint image based on the data of the composite image or the virtual viewpoint image acquired from the image processing device 3.

[3.画像処理装置3の構成]
画像処理装置3は、図2に示すように、画像生成部11と、画像処理部12と、動作管理部13とを備える。なお、動作管理部13は、画像生成部11や画像処理部12にそれぞれ設けられてもよい。
[3. Configuration of image processing device 3]
As shown in FIG. 2, the image processing device 3 includes an image generation unit 11, an image processing unit 12, and an operation management unit 13. The operation management unit 13 may be provided in the image generation unit 11 and the image processing unit 12, respectively.

画像生成部11は、撮像装置1から出力される撮像画像に対して座標変換処理を行って仮想視点から見た画像である仮想視点画像を生成し、画像処理部12へ出力する。画像処理部12は、画像制御装置2から出力される合成用画像を取得し、かかる合成用画像を仮想視点画像に合成して表示装置4へ出力する。動作管理部13は、画像生成部11および画像処理部12の動作を管理する。 The image generation unit 11 performs coordinate conversion processing on the captured image output from the image pickup apparatus 1 to generate a virtual viewpoint image which is an image viewed from the virtual viewpoint, and outputs the virtual viewpoint image to the image processing unit 12. The image processing unit 12 acquires the compositing image output from the image control device 2, combines the compositing image with the virtual viewpoint image, and outputs the composite image to the display device 4. The operation management unit 13 manages the operations of the image generation unit 11 and the image processing unit 12.

かかる画像処理装置3は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるデバイスである。また、画像処理装置3は、CPUやMPU等のプロセッサと、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子などの記憶部を備え、プロセッサが記憶部に記憶されたプログラムを実行することにより上述した各部位の機能を実現する構成であってもよい。 The image processing device 3 is a device realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array), for example. Further, the image processing device 3 includes a processor such as a CPU or MPU and a storage unit such as a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, and the processor executes a program stored in the storage unit. It may be configured to realize the function of each part described above.

画像生成部11は、撮像画像取得部21と、仮想視点画像生成部22とを備える。撮像画像取得部21は、撮像装置1から出力される撮像画像を取得する。撮像装置1は、例えば、RGB信号やコンポーネント信号などの映像信号により撮像画像のデータ(以下、撮像画像データと記載する)を画像処理装置3へ出力する。 The image generation unit 11 includes a captured image acquisition unit 21 and a virtual viewpoint image generation unit 22. The captured image acquisition unit 21 acquires the captured image output from the imaging device 1. The image pickup device 1 outputs captured image data (hereinafter referred to as captured image data) to the image processing device 3 by, for example, a video signal such as an RGB signal or a component signal.

撮像画像取得部21は、撮像装置1から撮像画像データを取得すると、取得した撮像画像データを仮想視点画像生成部22へ出力する。撮像画像データは、撮像装置1によって撮像される動画像の各フレームの画像に対応するデータであり、撮像画像取得部21から撮像動画像のフレーム単位で順次仮想視点画像生成部22へ出力される。 When the captured image acquisition unit 21 acquires the captured image data from the imaging device 1, the captured image acquisition unit 21 outputs the acquired captured image data to the virtual viewpoint image generation unit 22. The captured image data is data corresponding to the image of each frame of the moving image captured by the imaging device 1, and is sequentially output from the captured image acquisition unit 21 to the virtual viewpoint image generation unit 22 in frame units of the captured moving image. ..

仮想視点画像生成部22は、撮像画像に対して座標変換処理を行って仮想視点から見た画像である仮想視点画像を生成し、かかる仮想視点画像のデータ(以下、仮想視点画像データと記載する)を合成部35へ出力する。 The virtual viewpoint image generation unit 22 performs coordinate conversion processing on the captured image to generate a virtual viewpoint image which is an image viewed from the virtual viewpoint, and the data of the virtual viewpoint image (hereinafter, referred to as virtual viewpoint image data). ) Is output to the synthesis unit 35.

かかる座標変換処理において、仮想視点画像生成部22は、例えば、撮像画像を所定の投影面に投影(マッピング)し、所定の投影面に投影された撮像画像のうち仮想視点から見て所定の視野角に含まれる領域の画像を仮想視点画像とする。 In such a coordinate conversion process, the virtual viewpoint image generation unit 22 projects (maps) the captured image onto a predetermined projection surface, and among the captured images projected on the predetermined projection surface, a predetermined field of view when viewed from the virtual viewpoint. The image of the area included in the corner is used as the virtual viewpoint image.

なお、所定の投影面は、例えば、仮想的な3次元空間における立体的な曲面であってもよく、図1(a)に示す路面であってもよい。また、所定の投影面への撮像画像の投影は、例えば、撮像装置1を原点座標とする撮像画像の座標を、投影面を基準とする座標系へ変換することによって行うことができる。 The predetermined projection surface may be, for example, a three-dimensional curved surface in a virtual three-dimensional space, or the road surface shown in FIG. 1A. Further, the projection of the captured image on the predetermined projection surface can be performed, for example, by converting the coordinates of the captured image with the imaging device 1 as the origin coordinate to the coordinate system with the projection plane as the reference.

画像処理部12は、合成用画像取得部31と、圧縮部32と、記憶部33と、伸張部34と、合成部35と、画質調整処理部36と、画像出力部37とを備える。 The image processing unit 12 includes a composition image acquisition unit 31, a compression unit 32, a storage unit 33, an expansion unit 34, a composition unit 35, an image quality adjustment processing unit 36, and an image output unit 37.

合成用画像取得部31は、画像制御装置2から出力される合成用画像を取得する。画像制御装置2は、例えば、RGB信号やコンポーネント信号などの映像信号により合成用画像のデータ(以下、合成用画像データと記載する)を画像処理装置3へ出力する。合成用画像取得部31は、画像制御装置2から合成用画像データを取得すると、取得した合成用画像データを圧縮部32へ出力する。 The compositing image acquisition unit 31 acquires a compositing image output from the image control device 2. The image control device 2 outputs data of a composite image (hereinafter, referred to as composite image data) to an image processing device 3 by, for example, a video signal such as an RGB signal or a component signal. When the compositing image acquisition unit 31 acquires the compositing image data from the image control device 2, the compositing image acquisition unit 31 outputs the acquired compositing image data to the compression unit 32.

圧縮部32は、所定の圧縮処理によって合成用画像データを圧縮し、圧縮した合成用画像データ(以下、圧縮画像データと記載する)を記憶部33に記憶する。例えば、圧縮部32は、合成用画像データが予め指定された色が使用されている場合、CLUT(Color Look-Up Table)を用いることでデータ圧縮を行うことができ、また、このように圧縮したデータをランレングス法によってさらに圧縮することができる。なお、CLUTおよびランレングス法は一例であり、その他の圧縮処理を行ってもよい。 The compression unit 32 compresses the composite image data by a predetermined compression process, and stores the compressed composite image data (hereinafter, referred to as compressed image data) in the storage unit 33. For example, when the image data for compositing uses a color specified in advance, the compression unit 32 can perform data compression by using a CLUT (Color Look-Up Table), and also compresses in this way. The resulting data can be further compressed by the run-length method. The CLUT and run-length methods are examples, and other compression treatments may be performed.

伸張部34は、記憶部33に記憶された圧縮画像データを合成用画像データへ伸張する処理を行う。例えば、伸張部34は、記憶部33に記憶された圧縮画像データをランレングス法によって逆変換を行い、さらに、CLUTによって逆変換を行うことによって圧縮画像データを合成用画像データへ伸張する処理を行う。 The stretching unit 34 performs a process of stretching the compressed image data stored in the storage unit 33 into the composite image data. For example, the decompression unit 34 performs a process of inversely converting the compressed image data stored in the storage unit 33 by the run-length method, and further performing an inverse conversion by the CLUT to decompress the compressed image data into the composite image data. conduct.

合成部35は、画像生成部11から取得した仮想視点画像データと伸張部34から取得した合成用画像データとに基づき、仮想視点画像上に合成用画像をクロマキー合成した合成画像のデータ(以下、合成画像データと記載する)を生成する。合成部35は、例えば、合成用画像を構成する複数の画素のうち予め指定された色(例えば、青色)の画素の色を透過色にした後、かかる合成用画像を仮想視点画像上に合成する。 The compositing unit 35 is based on the virtual viewpoint image data acquired from the image generation unit 11 and the compositing image data acquired from the stretching unit 34, and the compositing image data obtained by chromakey-synthesizing the compositing image on the virtual viewpoint image (hereinafter referred to as (Described as composite image data) is generated. For example, the compositing unit 35 sets the color of a pixel having a predetermined color (for example, blue) among a plurality of pixels constituting the compositing image as a transparent color, and then synthesizes the compositing image on the virtual viewpoint image. do.

かかる合成部35は、例えば、動作管理部13からの要求に応じて、仮想視点画像と合成用画像とを合成する合成機能をONにしたり、合成機能をOFFしたりする。合成部35は、合成機能がONである場合、仮想視点画像に合成用画像を合成し、合成機能がOFFである場合、仮想視点画像と合成用画像との合成を行わずに、画像生成部11から取得した仮想視点画像データを画質調整処理部36へ出力する。 The compositing unit 35 turns on the compositing function for compositing the virtual viewpoint image and the compositing image, or turns off the compositing function, for example, in response to a request from the operation management unit 13. When the compositing function is ON, the compositing unit 35 synthesizes the compositing image with the virtual viewpoint image, and when the compositing function is OFF, the compositing unit 35 does not synthesize the virtual viewpoint image and the compositing image, and is an image generation unit. The virtual viewpoint image data acquired from 11 is output to the image quality adjustment processing unit 36.

図4は、合成用画像をガイド線の画像とした場合の合成部35によって行われる合成処理の説明図である。図4に示す例では、合成部35は、仮想視点画像にガイド線の画像を合成した合成画像を生成する。かかる合成画像によって、車両の乗員は、ガイド線が重畳された仮想視点画像を見ることができ、運転をより適切に行うことが可能となる。 FIG. 4 is an explanatory diagram of the compositing process performed by the compositing unit 35 when the compositing image is an image of a guide line. In the example shown in FIG. 4, the compositing unit 35 generates a composite image in which the image of the guide line is combined with the virtual viewpoint image. With such a composite image, the occupant of the vehicle can see the virtual viewpoint image on which the guide line is superimposed, and can drive more appropriately.

画質調整処理部36は、合成部35から出力される画像の画質を調整する処理を行い、かかる画質調整処理後の画像のデータを画像出力部37へ出力する。画像出力部37は、画質調整処理部36からの画像のデータを表示装置4によって受信可能な映像信号のフォーマットへ変換して表示装置4へ出力する。 The image quality adjustment processing unit 36 performs processing for adjusting the image quality of the image output from the composition unit 35, and outputs the image data after the image quality adjustment processing to the image output unit 37. The image output unit 37 converts the image data from the image quality adjustment processing unit 36 into a video signal format that can be received by the display device 4 and outputs the image data to the display device 4.

動作管理部13は、画像制御装置2から出力される移動先の視点位置Bの情報に基づいて、移動後の視点位置Bまでの連続する視点位置(以下、C〜Cと記載する。nは自然数)を画像生成部11へ出力する。これにより、画像生成部11は、移動前の視点位置Aから移動後の視点位置Bまでの間で連続する視点位置C〜C(以下、視点位置Cと総称する場合がある)の仮想視点画像を順次生成して出力する。 The operation management unit 13 describes continuous viewpoint positions (hereinafter, C 1 to C n) up to the viewpoint position B after movement based on the information of the viewpoint position B of the movement destination output from the image control device 2. n is a natural number) is output to the image generation unit 11. As a result, the image generation unit 11 virtualizes the continuous viewpoint positions C 1 to C n (hereinafter, may be collectively referred to as the viewpoint position C) from the viewpoint position A before the movement to the viewpoint position B after the movement. Viewpoint images are sequentially generated and output.

図5は、視点位置Aから視点位置Bにかけて視点位置が連続的に移動する場合の各視点位置A、C〜C、Bの説明図であり、視点位置C〜CのうちCn/3、C2n/3のみを便宜的に示している。また、図5に示す例では、視点位置Aから視点位置Bへ向かうほど視点位置の高さが高くなる。 FIG. 5 is an explanatory diagram of the viewpoint positions A, C 1 to C n , and B when the viewpoint position continuously moves from the viewpoint position A to the viewpoint position B, and C of the viewpoint positions C 1 to C n . Only n / 3 and C 2n / 3 are shown for convenience. Further, in the example shown in FIG. 5, the height of the viewpoint position increases from the viewpoint position A toward the viewpoint position B.

なお、視点位置A、B間の視点位置Cの数は、視点位置A、B間で連続して移動する視点位置の仮想視点画像を車両の乗員が例えばシームレスに視認できるような数であるが、コマ送り的に視認されるような数であってもよい。 The number of viewpoint positions C between the viewpoint positions A and B is such that the occupant of the vehicle can seamlessly visually recognize the virtual viewpoint image of the viewpoint position that continuously moves between the viewpoint positions A and B, for example. , The number may be such that it can be visually recognized frame by frame.

図2に戻って、動作管理部13の説明を続ける。動作管理部13は、画像処理部12から仮想視点画像上に合成用画像が表示された画像を表示装置4へ出力させるか画像処理部12から合成用画像が非表示の仮想視点画像を表示装置4へ出力させるかを制御することができる。 Returning to FIG. 2, the description of the operation management unit 13 will be continued. The operation management unit 13 outputs the image in which the composite image is displayed on the virtual viewpoint image from the image processing unit 12 to the display device 4, or displays the virtual viewpoint image in which the composite image is not displayed from the image processing unit 12. It is possible to control whether to output to 4.

動作管理部13は、画像生成部11から視点位置A、Bの仮想視点画像が出力される場合、かかる仮想視点画像に合成用画像を合成した画像を画像処理部12に生成させて出力させる。一方、動作管理部13は、画像生成部11から視点位置Cの仮想視点画像が出力される場合には、合成用画像を合成していない仮想視点画像を画像処理部12から表示装置4へ出力させる。 When the virtual viewpoint images of the viewpoint positions A and B are output from the image generation unit 11, the operation management unit 13 causes the image processing unit 12 to generate and output an image obtained by synthesizing the composite image with the virtual viewpoint image. On the other hand, when the virtual viewpoint image at the viewpoint position C is output from the image generation unit 11, the operation management unit 13 outputs the virtual viewpoint image in which the composite image is not synthesized from the image processing unit 12 to the display device 4. Let me.

図6は、仮想視点が視点位置Aから視点位置Bまで移動する場合における画像処理部12による処理内容を示す説明図であり、垂直同期信号、仮想視点画像の視点位置、および、合成部35による合成機能のON/OFFの対応が示されている。 FIG. 6 is an explanatory diagram showing the processing contents by the image processing unit 12 when the virtual viewpoint moves from the viewpoint position A to the viewpoint position B, and is based on the vertical synchronization signal, the viewpoint position of the virtual viewpoint image, and the compositing unit 35. The correspondence of ON / OFF of the synthesis function is shown.

なお、図6においては、時刻t2よりも前に、画像制御装置2から移動先の視点位置Bの情報を取得し、かかる情報に基づき、動作管理部13が時刻t2から視点位置を変更する例を示している。また、図6に示す垂直同期信号は、画像のフレーム単位の区切りを示すために便宜的に示されるものである。 In FIG. 6, an example in which the information of the viewpoint position B of the movement destination is acquired from the image control device 2 before the time t2, and the operation management unit 13 changes the viewpoint position from the time t2 based on the information. Is shown. Further, the vertical synchronization signal shown in FIG. 6 is shown for convenience in order to indicate the frame unit division of the image.

図6に示すように、動作管理部13は、時刻t2までは、移動前の視点位置Aの仮想視点画像を画像生成部11に生成させ、視点位置Aの仮想視点画像に視点位置Aに対応する合成用画像を合成した合成画像を画像処理部12に生成させ出力させる。 As shown in FIG. 6, the operation management unit 13 causes the image generation unit 11 to generate a virtual viewpoint image of the viewpoint position A before movement until time t2, and the virtual viewpoint image of the viewpoint position A corresponds to the viewpoint position A. A composite image obtained by synthesizing the composite image is generated by the image processing unit 12 and output.

その後、動作管理部13は、時刻t2からt8まで、移動中の視点位置C〜Cの仮想視点画像を画像生成部11に生成させ、合成用画像と合成しない視点位置C〜Cの仮想視点画像を画像処理部12から出力させる。なお、図6に示す例では、1フレーム毎に視点が変わる例を示しているが、複数フレーム単位で視点が変わるようにしてもよい。 Then, the operation management unit 13, from the time t2 to t8, the virtual viewpoint image of viewpoint position C 1 -C 6 during the movement is generated to the image generating unit 11 does not synthesize the synthesized image viewpoint position C 1 -C 6 The virtual viewpoint image of is output from the image processing unit 12. Although the example shown in FIG. 6 shows an example in which the viewpoint changes for each frame, the viewpoint may change in units of a plurality of frames.

画像処理部12は、動作管理部13からの制御に基づき、時刻t2からt8までの間、伸張部34による伸張処理および合成部35による合成処理を停止させ、視点位置C〜Cの仮想視点画像を合成部35からそのまま画質調整処理部36へ出力させる。これにより、合成用画像と非合成の視点位置C〜Cの仮想視点画像が画像処理部12から出力される。 The image processing unit 12, under the control of the operation management unit 13, between the time t2 to t8, the expansion processing and synthesis processing by the synthesis section 35 by the decompression unit 34 is stopped, the virtual viewpoint position C 1 -C 6 The viewpoint image is output from the compositing unit 35 to the image quality adjusting processing unit 36 as it is. Thus, the virtual viewpoint image synthesis image and the non-synthetic viewpoint position C 1 -C 6 is outputted from the image processing unit 12.

その後、動作管理部13は、時刻t8になると、移動停止後の視点位置Bの仮想視点画像を画像生成部11に生成させて画像処理部12へ出力させ、視点位置Bの仮想視点画像に視点位置Bに応じた合成用画像を合成した合成画像を画像処理部12に生成させて表示装置4へ出力させる。 After that, at time t8, the operation management unit 13 causes the image generation unit 11 to generate a virtual viewpoint image of the viewpoint position B after the movement is stopped, outputs the image to the image processing unit 12, and displays the viewpoint on the virtual viewpoint image of the viewpoint position B. The image processing unit 12 generates a composite image obtained by synthesizing the composite image according to the position B, and outputs the composite image to the display device 4.

視点位置Bに応じた合成用画像は、時刻t8よりも前(例えば、時刻t2の前または時刻t3の前)に、画像制御装置2によって生成され画像処理装置3へ出力される。動作管理部13は、画像処理部12を制御し、画像制御装置2から出力される視点位置Bに応じた合成用画像のデータ圧縮後に記憶部33に記憶させておく。 The composite image corresponding to the viewpoint position B is generated by the image control device 2 and output to the image processing device 3 before the time t8 (for example, before the time t2 or before the time t3). The operation management unit 13 controls the image processing unit 12 and stores it in the storage unit 33 after compressing the data of the composite image according to the viewpoint position B output from the image control device 2.

そして、動作管理部13は、伸張部34によって記憶部33に記憶された圧縮画像データを伸張させ伸張部34から合成部35へ出力させ、時刻t8において、視点位置Bの仮想視点画像に視点位置Bに応じた合成用画像を合成部35に合成させる。これにより、視点位置Bの仮想視点画像に視点位置Bに応じた合成用画像を合成した合成画像を画像処理部12から出力させることができる。 Then, the operation management unit 13 expands the compressed image data stored in the storage unit 33 by the expansion unit 34 and outputs the compressed image data from the expansion unit 34 to the synthesis unit 35. At time t8, the viewpoint position is displayed on the virtual viewpoint image at the viewpoint position B. The compositing unit 35 synthesizes the compositing image corresponding to B. As a result, the image processing unit 12 can output a composite image obtained by synthesizing the composite image corresponding to the viewpoint position B with the virtual viewpoint image at the viewpoint position B.

なお、画像処理部12は、各視点位置に応じた合成用画像を予め画像制御装置2から取得し記憶部33に記憶することもできる。この場合、動作管理部13は、仮想視点画像の視点位置に応じた合成用画像を記憶部33から取得し伸張部34に伸張させて合成部35へ出力させることができる。 The image processing unit 12 can also acquire a composite image corresponding to each viewpoint position in advance from the image control device 2 and store it in the storage unit 33. In this case, the operation management unit 13 can acquire the compositing image according to the viewpoint position of the virtual viewpoint image from the storage unit 33, stretch it to the stretching unit 34, and output it to the compositing unit 35.

このように、画像処理部12は、仮想視点画像が仮想視点の移動前後の視点位置の画像である場合、合成画像を表示装置4に表示し、仮想視点画像が仮想視点の移動中の視点位置の画像である場合、合成画像に代えて仮想視点画像を表示装置4に表示する。これにより、車両の乗員は、仮想視点が移動中である場合の仮想視点画像および合成用画像をそれぞれ視認しなくてよいため、表示装置4に表示される仮想視点画像に基づいて距離感などの把握を容易に行うことができる。 As described above, when the virtual viewpoint image is an image of the viewpoint position before and after the movement of the virtual viewpoint, the image processing unit 12 displays the composite image on the display device 4, and the virtual viewpoint image is the viewpoint position during the movement of the virtual viewpoint. In the case of the image of, a virtual viewpoint image is displayed on the display device 4 instead of the composite image. As a result, the occupants of the vehicle do not have to visually recognize the virtual viewpoint image and the composite image when the virtual viewpoint is moving, so that the sense of distance and the like can be obtained based on the virtual viewpoint image displayed on the display device 4. It can be easily grasped.

また、画像処理部12は、仮想視点画像が仮想視点の移動中の視点位置の画像である場合、仮想視点画像と合成用画像との合成を停止することから、処理負荷を軽減することができる。 Further, when the virtual viewpoint image is an image of the viewpoint position during movement of the virtual viewpoint, the image processing unit 12 stops the composition of the virtual viewpoint image and the compositing image, so that the processing load can be reduced. ..

また、画像処理部12は、合成用画像として仮想視点に応じた画像を仮想視点の画像に合成する。そのため、共に視点位置が連続して変化する仮想視点画像と合成用画像とを同時に視認しなくてよいため、例えば、仮想視点画像から距離感などの把握しやすくなる。 Further, the image processing unit 12 synthesizes an image corresponding to the virtual viewpoint as a composite image with the image of the virtual viewpoint. Therefore, it is not necessary to visually recognize the virtual viewpoint image whose viewpoint position continuously changes and the composite image at the same time, so that it is easy to grasp the sense of distance from the virtual viewpoint image, for example.

なお、上述した例では、合成用画像は、仮想視点の視点位置に応じた画像であるものとして説明したが、仮想視点の視点位置に応じて合成用画像が連続して変化しなくてもよい。このような場合であっても、視点位置が連続して変化する仮想視点画像に合成用画像を合成しないことによって、視認性が向上することから、仮想視点画像を用いた表示をより適切に行うことができる。 In the above-mentioned example, the composite image is described as an image corresponding to the viewpoint position of the virtual viewpoint, but the composite image does not have to be continuously changed according to the viewpoint position of the virtual viewpoint. .. Even in such a case, the visibility is improved by not synthesizing the composite image with the virtual viewpoint image whose viewpoint position changes continuously, so that the display using the virtual viewpoint image is performed more appropriately. be able to.

[4.画像処理装置3の画像処理]
次に、図7を参照して画像処理装置3によって実行される画像処理について説明する。図7は、画像処理装置3が実行する画像処理手順を示すフローチャートである。
[4. Image processing of image processing device 3]
Next, the image processing executed by the image processing apparatus 3 will be described with reference to FIG. 7. FIG. 7 is a flowchart showing an image processing procedure executed by the image processing device 3.

図7に示すように、画像処理装置3の画像生成部11および画像処理部12は、画像取得処理を行う(ステップS1)。かかる処理において、画像生成部11は、撮像装置1から撮像画像を取得し、画像処理部12は、画像制御装置2から合成用画像を取得して記憶する。 As shown in FIG. 7, the image generation unit 11 and the image processing unit 12 of the image processing device 3 perform image acquisition processing (step S1). In such processing, the image generation unit 11 acquires the captured image from the image pickup device 1, and the image processing unit 12 acquires and stores the composite image from the image control device 2.

次に、画像生成部11は、ステップS1において取得した撮像画像を座標変換処理によって仮想視点画像へ変換する(ステップS2)。また、動作管理部13は、仮想視点の視点位置が移動中であるか否かを判定する(ステップS3)。 Next, the image generation unit 11 converts the captured image acquired in step S1 into a virtual viewpoint image by coordinate conversion processing (step S2). Further, the operation management unit 13 determines whether or not the viewpoint position of the virtual viewpoint is moving (step S3).

ステップS3において、仮想視点の視点位置が移動中でないと判定された場合(ステップS3;No)、画像処理部12は、ステップS1において記憶した合成用画像を取得し(ステップS4)、合成処理を行う(ステップS5)。かかる合成処理は、ステップS2において生成した仮想視点画像にステップS4で取得した合成用画像を合成することによって行う。 When it is determined in step S3 that the viewpoint position of the virtual viewpoint is not moving (step S3; No), the image processing unit 12 acquires the compositing image stored in step S1 (step S4) and performs compositing processing. (Step S5). Such a compositing process is performed by synthesizing the compositing image acquired in step S4 with the virtual viewpoint image generated in step S2.

ステップS3において、仮想視点の視点位置が移動中であると判定した場合(ステップS3;Yes)、または、ステップS5の処理が終了した場合、画像処理部12は、表示装置4に出力する画像の画質調整を行い(ステップS6)、画質調整後の画像を出力し(ステップS7)、処理を終了する。 When it is determined in step S3 that the viewpoint position of the virtual viewpoint is moving (step S3; Yes), or when the processing of step S5 is completed, the image processing unit 12 outputs the image to the display device 4. The image quality is adjusted (step S6), the image after the image quality is adjusted is output (step S7), and the process is completed.

以上のように、実施形態に係る画像処理装置3は、仮想視点画像が仮想視点の移動中の視点位置の画像である場合、合成画像に代えて仮想視点画像を表示装置4に出力するため、合成用画像の視認性を低下させることができ、仮想視点画像を用いた表示をより適切に行うことができる。 As described above, when the virtual viewpoint image is an image of the viewpoint position during movement of the virtual viewpoint, the image processing device 3 according to the embodiment outputs the virtual viewpoint image to the display device 4 instead of the composite image. The visibility of the composite image can be reduced, and the display using the virtual viewpoint image can be performed more appropriately.

なお、上述した実施形態では、画像処理装置3は、合成用画像を非表示にすることで、合成用画像の視認性をゼロにするが、合成用画像の透過度を高めたり色を薄くしたりすることによって、合成用画像の視認性を低下させることもできる。 In the above-described embodiment, the image processing device 3 hides the composite image to reduce the visibility of the composite image to zero, but increases the transparency of the composite image and reduces the color. By doing so, it is possible to reduce the visibility of the composite image.

例えば、仮想視点画像が仮想視点の移動中の視点位置の画像である場合、合成部35は、移動中の視点位置に応じた合成用画像の透過度を高めたり色を薄くしたりする処理を行った後、仮想視点画像に合成用画像を合成することができる。また、画像処理装置3は、合成用画像上に仮想視点画像を合成することによって、合成用画像の視認性をゼロにすることもできる。 For example, when the virtual viewpoint image is an image of the moving viewpoint position of the virtual viewpoint, the compositing unit 35 performs a process of increasing the transparency or lightening the color of the compositing image according to the moving viewpoint position. After that, the image for compositing can be combined with the virtual viewpoint image. Further, the image processing device 3 can also reduce the visibility of the composite image to zero by synthesizing the virtual viewpoint image on the composite image.

また、上述した実施形態では、撮像装置1を車両後方に配置し、撮像装置1によって車両後方を撮像するものとして説明したが、例えば、運転を支援するために車両周辺を撮像するものであれば撮像装置1はどのような配置および撮像方向であってもよい。また、撮像装置1を複数の箇所に配置し、画像処理装置3は、複数の撮像装置1から出力される撮像画像に基づいて仮想視点画像を生成することもできる。 Further, in the above-described embodiment, the image pickup device 1 is arranged at the rear of the vehicle and the image pickup device 1 is used to image the rear of the vehicle. The imaging device 1 may be arranged and in any imaging direction. Further, the image processing device 1 can be arranged at a plurality of locations, and the image processing device 3 can generate a virtual viewpoint image based on the captured images output from the plurality of image pickup devices 1.

また、上述した実施形態では、車両に搭載される車載装置100を構成する画像処理装置3を一例として説明したが、画像処理装置3は、例えば、スマートフォンなどに内蔵される画像処理装置であってもよい。 Further, in the above-described embodiment, the image processing device 3 constituting the in-vehicle device 100 mounted on the vehicle has been described as an example, but the image processing device 3 is, for example, an image processing device built in a smartphone or the like. May be good.

また、上述した実施形態では、合成用画像は、運転を支援するための指標となる画像を例に挙げて説明したが、例えば、利用者の利便性を高めるための合成用画像などであればよい。 Further, in the above-described embodiment, the composite image has been described by taking an image as an index for supporting driving as an example, but for example, if it is a composite image for enhancing user convenience, etc. good.

また、上述した実施形態では、仮想視点を移動する際に仮想視点の始点と終点の視点位置で合成画像を出力し、始点と終点との間の視点位置では合成画像を出力しない例を説明したが、かかる例に限定されない。 Further, in the above-described embodiment, an example has been described in which a composite image is output at the viewpoint positions of the start point and the end point of the virtual viewpoint when the virtual viewpoint is moved, and the composite image is not output at the viewpoint position between the start point and the end point. However, it is not limited to such an example.

例えば、画像処理部12は、仮想視点の始点と終点との間にある1以上の視点位置で合成画像を出力することもできる。この場合、合成用画像の変化が断片的に把握できるため、仮想視点画像に基づいて距離感などの把握を容易に行いつつも、合成用画像の位置変化を容易に把握することができる。 For example, the image processing unit 12 can output a composite image at one or more viewpoint positions between the start point and the end point of the virtual viewpoint. In this case, since the change in the composite image can be grasped in fragments, it is possible to easily grasp the position change of the composite image while easily grasping the sense of distance and the like based on the virtual viewpoint image.

また、上述した実施形態では、一つの合成用画像を仮想視点画像に合成する例を説明したが、種類が異なる複数の合成用画像を仮想視点画像に合成することもできる。この場合、画像処理部12は、仮想視点画像が仮想視点の移動中の視点位置の画像である場合、種類が異なる複数の合成用画像のうち少なくとも一つの合成用画像を仮想視点画像に合成しない等によって視認性を低下させる。このような場合であっても、仮想視点画像を用いた表示をより適切に行うことができる。 Further, in the above-described embodiment, an example of synthesizing one composite image with a virtual viewpoint image has been described, but a plurality of different types of composite images can be combined with a virtual viewpoint image. In this case, when the virtual viewpoint image is an image of the viewpoint position during movement of the virtual viewpoint, the image processing unit 12 does not combine at least one of the plurality of composite images of different types with the virtual viewpoint image. The visibility is lowered by such means. Even in such a case, the display using the virtual viewpoint image can be performed more appropriately.

この場合、画像処理部12は、例えば、仮想視点画像に合成する合成用画像の色などを薄くする等、合成用画像を目立たないようにして仮想視点画像との合成処理を行うことができる。 In this case, the image processing unit 12 can perform the compositing process with the virtual viewpoint image so that the compositing image is inconspicuous, for example, by lightening the color of the compositing image to be combined with the virtual viewpoint image.

また、上述した実施形態では、画像処理装置3は、移動先の視点位置Bの情報を取得した場合に視点位置C〜Cの情報を生成するものとして説明したが、視点位置C〜Cは、画像制御装置2によって生成されて画像処理装置3へ出力することもできる。 Further, in the above embodiment, the image processing apparatus 3 has been described as generating information of the viewpoint position C 1 -C n when acquiring the information of the destination of the viewpoint position B, the viewpoint position C 1 ~ C n may also be output is generated by the image control device 2 to the image processing apparatus 3.

また、上述した実施形態では、画像処理装置3は、データ圧縮を行った合成用画像を記憶するものとして説明したが、画像処理装置3は、データ圧縮を行わずに合成用画像を記憶することもできる。 Further, in the above-described embodiment, the image processing device 3 has been described as storing the composite image after data compression, but the image processing device 3 stores the composite image without performing data compression. You can also.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and variations can be easily derived by those skilled in the art. For this reason, the broader aspects of the invention are not limited to the particular details and representative embodiments expressed and described as described above. Therefore, various modifications can be made without departing from the spirit or scope of the general concept of the invention as defined by the appended claims and their equivalents.

1 撮像装置(撮像部の一例)
2 画像制御装置
3 画像処理装置
4 表示装置(表示部の一例)
5 車両
6 合成用画像生成部
7 画像制御部
8 操作部
10 撮像画像取得部
11 画像生成部
12 画像処理部
13 動作管理部
21 撮像画像取得部
22 仮想視点画像生成部
31 合成用画像取得部
32 圧縮部
33 記憶部
34 伸張部
35 合成部
36 画質調整処理部
37 画像出力部
1 Imaging device (an example of imaging unit)
2 Image control device 3 Image processing device 4 Display device (example of display unit)
5 Vehicle 6 Image generation unit for composition 7 Image control unit 8 Operation unit 10 Image acquisition unit 11 Image generation unit 12 Image processing unit 13 Operation management unit 21 Captured image acquisition unit 22 Virtual viewpoint image generation unit 31 Image acquisition unit for composition 32 Compression unit 33 Storage unit 34 Decompression unit 35 Synthesis unit 36 Image quality adjustment processing unit 37 Image output unit

Claims (7)

撮像部の撮像画像に基づき、仮想視点の画像を生成する画像生成部と、
前記仮想視点の画像上に合成用画像を表示した画像を生成する画像処理部と、を備え、
前記画像処理部は、
前記仮想視点の画像が前記仮想視点の移動中の視点位置の画像である場合、前記仮想視点の画像が前記仮想視点の移動中でない視点位置の画像であるときに表示される前記合成用画像の透過度に比べて、前記合成用画像の視認性が低下するように透明度を高めた前記仮想視点の画像を表示部に出力する
ことを特徴とする画像処理装置。
An image generation unit that generates a virtual viewpoint image based on the image captured by the image pickup unit,
It is provided with an image processing unit that generates an image in which a composite image is displayed on the virtual viewpoint image.
The image processing unit
When the image of the virtual viewpoint is an image of the viewpoint position while the virtual viewpoint is moving, the composite image displayed when the image of the virtual viewpoint is an image of the viewpoint position where the virtual viewpoint is not moving. An image processing device characterized in that an image of the virtual viewpoint whose transparency is increased so that the visibility of the composite image is lowered as compared with the transparency is output to a display unit.
撮像部の撮像画像に基づき、仮想視点の画像を生成する画像生成部と、
前記仮想視点の画像上に合成用画像を表示した画像を生成する画像処理部と、を備え、
前記画像処理部は、
前記仮想視点の画像が前記仮想視点の移動中の視点位置の画像である場合、前記仮想視点の画像が前記仮想視点の移動中でない視点位置の画像であるときに表示される前記合成用画像の色に比べて、前記合成用画像の視認性が低下するように色を薄くした前記仮想視点の画像を表示部に出力する
ことを特徴とする画像処理装置。
An image generation unit that generates a virtual viewpoint image based on the image captured by the image pickup unit,
It is provided with an image processing unit that generates an image in which a composite image is displayed on the virtual viewpoint image.
The image processing unit
When the image of the virtual viewpoint is an image of the viewpoint position while the virtual viewpoint is moving, the composite image displayed when the image of the virtual viewpoint is an image of the viewpoint position where the virtual viewpoint is not moving. compared to the color image processing apparatus characterized by visibility of the synthesis image is output to the display unit an image of the virtual viewpoint with a reduced color to decrease.
前記撮像部は、車両に配置され、
前記画像処理部は、予測される前記車両の走行軌跡を示すガイド線の画像を前記合成用画像として前記仮想視点の画像に合成する
ことを特徴とする請求項1または2に記載の画像処理装置。
The imaging unit is arranged in the vehicle and
The image processing apparatus according to claim 1 or 2, wherein the image processing unit synthesizes an image of a guide line showing a predicted traveling locus of the vehicle as an image for compositing with an image of the virtual viewpoint. ..
撮像部の撮像画像に基づき、仮想視点からみた画像である仮想視点画像を生成する生成工程と、
前記仮想視点の画像上に合成用画像を表示した画像を生成する処理工程と、を備え、
前記処理工程は、
前記仮想視点の画像が前記仮想視点の移動中の視点位置の画像である場合、前記仮想視点の画像が前記仮想視点の移動中でない視点位置の画像であるときに表示される前記合成用画像の透過度に比べて、前記合成用画像の視認性が低下するように透明度を高めた前記仮想視点の画像を表示部に出力する
ことを特徴とする画像処理方法。
A generation process for generating a virtual viewpoint image, which is an image viewed from a virtual viewpoint, based on the captured image of the imaging unit, and
A processing step of generating an image in which a composite image is displayed on the virtual viewpoint image is provided.
The processing step is
When the image of the virtual viewpoint is an image of the viewpoint position while the virtual viewpoint is moving, the composite image displayed when the image of the virtual viewpoint is an image of the viewpoint position where the virtual viewpoint is not moving. An image processing method characterized in that an image of the virtual viewpoint whose transparency is increased so that the visibility of the composite image is lowered as compared with the transparency is output to a display unit.
撮像部の撮像画像に基づき、仮想視点からみた画像である仮想視点画像を生成する生成工程と、
前記仮想視点の画像上に合成用画像を表示した画像を生成する処理工程と、を備え、
前記処理工程は、
前記仮想視点の画像が前記仮想視点の移動中の視点位置の画像である場合、前記仮想視点の画像が前記仮想視点の移動中でない視点位置の画像であるときに表示される前記合成用画像の色に比べて、前記合成用画像の視認性が低下するように色を薄くした前記仮想視点の画像を表示部に出力する
ことを特徴とする画像処理方法。
A generation process for generating a virtual viewpoint image, which is an image viewed from a virtual viewpoint, based on the captured image of the imaging unit, and
A processing step of generating an image in which a composite image is displayed on the virtual viewpoint image is provided.
The processing step is
When the image of the virtual viewpoint is an image of the viewpoint position while the virtual viewpoint is moving, the composite image displayed when the image of the virtual viewpoint is an image of the viewpoint position where the virtual viewpoint is not moving. compared to the color image processing method characterized in that visibility of the synthesis image is output to the display unit an image of the virtual viewpoint with a reduced color to decrease.
画像を表示する表示部と、
車両の周辺の画像を撮像し、当該撮像画像を出力する撮像部と、
前記撮像部の撮像画像に基づき、仮想視点の画像を生成する仮想視点画像生成部と、
合成用画像を生成する合成用画像生成部と、
前記仮想視点の画像上に合成用画像を表示した画像を生成して前記表示部に出力する画像処理部と、を備え、
前記画像処理部は、
前記仮想視点の画像が前記仮想視点の移動中の視点位置の画像である場合、前記仮想視点の画像が前記仮想視点の移動中でない視点位置の画像であるときに表示される前記合成用画像の透過度に比べて、前記合成用画像の視認性が低下するように透明度を高めた前記仮想視点の画像を前記表示部に出力する
ことを特徴とする車載装置。
A display unit that displays images and
An imaging unit that captures an image of the surroundings of the vehicle and outputs the captured image,
A virtual viewpoint image generation unit that generates a virtual viewpoint image based on the captured image of the imaging unit, and a virtual viewpoint image generation unit.
An image generator for compositing that generates an image for compositing,
An image processing unit that generates an image displaying a composite image on the virtual viewpoint image and outputs the image to the display unit is provided.
The image processing unit
When the image of the virtual viewpoint is an image of the viewpoint position while the virtual viewpoint is moving, the composite image displayed when the image of the virtual viewpoint is an image of the viewpoint position where the virtual viewpoint is not moving. An in-vehicle device characterized in that an image of the virtual viewpoint whose transparency is increased so that the visibility of the composite image is lowered as compared with the transparency is output to the display unit.
画像を表示する表示部と、
車両の周辺の画像を撮像し、当該撮像画像を出力する撮像部と、
前記撮像部の撮像画像に基づき、仮想視点の画像を生成する仮想視点画像生成部と、
合成用画像を生成する合成用画像生成部と、
前記仮想視点の画像上に合成用画像を表示した画像を生成して前記表示部に出力する画像処理部と、を備え、
前記画像処理部は、
前記仮想視点の画像が前記仮想視点の移動中の視点位置の画像である場合、前記仮想視点の画像が前記仮想視点の移動中でない視点位置の画像であるときに表示される前記合成用画像の色に比べて、前記合成用画像の視認性が低下するように色を薄くした前記仮想視点の画像を前記表示部に出力する
ことを特徴とする車載装置。
A display unit that displays images and
An imaging unit that captures an image of the surroundings of the vehicle and outputs the captured image,
A virtual viewpoint image generation unit that generates a virtual viewpoint image based on the captured image of the imaging unit, and a virtual viewpoint image generation unit.
An image generator for compositing that generates an image for compositing,
An image processing unit that generates an image displaying a composite image on the virtual viewpoint image and outputs the image to the display unit is provided.
The image processing unit
When the image of the virtual viewpoint is an image of the viewpoint position while the virtual viewpoint is moving, the composite image displayed when the image of the virtual viewpoint is an image of the viewpoint position where the virtual viewpoint is not moving. compared to the color, vehicle and wherein the visibility of the composite image to output an image of the virtual viewpoint with a reduced color to decrease on the display unit.
JP2019160583A 2015-04-24 2019-09-03 Image processing equipment, image processing methods and in-vehicle equipment Active JP6906576B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019160583A JP6906576B2 (en) 2015-04-24 2019-09-03 Image processing equipment, image processing methods and in-vehicle equipment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015089738A JP6585371B2 (en) 2015-04-24 2015-04-24 Image processing apparatus, image processing method, and in-vehicle apparatus
JP2019160583A JP6906576B2 (en) 2015-04-24 2019-09-03 Image processing equipment, image processing methods and in-vehicle equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015089738A Division JP6585371B2 (en) 2015-04-24 2015-04-24 Image processing apparatus, image processing method, and in-vehicle apparatus

Publications (2)

Publication Number Publication Date
JP2020074503A JP2020074503A (en) 2020-05-14
JP6906576B2 true JP6906576B2 (en) 2021-07-21

Family

ID=70610299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019160583A Active JP6906576B2 (en) 2015-04-24 2019-09-03 Image processing equipment, image processing methods and in-vehicle equipment

Country Status (1)

Country Link
JP (1) JP6906576B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7067851B1 (en) 2021-03-29 2022-05-16 ウィンボンド エレクトロニクス コーポレーション Semiconductor device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0870398A (en) * 1994-08-26 1996-03-12 Canon Inc Image input device
JP4569285B2 (en) * 2004-12-13 2010-10-27 日産自動車株式会社 Image processing device
WO2009144893A1 (en) * 2008-05-30 2009-12-03 三洋電機株式会社 Vehicle drive support device
JP2010219576A (en) * 2009-03-12 2010-09-30 Victor Co Of Japan Ltd Monitoring camera management system, management device, monitoring camera and monitoring camera management method
JP2014198104A (en) * 2013-03-29 2014-10-23 株式会社コナミデジタルエンタテインメント Game control device, game system, game control method, and program
JP2014225836A (en) * 2013-05-17 2014-12-04 キヤノン株式会社 Imaging device and control method of imaging device

Also Published As

Publication number Publication date
JP2020074503A (en) 2020-05-14

Similar Documents

Publication Publication Date Title
US10462372B2 (en) Imaging device, imaging system, and imaging method
JP4765649B2 (en) VEHICLE VIDEO PROCESSING DEVICE, VEHICLE PERIPHERAL MONITORING SYSTEM, AND VIDEO PROCESSING METHOD
JP2003102000A (en) Vehicle rear part monitoring method, vehicle rear part monitoring device, and signal processor
JP2007141098A (en) Image-processing device and image-processing method
US10647255B2 (en) Image processing device, image processing method, and on-vehicle apparatus
WO2018221209A1 (en) Image processing device, image processing method, and program
TWI505203B (en) Image processing method and image processing apparatus for generating vehicular image
JP5020792B2 (en) Composite image generation apparatus and composite image generation method
JP6906576B2 (en) Image processing equipment, image processing methods and in-vehicle equipment
JP4791222B2 (en) Display control device
JP6155674B2 (en) Vehicle visual recognition device
WO2006132112A1 (en) Curve plotting device, curve plotting method, parking support device, and vehicle
JP2012001101A (en) Parking assist system
KR102300651B1 (en) vehicle and control method thereof
JP2020135206A (en) Image processing device, on-vehicle camera system, and image processing method
US20210170946A1 (en) Vehicle surrounding image display device
JP2010130413A (en) Peripheral state display device
JP6421566B2 (en) Display device
JP2016207040A (en) Image processor, image processing method and on-vehicle apparatus
JPWO2016060268A1 (en) Image display system for vehicles
JP2007048071A (en) Image processor and image processing method
JP6229272B2 (en) Vehicle visual recognition device
JP2008312102A (en) Imaging data transmission method, imaging data transmission system, and in-vehicle display system
JP2004147210A (en) Driving support device
JP2009255608A (en) Vehicular display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210629

R150 Certificate of patent or registration of utility model

Ref document number: 6906576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150