JP2023029064A - Image processing device, image processing method, image capturing device, and mobile vehicle - Google Patents

Image processing device, image processing method, image capturing device, and mobile vehicle Download PDF

Info

Publication number
JP2023029064A
JP2023029064A JP2021135146A JP2021135146A JP2023029064A JP 2023029064 A JP2023029064 A JP 2023029064A JP 2021135146 A JP2021135146 A JP 2021135146A JP 2021135146 A JP2021135146 A JP 2021135146A JP 2023029064 A JP2023029064 A JP 2023029064A
Authority
JP
Japan
Prior art keywords
image
viewpoint
processor
captured
locations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021135146A
Other languages
Japanese (ja)
Inventor
亮太 永元
Ryota Nagamoto
康弘 福井
Yasuhiro Fukui
直樹 原田
Naoki Harada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2021135146A priority Critical patent/JP2023029064A/en
Publication of JP2023029064A publication Critical patent/JP2023029064A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To allow for providing viewpoint modified image with less distortion.SOLUTION: An image processing device 14 provided herein comprises an image interface 15 and a processor 18. The processor 18 estimates depth at multiple points in a captured image. The processor 18 converts the depth and image coordinates at the multiple points into three-dimensional coordinates corresponding to each of the multiple points. The processor 18 generates a viewpoint modified image having a viewpoint different from that of the captured image based on the three-dimensional coordinates.SELECTED DRAWING: Figure 5

Description

本発明は、画像処理装置、画像処理方法、撮像装置、及び移動体に関するものである。 The present invention relates to an image processing device, an image processing method, an imaging device, and a moving body.

カメラによって撮像された画像を、車両上方の仮想視点から俯瞰した座標に視点変換して表示手段に表示する技術が、提案されている(特許文献1参照) A technique has been proposed in which an image captured by a camera is converted from a virtual viewpoint above the vehicle into a bird's-eye coordinate and displayed on a display means (see Patent Document 1).

特開2003-125394号公報JP 2003-125394 A

しかしながら、上記の表示において、現実と相違する歪みが生じることがあった。 However, in the above display, distortions that differ from reality may occur.

従って、上記のような従来技術の問題点に鑑みてなされた本開示の目的は、歪みが軽減された視点変更画像を提供し得る画像処理装置、画像処理方法、撮像装置、及び移動体を提供することにある。 Accordingly, an object of the present disclosure, which has been made in view of the problems of the conventional technology as described above, is to provide an image processing device, an image processing method, an imaging device, and a moving body that can provide a viewpoint-changed image with reduced distortion. to do.

上述した諸課題を解決すべく、第1の観点による画像処理装置は、
撮像画像を取得する画像インタフェースと、
前記撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える。
In order to solve the above-mentioned problems, the image processing device according to the first aspect includes:
an image interface for acquiring a captured image;
estimating depths at a plurality of locations in the captured image; transforming the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations; and determining the captured image based on the three-dimensional coordinates. and a processor that generates a viewpoint-changed image with a different viewpoint.

第2の観点による画像処理方法は、
撮像画像を取得するステップと、
前記撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するステップと、を含む。
The image processing method according to the second aspect includes:
obtaining a captured image;
estimating depths at a plurality of locations in the captured image; transforming the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations; and determining the captured image based on the three-dimensional coordinates. and generating a viewpoint-changed image with a different viewpoint.

第3の観点による撮像装置は、
撮像により画像信号を生成する撮像部と、
撮像により画像信号を生成する撮像部と、
前記画像信号に相当する撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える。
The imaging device according to the third aspect is
an imaging unit that generates an image signal by imaging;
an imaging unit that generates an image signal by imaging;
estimating depths at a plurality of locations in a captured image corresponding to the image signal, converting the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations, and based on the three-dimensional coordinates and a processor that generates a viewpoint-changed image having a viewpoint different from that of the captured image.

第4の観点による移動体は、
本体と、
前記本体の所定の位置に所定の姿勢で固定されており、撮像により画像信号を生成する撮像部と、
前記画像信号に相当する撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える。
A moving object according to the fourth aspect is
the main body;
an imaging unit that is fixed at a predetermined position on the main body in a predetermined posture and that generates an image signal by imaging;
estimating depths at a plurality of locations in a captured image corresponding to the image signal, converting the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations, and based on the three-dimensional coordinates and a processor that generates a viewpoint-changed image having a viewpoint different from that of the captured image.

上記のように構成された本開示に係る画像処理装置、画像処理方法、撮像装置、および移動体によれば、歪みが軽減された視点変更画像が提供され得る。 According to the image processing device, image processing method, imaging device, and moving object according to the present disclosure configured as described above, a viewpoint-changed image with reduced distortion can be provided.

本実施形態に係る画像処理装置を含む撮像装置の移動体における位置を概念的に例示する外観図である。1 is an external view conceptually illustrating the position of an imaging device including an image processing device according to the present embodiment on a moving object; FIG. 図1の撮像装置の概略構成を示すブロック図である。2 is a block diagram showing a schematic configuration of the imaging device of FIG. 1; FIG. 図2のプロセッサが作成する視点変更画像を示す図である。3 is a diagram showing a viewpoint-changed image created by the processor of FIG. 2; FIG. 図2のプロセッサが、複数の視点変更画像を合成して単一の視点変更画像を生成する処理を説明する図である。FIG. 3 is a diagram illustrating a process in which the processor in FIG. 2 synthesizes a plurality of viewpoint-changed images to generate a single viewpoint-changed image; 図2のプロセッサが実行する処理を説明するためのフローチャートである。FIG. 3 is a flowchart for explaining processing executed by a processor in FIG. 2; FIG.

以下、本開示を適用した画像処理装置の実施形態が、図面を参照して説明される。 An embodiment of an image processing apparatus to which the present disclosure is applied will be described below with reference to the drawings.

本開示では、画像処理装置をそれぞれ含む、少なくとも1つの撮像装置が、移動体11の本体12の異なる位置に設けられる。本実施形態では、4つの撮像装置10a,10b,10c(図1及び4参照),10d(図4参照)が設けられる。撮像装置10a,10b,10c,10dは、移動体11の周辺を撮像可能に取り付けられている。以下の説明において、撮像装置10a、10b、10c、10dに共通する説明に対しては撮像装置10と記載することもある。 In the present disclosure, at least one imaging device, each including an image processing device, is provided at different positions on the body 12 of the moving object 11 . In this embodiment, four imaging devices 10a, 10b, 10c (see FIGS. 1 and 4) and 10d (see FIG. 4) are provided. The imaging devices 10a, 10b, 10c, and 10d are attached so as to be able to image the surroundings of the moving body 11. FIG. In the following description, the description common to the imaging devices 10a, 10b, 10c, and 10d may be referred to as the imaging device 10. FIG.

移動体11は、路面を移動可能な車両および航空機等を含んでよい。移動体11は、自動運転機能を有してよい。車両は、例えば自動車、産業車両、鉄道車両、生活車両、および滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、およびトロリーバス等を含んでよい。産業車両は、例えば農業および建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフトおよびゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。航空機は、例えば固定翼機および回転翼機等を含んでよい。 The mobile object 11 may include a vehicle, an aircraft, or the like that can move on a road surface. The moving body 11 may have an automatic driving function. Vehicles may include, for example, automobiles, industrial vehicles, railroad vehicles, utility vehicles, and fixed-wing aircraft that travel on runways, and the like. Motor vehicles may include, for example, cars, trucks, buses, motorcycles, trolleybuses, and the like. Industrial vehicles may include, for example, industrial vehicles for agriculture and construction, and the like. Industrial vehicles may include, for example, forklifts, golf carts, and the like. Industrial vehicles for agriculture may include, for example, tractors, cultivators, transplanters, binders, combines, lawn mowers, and the like. Industrial vehicles for construction may include, for example, bulldozers, scrapers, excavators, mobile cranes, tippers, road rollers, and the like. Vehicles may include those that are powered by humans. Vehicle classification is not limited to the above example. For example, automobiles may include road-drivable industrial vehicles. Multiple classifications may contain the same vehicle. Aircraft may include, for example, fixed-wing aircraft, rotary-wing aircraft, and the like.

図2に示すように、撮像装置10は、撮像部13および画像処理装置14を含んで構成される。 As shown in FIG. 2 , the imaging device 10 includes an imaging section 13 and an image processing device 14 .

撮像部13は、移動体11の周辺を撮像して撮像画像を生成し、画像処理装置14に付与する。図1及び4に示すように、撮像装置10a,10b,10c,10dは、移動体11の本体12の所定の位置に、所定の姿勢で固定されてよい。 The image capturing unit 13 captures an image of the surroundings of the moving body 11 to generate a captured image, and provides the captured image to the image processing device 14 . As shown in FIGS. 1 and 4, the imaging devices 10a, 10b, 10c, and 10d may be fixed at predetermined positions on the main body 12 of the moving body 11 in predetermined postures.

本実施形態においては、撮像装置10aは、本体12の上下方向における屋根近傍で、前方の、幅方向における中央に位置してよい。撮像装置10bは、本体12の左方のサイドミラーの下側に位置してよい。撮像装置10cは、本体12の右方のサイドミラーの下側に位置してよい。撮像装置10dは、本体12の上下方向における屋根近傍で、後方の、幅方向における中央に位置してよい。 In the present embodiment, the imaging device 10a may be positioned near the roof in the vertical direction of the main body 12 and in the front and center in the width direction. The imaging device 10 b may be positioned below the left side mirror of the main body 12 . The imaging device 10 c may be positioned below the right side mirror of the main body 12 . The imaging device 10d may be positioned in the vicinity of the roof in the vertical direction of the main body 12, in the rear, in the center in the width direction.

撮像装置10a,10dは、光軸が本体12のそれぞれ前方及び後方を向き、移動体11を静止させた状態で水平となるように、固定されていてよい。撮像装置10b,10cは、光軸が本体12の幅方向外側を向き、移動体11を静止させた状態で水平となるように、固定されていてよい。 The imaging devices 10a and 10d may be fixed so that their optical axes face the front and rear of the main body 12, respectively, and are horizontal when the moving body 11 is stationary. The imaging devices 10b and 10c may be fixed so that their optical axes face the outside in the width direction of the main body 12 and are horizontal when the moving body 11 is stationary.

撮像装置10a,10b,10c,10dには上下方向が定められており、撮像装置10a,10b,10c,10dは、光軸から見て撮像装置10a,10b,10c,10dの上下方向が本体12の上下方向に重なるように、固定されてよい。 The vertical direction of the imaging devices 10a, 10b, 10c, and 10d is determined. may be fixed so as to overlap in the vertical direction.

撮像装置10aは、本体12の前方周辺を撮像することにより撮像画像を生成する。撮像装置10bは、本体12の左側方周辺を撮像することにより撮像画像を生成する。撮像装置10cは、本体12の右側方周辺を撮像することにより撮像画像を生成する。撮像装置10dは、本体12の後方周辺を撮像することにより撮像画像を生成する。 The imaging device 10 a generates a captured image by capturing an image of the front periphery of the main body 12 . The imaging device 10 b generates a captured image by capturing an image of the left side periphery of the main body 12 . The imaging device 10 c generates a captured image by capturing an image of the right side periphery of the main body 12 . The imaging device 10d generates a captured image by imaging the rear periphery of the main body 12 .

図4に示すように、撮像装置10aの視野Faの一部と、撮像装置10bの視野Fbの一部及び撮像装置10cの視野Fcの一部とが重なってよい。撮像装置10dの視野Fdの一部と、撮像装置10bの視野Fbの一部及び撮像装置10cの視野Fcの一部とが重なってよい。 As shown in FIG. 4, part of the field of view Fa of the imaging device 10a may overlap with part of the field of view Fb of the imaging device 10b and part of the field of view Fc of the imaging device 10c. Part of the field of view Fd of the imaging device 10d may overlap with part of the field of view Fb of the imaging device 10b and part of the field of view Fc of the imaging device 10c.

図2に示すように、画像処理装置14は、画像インタフェース15およびプロセッサ18を含む。画像処理装置14は、更に、記憶部16および送信部17を含んでよい。 As shown in FIG. 2, image processing device 14 includes image interface 15 and processor 18 . The image processing device 14 may further include a storage section 16 and a transmission section 17 .

画像インタフェース15は、画像処理装置14の外部機器19からの多様な情報、および指令を受信する。画像インタフェース15は、例えば、撮像部13から撮像画像を取得する。 The image interface 15 receives various information and commands from an external device 19 of the image processing device 14 . The image interface 15 acquires a captured image from the imaging unit 13, for example.

記憶部16は、例えば、RAM(Random Access Memory)およびROM(Read Only Memory)など、任意の記憶デバイスを含む。記憶部16は、プロセッサ18を機能させる多様なプログラム、およびプロセッサ18が用いる多様な情報を記憶する。 The storage unit 16 includes arbitrary storage devices such as RAM (Random Access Memory) and ROM (Read Only Memory). The storage unit 16 stores various programs that cause the processor 18 to function and various information that the processor 18 uses.

記憶部16は、二次元の画像座標及び深度からの、撮像部13の位置を基準にした三次元座標への座標の変換式または変換表を記憶してよい。三次元座標は、本体12の前後方向、幅方向、および上下方向を軸としてよい。画像座標は、撮像部13の撮像画像における縦方向および横方向を軸としてよい。深度は、移動体11の撮像部13から撮像画像の各画素に対応する物点までの距離である。変換式または変換表は、撮像部13を本体12に固定する所定の位置および所定の姿勢に基づいて作成されていてよい。 The storage unit 16 may store a coordinate conversion formula or a conversion table from two-dimensional image coordinates and depths to three-dimensional coordinates based on the position of the imaging unit 13 . The three-dimensional coordinates may have the longitudinal direction, width direction, and vertical direction of the main body 12 as axes. The image coordinates may have the vertical direction and the horizontal direction of the captured image of the imaging unit 13 as axes. The depth is the distance from the imaging unit 13 of the moving body 11 to the object point corresponding to each pixel of the captured image. A conversion formula or a conversion table may be created based on a predetermined position and a predetermined posture for fixing the imaging unit 13 to the main body 12 .

送信部17は、後述するプロセッサ18が画像処理により生成する情報を外部機器19に送信する。 The transmission unit 17 transmits information generated by image processing by the processor 18 to be described later to the external device 19 .

プロセッサ18は、1以上のプロセッサおよびメモリを含む。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC;Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD;Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。プロセッサ18は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってもよい。 Processor 18 includes one or more processors and memory. The processor may include a general-purpose processor that loads a specific program to perform a specific function, and a dedicated processor that specializes in specific processing. A dedicated processor may include an Application Specific Integrated Circuit (ASIC). The processor may include a programmable logic device (PLD). A PLD may include an FPGA (Field-Programmable Gate Array). Processor 18 may be either a System-on-a-Chip (SoC), in which one or more processors work together, and a System In a Package (SiP).

プロセッサ18は、受信する画像に相当する単一の撮像画像の複数の箇所における深度を推定する。プロセッサ18は、任意の方法によって深度推定を行ってよい。プロセッサ18は、例えば、機械学習により構築された深度推定モデルを用いて、深度推定を行ってよい。プロセッサ18は、例えば撮像画像の各画素に対応する物点の、移動体11の撮像部13からの深度DEPTH_Yを推定してもよい。プロセッサ18は、深度推定を行う代わりに、LiDAR、超音波センサなどの測距センサを用いて検出する深度を用いてもよい。 Processor 18 estimates depth at multiple locations in a single captured image corresponding to the image it receives. Processor 18 may perform depth estimation by any method. Processor 18 may perform depth estimation using, for example, a depth estimation model constructed by machine learning. The processor 18 may estimate, for example, the depth DEPTH_Y of the object point corresponding to each pixel of the captured image from the imaging unit 13 of the moving object 11 . Instead of performing depth estimation, the processor 18 may use depth detected using a ranging sensor such as a LiDAR, an ultrasonic sensor, or the like.

プロセッサ18は、複数の箇所における前記深度及び画像座標を、複数の箇所それぞれに対応する三次元座標に変換する。具体的には、プロセッサ18は、複数の各箇所、言換えると各画素の画像座標(u,v)及び複数の箇所それぞれに対して推定した深度を用いて、三次元座標に変換する。例えば、プロセッサ18は、画像座標から、変換式を用いて三次元座標の単位ベクトル(ex,ey,ez)を算出する。プロセッサ18は、三次元座標の単位ベクトルにおける奥行き方向成分座標eyで、推定した深度DEPTH_Yを割ることにより、スケール(実距離)パラメータKを算出する。Kは、三次元座標の単位ベクトルと位置ベクトルとの比を示す。プロセッサ18は、Kを単位ベクトルの全成分(ex,ey,ez)に乗じることにより、三次元座標を算出する。 Processor 18 transforms the depth and image coordinates at multiple locations into three-dimensional coordinates corresponding to each of the multiple locations. Specifically, the processor 18 uses the image coordinates (u, v) of each of the plurality of locations, in other words, each pixel, and the depth estimated for each of the plurality of locations, to convert to three-dimensional coordinates. For example, the processor 18 calculates a three-dimensional coordinate unit vector (ex, ey, ez) from the image coordinates using a conversion formula. The processor 18 calculates a scale (actual distance) parameter K by dividing the estimated depth DEPTH_Y by the depth direction component coordinate ey in the three-dimensional coordinate unit vector. K indicates the ratio between the unit vector of the three-dimensional coordinates and the position vector. The processor 18 calculates three-dimensional coordinates by multiplying all components (ex, ey, ez) of the unit vector by K.

プロセッサ18は、三次元座標に基づき撮像画像とは視点が異なる視点変更画像を生成する。プロセッサ18は、各画素の画素値を、算出した三次元座標に対応付ける。プロセッサ18は、視点変更画像に対応する特定の方向から見た視点変更画像の二次元座標に、算出した三次元座標を変換する。プロセッサ18は、三次元座標に対応付けられた画素値を、視点変更画像の二次元座標に配置することにより視点変更画像を生成する。視点変更画像の視点は、例えば、図3及び4に示すような移動体11の鉛直上方から鉛直下方を向く。 The processor 18 generates a viewpoint-changed image whose viewpoint is different from that of the captured image based on the three-dimensional coordinates. The processor 18 associates the pixel value of each pixel with the calculated three-dimensional coordinates. The processor 18 transforms the calculated three-dimensional coordinates into two-dimensional coordinates of the viewpoint-changed image viewed from a specific direction corresponding to the viewpoint-changed image. The processor 18 generates the viewpoint-changed image by arranging the pixel values associated with the three-dimensional coordinates in the two-dimensional coordinates of the viewpoint-changed image. The viewpoint of the viewpoint-changed image, for example, faces vertically downward from vertically above the moving object 11 as shown in FIGS.

プロセッサ18は、撮像画像において被写体30で隠れた部分(以下、「不可視部分」という)を視点変更画像において、明示する態様で表示する。具体的には、上述のように、プロセッサ18は、撮像画像を構成する各画素を、上面視画像で対応する位置に移動させる。プロセッサ18は、上面視画像の一部に生じる、画像を構成する画素が存在しない領域Raを、不可視部分と認定する。プロセッサ18は、不可視部分に認定した領域Raを色付け等により明示させる。 The processor 18 displays a portion hidden by the subject 30 in the captured image (hereinafter referred to as an “invisible portion”) in the viewpoint-changed image in a clear manner. Specifically, as described above, the processor 18 moves each pixel forming the captured image to the corresponding position in the top view image. The processor 18 recognizes an area Ra, which is generated in a part of the top-view image and in which pixels constituting the image do not exist, as an invisible portion. The processor 18 makes the region Ra identified as the invisible portion clearly indicated by coloring or the like.

プロセッサ18は、不可視部分に認定した領域Raを生じさせる被写体30を正面上方から見た図を、拡大して表示してもよい。具体的に、図3を参照して、プロセッサ18は、領域Raにおいて移動体11に最も近い部分及び当該部分の近傍31を、拡大して表示する。当該部分の近傍31には被写体30が映る。それゆえ運転者は、拡大表示を見て、被写体30の詳細を認識し得る。 The processor 18 may display an enlarged view of the subject 30 that produces the region Ra identified as the invisible portion as viewed from above the front. Specifically, referring to FIG. 3, the processor 18 enlarges and displays the portion closest to the moving body 11 in the area Ra and the vicinity 31 of the portion. A subject 30 appears in the vicinity 31 of the relevant portion. Therefore, the driver can see the magnified display and recognize the details of the subject 30 .

プロセッサ18は、複数の撮像画像それぞれから複数の視点変更画像を生成してもよい。複数の視点変更画像の視点は同じであってよい。プロセッサ18は、当該複数の視点変更画像を合成して、図4に示す単一の視点変更画像を生成してもよい。 The processor 18 may generate a plurality of viewpoint-changed images from each of the plurality of captured images. A plurality of viewpoint-changed images may have the same viewpoint. Processor 18 may combine the multiple viewpoint-changed images to generate a single viewpoint-changed image shown in FIG.

以下、プロセッサ18が単一の視点変更画像を生成する処理の例が示される。プロセッサ18は、上述したように、4つの撮像装置10a,10b,10c,10dそれぞれの撮像画像から、同じ視点の4つの視点変更画像を生成する。プロセッサ18は、4つの視点変更画像の中の、部分的に重複する2つの視点変更画像の重複部分については当該2つの視点変更画像の少なくとも一方の画素を用いて合成画像を作成する。プロセッサ18は、重複部分について2つの視点変更画像のそれぞれの画素を用いる場合、2つの画素の画素値の平均値、重み付け平均値等を当該画素の画素値に定めてよい。 An example of the process by which the processor 18 generates a single view-changed image is shown below. As described above, the processor 18 generates four viewpoint-changed images of the same viewpoint from the captured images of the four imaging devices 10a, 10b, 10c, and 10d. The processor 18 creates a composite image using pixels of at least one of the two partially overlapping viewpoint-changed images among the four viewpoint-changed images. When using the pixels of the two viewpoint-changed images for the overlapping portion, the processor 18 may determine the average value, weighted average value, or the like of the pixel values of the two pixels as the pixel value of the pixel.

図4に示すような、複数の視点変更画像を合成した画像においても、画像を構成する画素が存在しない領域R’が存在する。プロセッサ18は、当該領域R’を不可視部分と認定し、上面視画像において、色付け等により明示させる。 Even in an image obtained by synthesizing a plurality of viewpoint-changed images as shown in FIG. 4, there is a region R' in which there are no pixels constituting the image. The processor 18 recognizes the region R' as an invisible portion, and makes it visible by coloring or the like in the top view image.

本実施形態では、撮像装置10a,10b,10c,10dの一つの撮像範囲が、他の撮像装置の撮像範囲と重複する。撮像位置が異なりながら撮像範囲が重複することで、プロセッサ18は、ある撮像装置の撮像画像において被写体の裏に位置する部分を、他の撮像画像に基づいて補完し得る。具体的に、複数の視点変更画像の合成画像では、プロセッサ18が上述のような合成を行うことにより、撮像装置10aの撮像画像において被写体30の裏に位置する部分が、他の撮像装置10bの撮像画像に基づいて補完され得る。撮像装置10aに対応する視点変更画像における、不可視部分に認定した領域Raの一部の領域Raoは、撮像装置10bに対応する視点変更画像により補完される。また、撮像装置10bに対応する視点変更画像における不可視部分に認定した領域Rfの一部の領域Rboが、撮像装置10aに対応する視点変更画像により補完される。プロセッサ18は、当該領域Rao及びRboを、例えば不可視部分R’とは異なる色付けにより明示させてもよい。 In this embodiment, the imaging range of one of the imaging devices 10a, 10b, 10c, and 10d overlaps the imaging range of the other imaging devices. By overlapping the imaging ranges while the imaging positions are different, the processor 18 can interpolate the part located behind the subject in the captured image of one imaging device based on the other captured image. Specifically, in the synthesized image of a plurality of viewpoint-changed images, the processor 18 performs synthesis as described above, so that the part located behind the subject 30 in the image captured by the imaging device 10a is replaced by the image captured by the other imaging device 10b. Complementation may be performed based on the captured image. In the viewpoint-changed image corresponding to the imaging device 10a, the region Rao, which is a part of the region Ra identified as the invisible portion, is complemented by the viewpoint-changed image corresponding to the imaging device 10b. Further, a partial region Rbo of the region Rf recognized as an invisible portion in the viewpoint-changed image corresponding to the imaging device 10b is complemented by the viewpoint-changed image corresponding to the imaging device 10a. The processor 18 may cause the regions Rao and Rbo to be highlighted, for example by coloring differently than the invisible portion R'.

プロセッサ18は、図4に示すような、不可視部分に認定した領域R’を生じさせる被写体30を正面上方から見た図を生成する。具体的に、プロセッサ18は、領域R’において移動体11に最も近い部分及び当該部分の近傍31を、拡大して表示する。 The processor 18 generates a top front view of the subject 30 that produces the region R' identified as the invisible portion, as shown in FIG. Specifically, the processor 18 enlarges and displays the portion closest to the moving object 11 and the vicinity 31 of the portion in the region R'.

プロセッサ18は、撮像画像から路面の種類を認識してよい。路面は、例えば、車道及び歩道である。プロセッサ18は、歩道を示す領域Rfを、図3及び4の横縞模様のように、ユーザに示してもよい。路面の種類の認識は、任意の方法によって行われてよい。プロセッサ18は、例えば、上述した三次元座標から得られる路面の高さ情報を利用して認識を行ってよい。一般に、車道と非車道路面との間には高低差が存在する。非車道路面は、車道よりも高いことが一般的である。プロセッサ18は、車道と非車道路面との間の高低差を利用して、路面の種類の認識精度を向上し得る。 The processor 18 may recognize the type of road surface from the captured image. Road surfaces are, for example, roadways and sidewalks. Processor 18 may indicate to the user a region Rf indicating a sidewalk, such as the horizontal stripes in FIGS. Recognizing the type of road surface may be done by any method. The processor 18 may perform recognition using, for example, road surface height information obtained from the three-dimensional coordinates described above. In general, there is a height difference between the carriageway and the non-carriageway surface. The non-vehicular road surface is generally higher than the roadway. The processor 18 may take advantage of the difference in elevation between vehicular and non-vehicle road surfaces to improve the accuracy of road surface type recognition.

次に、本実施形態においてプロセッサ18により実行される、視点変更画像を生成する処理が、図5のフローチャートを用いて説明される。プロセッサ18は、視点変更画像を生成する処理を、例えば撮像部13から1フレームの画像を取得するたびに開始する。 Next, processing for generating a viewpoint-changed image, which is executed by the processor 18 in this embodiment, will be described using the flowchart of FIG. The processor 18 starts the process of generating a viewpoint-changed image each time an image of one frame is acquired from the imaging unit 13, for example.

ステップS100において、プロセッサ18は、撮像部13に画像を撮像させる。プロセッサ18は、画像インタフェース15を介して、撮像部13に生成させた撮像画像を取得する。ステップS101において、プロセッサ18は、受信した撮像画像に対して深度推定を行う。ステップS102において、プロセッサ18は、撮像画像の各画素に対してステップS101において推定した深度を用いて、三次元座標変換を行う。ステップS103において、プロセッサ18は、三次元座標に基づき撮像画像とは視点が異なる視点変更画像を生成する。ステップS104において、プロセッサ18は、撮像画像から路面の種類を認識する。 In step S100, the processor 18 causes the imaging unit 13 to capture an image. The processor 18 acquires the captured image generated by the imaging unit 13 via the image interface 15 . In step S101, the processor 18 performs depth estimation on the received captured image. In step S102, the processor 18 performs three-dimensional coordinate transformation using the depth estimated in step S101 for each pixel of the captured image. In step S103, the processor 18 generates a viewpoint-changed image whose viewpoint is different from that of the captured image based on the three-dimensional coordinates. In step S104, the processor 18 recognizes the type of road surface from the captured image.

ステップS105において、プロセッサ18は、複数の撮像画像別に、複数の視点変更画像を生成し、前記複数の視点変更画像を合成して単一の視点変更画像を生成する。ステップS106において、プロセッサ18は、撮像画像における不可視部分を認定する。更に、プロセッサ18は、視点変更画像において、不可視部分に認定した領域を色付ける。 In step S105, the processor 18 generates a plurality of viewpoint-changed images for each of the plurality of captured images, and combines the plurality of viewpoint-changed images to generate a single viewpoint-changed image. At step S106, the processor 18 identifies invisible portions in the captured image. Further, the processor 18 colors the regions identified as invisible in the viewpoint-changed image.

視点変更画像が二次元の画像座標のみに基づいて生成される構成では、高さの大きな物体は歪んで大きく表示されることがある。これに対し、本実施形態の画像処理装置14は、撮像画像の複数の箇所における深度を推定し、複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、三次元座標に基づき撮像画像とは視点が異なる視点変更画像を生成する。このような構成により、画像処理装置14は、物体の高さに基づいて視点変更画像を生成する。それゆえ、画像処理装置14は、歪みが軽減された視点変更画像を提供し得る。 In a configuration in which a viewpoint-changed image is generated based only on two-dimensional image coordinates, a tall object may be distorted and displayed large. On the other hand, the image processing device 14 of the present embodiment estimates depths at a plurality of locations in a captured image, and converts the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations. , a viewpoint-changed image having a viewpoint different from that of the captured image is generated based on the three-dimensional coordinates. With such a configuration, the image processing device 14 generates a viewpoint-changed image based on the height of the object. Therefore, the image processing device 14 can provide a viewpoint-changed image with reduced distortion.

また、本実施形態の画像処理装置14は、視点変更画像に、不可視部分であることを、すなわち撮像画像において被写体で隠れた部分であることを示すように表示させた画像を生成する。このような構成により、画像処理装置14は、運転者に当該部分を注意させ得る。 Further, the image processing apparatus 14 of the present embodiment generates an image in which the viewpoint-changed image is displayed so as to indicate that it is an invisible portion, that is, that it is a portion hidden by the subject in the captured image. With such a configuration, the image processing device 14 can make the driver pay attention to the relevant portion.

また、本実施形態の画像処理装置14は、複数の撮像画像の中の一つの撮像画像における被写体の裏に位置する部分を、該一つの撮像画像以外の前記複数の撮像画像に基づいて補完する。それゆえに、画像処理装置14は、歪みが軽減された視点変更画像同士で補完し、歪みが軽減された状態でより不可視領域の少ない画像を作成し得る。 In addition, the image processing apparatus 14 of the present embodiment complements the portion located behind the subject in one captured image among the plurality of captured images based on the plurality of captured images other than the one captured image. . Therefore, the image processing device 14 can complement each other with the viewpoint-changed images with reduced distortion, and can create an image with less invisible regions with reduced distortion.

また、本実施形態の画像処理装置14は、前記複数の撮像画像別に、複数の前記視点変更画像を生成し、前記複数の視点変更画像を合成して単一の視点変更画像を生成する。このような構成により、画像処理装置14は、より広い領域を表示する視点変更画像を生成し得る。 Further, the image processing apparatus 14 of the present embodiment generates a plurality of the viewpoint-changed images for each of the plurality of captured images, and combines the plurality of viewpoint-changed images to generate a single viewpoint-changed image. With such a configuration, the image processing device 14 can generate a viewpoint-changed image that displays a wider area.

本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。 Although the present invention has been described with reference to the drawings and examples, it should be noted that various variations and modifications will be readily apparent to those skilled in the art based on this disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention.

10a,10b,10c,10d 撮像装置
11 移動体
12 本体
13 撮像部
14 画像処理装置
15 画像インタフェース
16 記憶部
17 送信部
18 プロセッサ
19 外部機器
30 被写体
31 拡大表示される部分
Fa,Fb,Fc,Fd 視野
R1,R2,R’ 不可視領域に認識された領域
Rao,Rbo 補完された領域
Rf 歩道を示す領域
10a, 10b, 10c, 10d Imaging device 11 Moving body 12 Main body 13 Imaging unit 14 Image processing device 15 Image interface 16 Storage unit 17 Transmission unit 18 Processor 19 External device 30 Subject 31 Enlarged portion Fa, Fb, Fc, Fd Field of view R1, R2, R' Area recognized as invisible area Rao, Rbo Complemented area Rf Area showing sidewalk

Claims (7)

撮像画像を取得する画像インタフェースと、
前記撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える
画像処理装置。
an image interface for acquiring a captured image;
estimating depths at a plurality of locations in the captured image; transforming the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations; and determining the captured image based on the three-dimensional coordinates. An image processing device comprising: a processor that generates a viewpoint-changed image with a different viewpoint.
請求項1に記載の画像処理装置において、
前記プロセッサは、前記視点変更画像に、前記撮像画像において被写体で隠れた部分であることを示すように表示させた画像を生成する
画像処理装置。
The image processing device according to claim 1,
The processor generates an image displayed in the viewpoint-changed image so as to indicate a portion hidden by a subject in the captured image.
請求項1又は2に記載の画像処理装置において、
前記画像インタフェースが取得する前記撮像画像は、互いに一部の撮像範囲が重なり、それぞれ異なる位置から撮像した複数の撮像画像を含み、
前記プロセッサは、前記複数の撮像画像の中の一つの撮像画像における被写体の裏に位置する部分を、該一つの撮像画像以外の前記複数の撮像画像に基づいて補完する
画像処理装置。
The image processing device according to claim 1 or 2,
The captured image acquired by the image interface includes a plurality of captured images that partially overlap each other and are captured from different positions,
The image processing device, wherein the processor interpolates a portion located behind a subject in one captured image among the plurality of captured images based on the plurality of captured images other than the one captured image.
請求項3に記載の画像処理装置において、
前記プロセッサは、前記複数の撮像画像別に、複数の前記視点変更画像を生成し、前記複数の視点変更画像を合成して単一の視点変更画像を生成する
画像処理装置。
In the image processing device according to claim 3,
The processor generates a plurality of the viewpoint-changed images for each of the plurality of captured images, and combines the plurality of viewpoint-changed images to generate a single viewpoint-changed image.
撮像画像を取得するステップと、
前記撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するステップと、を含む
画像処理方法。
obtaining a captured image;
estimating depths at a plurality of locations in the captured image; transforming the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations; and determining the captured image based on the three-dimensional coordinates. and generating a viewpoint-changed image with a different viewpoint.
撮像により画像信号を生成する撮像部と、
前記画像信号に相当する撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える
撮像装置。
an imaging unit that generates an image signal by imaging;
estimating depths at a plurality of locations in a captured image corresponding to the image signal, converting the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations, and based on the three-dimensional coordinates and a processor that generates a viewpoint-changed image whose viewpoint is different from that of the captured image.
本体と、
前記本体の所定の位置に所定の姿勢で固定されており、撮像により画像信号を生成する撮像部と、
前記画像信号に相当する撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える
移動体。
the main body;
an imaging unit that is fixed at a predetermined position on the main body in a predetermined posture and that generates an image signal by imaging;
estimating depths at a plurality of locations in a captured image corresponding to the image signal, converting the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations, and based on the three-dimensional coordinates a processor that generates a viewpoint-changed image having a viewpoint different from that of the captured image.
JP2021135146A 2021-08-20 2021-08-20 Image processing device, image processing method, image capturing device, and mobile vehicle Pending JP2023029064A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021135146A JP2023029064A (en) 2021-08-20 2021-08-20 Image processing device, image processing method, image capturing device, and mobile vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021135146A JP2023029064A (en) 2021-08-20 2021-08-20 Image processing device, image processing method, image capturing device, and mobile vehicle

Publications (1)

Publication Number Publication Date
JP2023029064A true JP2023029064A (en) 2023-03-03

Family

ID=85330888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021135146A Pending JP2023029064A (en) 2021-08-20 2021-08-20 Image processing device, image processing method, image capturing device, and mobile vehicle

Country Status (1)

Country Link
JP (1) JP2023029064A (en)

Similar Documents

Publication Publication Date Title
JP6675448B2 (en) Vehicle position detecting method and device
US9672432B2 (en) Image generation device
US9467679B2 (en) Vehicle periphery monitoring device
JP4861574B2 (en) Driving assistance device
KR101911610B1 (en) Method and device for the distortion-free display of an area surrounding a vehicle
US20090015675A1 (en) Driving Support System And Vehicle
WO2017056484A1 (en) Image processing device, stereo camera device, vehicle, and image processing method
US20100259372A1 (en) System for displaying views of vehicle and its surroundings
JP6565188B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
EP2642364B1 (en) Method for warning the driver of a motor vehicle about the presence of an object in the surroundings of the motor vehicle, camera system and motor vehicle
JP2009206747A (en) Ambient condition monitoring system for vehicle, and video display method
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP5516998B2 (en) Image generation device
CN111971682A (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP6589313B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
WO2022119997A1 (en) System and method of directing three dimensional scanning
JP5083443B2 (en) Driving support device and method, and arithmetic device
US10769804B2 (en) Parallax calculation apparatus, stereo camera apparatus, vehicle, and parallax calculation method
JP2023029064A (en) Image processing device, image processing method, image capturing device, and mobile vehicle
JP7047291B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
JP2022152922A (en) Electronic apparatus, movable body, imaging apparatus, and control method for electronic apparatus, program, and storage medium
JP7345369B2 (en) Image processing devices, imaging devices, and moving objects
WO2021132227A1 (en) Information processing device, sensing device, moving body, and information processing method
JP7345601B2 (en) Image processing device, camera, moving object, and image processing method
WO2017086057A1 (en) Display device for vehicles and display method for vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231117