JP2023029064A - Image processing device, image processing method, image capturing device, and mobile vehicle - Google Patents
Image processing device, image processing method, image capturing device, and mobile vehicle Download PDFInfo
- Publication number
- JP2023029064A JP2023029064A JP2021135146A JP2021135146A JP2023029064A JP 2023029064 A JP2023029064 A JP 2023029064A JP 2021135146 A JP2021135146 A JP 2021135146A JP 2021135146 A JP2021135146 A JP 2021135146A JP 2023029064 A JP2023029064 A JP 2023029064A
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- processor
- captured
- locations
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title description 5
- 238000003384 imaging method Methods 0.000 claims description 67
- 230000001131 transforming effect Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004040 coloring Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000011230 binding agent Substances 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、撮像装置、及び移動体に関するものである。 The present invention relates to an image processing device, an image processing method, an imaging device, and a moving body.
カメラによって撮像された画像を、車両上方の仮想視点から俯瞰した座標に視点変換して表示手段に表示する技術が、提案されている(特許文献1参照) A technique has been proposed in which an image captured by a camera is converted from a virtual viewpoint above the vehicle into a bird's-eye coordinate and displayed on a display means (see Patent Document 1).
しかしながら、上記の表示において、現実と相違する歪みが生じることがあった。 However, in the above display, distortions that differ from reality may occur.
従って、上記のような従来技術の問題点に鑑みてなされた本開示の目的は、歪みが軽減された視点変更画像を提供し得る画像処理装置、画像処理方法、撮像装置、及び移動体を提供することにある。 Accordingly, an object of the present disclosure, which has been made in view of the problems of the conventional technology as described above, is to provide an image processing device, an image processing method, an imaging device, and a moving body that can provide a viewpoint-changed image with reduced distortion. to do.
上述した諸課題を解決すべく、第1の観点による画像処理装置は、
撮像画像を取得する画像インタフェースと、
前記撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える。
In order to solve the above-mentioned problems, the image processing device according to the first aspect includes:
an image interface for acquiring a captured image;
estimating depths at a plurality of locations in the captured image; transforming the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations; and determining the captured image based on the three-dimensional coordinates. and a processor that generates a viewpoint-changed image with a different viewpoint.
第2の観点による画像処理方法は、
撮像画像を取得するステップと、
前記撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するステップと、を含む。
The image processing method according to the second aspect includes:
obtaining a captured image;
estimating depths at a plurality of locations in the captured image; transforming the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations; and determining the captured image based on the three-dimensional coordinates. and generating a viewpoint-changed image with a different viewpoint.
第3の観点による撮像装置は、
撮像により画像信号を生成する撮像部と、
撮像により画像信号を生成する撮像部と、
前記画像信号に相当する撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える。
The imaging device according to the third aspect is
an imaging unit that generates an image signal by imaging;
an imaging unit that generates an image signal by imaging;
estimating depths at a plurality of locations in a captured image corresponding to the image signal, converting the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations, and based on the three-dimensional coordinates and a processor that generates a viewpoint-changed image having a viewpoint different from that of the captured image.
第4の観点による移動体は、
本体と、
前記本体の所定の位置に所定の姿勢で固定されており、撮像により画像信号を生成する撮像部と、
前記画像信号に相当する撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える。
A moving object according to the fourth aspect is
the main body;
an imaging unit that is fixed at a predetermined position on the main body in a predetermined posture and that generates an image signal by imaging;
estimating depths at a plurality of locations in a captured image corresponding to the image signal, converting the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations, and based on the three-dimensional coordinates and a processor that generates a viewpoint-changed image having a viewpoint different from that of the captured image.
上記のように構成された本開示に係る画像処理装置、画像処理方法、撮像装置、および移動体によれば、歪みが軽減された視点変更画像が提供され得る。 According to the image processing device, image processing method, imaging device, and moving object according to the present disclosure configured as described above, a viewpoint-changed image with reduced distortion can be provided.
以下、本開示を適用した画像処理装置の実施形態が、図面を参照して説明される。 An embodiment of an image processing apparatus to which the present disclosure is applied will be described below with reference to the drawings.
本開示では、画像処理装置をそれぞれ含む、少なくとも1つの撮像装置が、移動体11の本体12の異なる位置に設けられる。本実施形態では、4つの撮像装置10a,10b,10c(図1及び4参照),10d(図4参照)が設けられる。撮像装置10a,10b,10c,10dは、移動体11の周辺を撮像可能に取り付けられている。以下の説明において、撮像装置10a、10b、10c、10dに共通する説明に対しては撮像装置10と記載することもある。
In the present disclosure, at least one imaging device, each including an image processing device, is provided at different positions on the
移動体11は、路面を移動可能な車両および航空機等を含んでよい。移動体11は、自動運転機能を有してよい。車両は、例えば自動車、産業車両、鉄道車両、生活車両、および滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、およびトロリーバス等を含んでよい。産業車両は、例えば農業および建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフトおよびゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。航空機は、例えば固定翼機および回転翼機等を含んでよい。
The
図2に示すように、撮像装置10は、撮像部13および画像処理装置14を含んで構成される。
As shown in FIG. 2 , the
撮像部13は、移動体11の周辺を撮像して撮像画像を生成し、画像処理装置14に付与する。図1及び4に示すように、撮像装置10a,10b,10c,10dは、移動体11の本体12の所定の位置に、所定の姿勢で固定されてよい。
The
本実施形態においては、撮像装置10aは、本体12の上下方向における屋根近傍で、前方の、幅方向における中央に位置してよい。撮像装置10bは、本体12の左方のサイドミラーの下側に位置してよい。撮像装置10cは、本体12の右方のサイドミラーの下側に位置してよい。撮像装置10dは、本体12の上下方向における屋根近傍で、後方の、幅方向における中央に位置してよい。
In the present embodiment, the
撮像装置10a,10dは、光軸が本体12のそれぞれ前方及び後方を向き、移動体11を静止させた状態で水平となるように、固定されていてよい。撮像装置10b,10cは、光軸が本体12の幅方向外側を向き、移動体11を静止させた状態で水平となるように、固定されていてよい。
The
撮像装置10a,10b,10c,10dには上下方向が定められており、撮像装置10a,10b,10c,10dは、光軸から見て撮像装置10a,10b,10c,10dの上下方向が本体12の上下方向に重なるように、固定されてよい。
The vertical direction of the
撮像装置10aは、本体12の前方周辺を撮像することにより撮像画像を生成する。撮像装置10bは、本体12の左側方周辺を撮像することにより撮像画像を生成する。撮像装置10cは、本体12の右側方周辺を撮像することにより撮像画像を生成する。撮像装置10dは、本体12の後方周辺を撮像することにより撮像画像を生成する。
The
図4に示すように、撮像装置10aの視野Faの一部と、撮像装置10bの視野Fbの一部及び撮像装置10cの視野Fcの一部とが重なってよい。撮像装置10dの視野Fdの一部と、撮像装置10bの視野Fbの一部及び撮像装置10cの視野Fcの一部とが重なってよい。
As shown in FIG. 4, part of the field of view Fa of the
図2に示すように、画像処理装置14は、画像インタフェース15およびプロセッサ18を含む。画像処理装置14は、更に、記憶部16および送信部17を含んでよい。
As shown in FIG. 2,
画像インタフェース15は、画像処理装置14の外部機器19からの多様な情報、および指令を受信する。画像インタフェース15は、例えば、撮像部13から撮像画像を取得する。
The
記憶部16は、例えば、RAM(Random Access Memory)およびROM(Read Only Memory)など、任意の記憶デバイスを含む。記憶部16は、プロセッサ18を機能させる多様なプログラム、およびプロセッサ18が用いる多様な情報を記憶する。
The
記憶部16は、二次元の画像座標及び深度からの、撮像部13の位置を基準にした三次元座標への座標の変換式または変換表を記憶してよい。三次元座標は、本体12の前後方向、幅方向、および上下方向を軸としてよい。画像座標は、撮像部13の撮像画像における縦方向および横方向を軸としてよい。深度は、移動体11の撮像部13から撮像画像の各画素に対応する物点までの距離である。変換式または変換表は、撮像部13を本体12に固定する所定の位置および所定の姿勢に基づいて作成されていてよい。
The
送信部17は、後述するプロセッサ18が画像処理により生成する情報を外部機器19に送信する。
The
プロセッサ18は、1以上のプロセッサおよびメモリを含む。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC;Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD;Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。プロセッサ18は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってもよい。
プロセッサ18は、受信する画像に相当する単一の撮像画像の複数の箇所における深度を推定する。プロセッサ18は、任意の方法によって深度推定を行ってよい。プロセッサ18は、例えば、機械学習により構築された深度推定モデルを用いて、深度推定を行ってよい。プロセッサ18は、例えば撮像画像の各画素に対応する物点の、移動体11の撮像部13からの深度DEPTH_Yを推定してもよい。プロセッサ18は、深度推定を行う代わりに、LiDAR、超音波センサなどの測距センサを用いて検出する深度を用いてもよい。
プロセッサ18は、複数の箇所における前記深度及び画像座標を、複数の箇所それぞれに対応する三次元座標に変換する。具体的には、プロセッサ18は、複数の各箇所、言換えると各画素の画像座標(u,v)及び複数の箇所それぞれに対して推定した深度を用いて、三次元座標に変換する。例えば、プロセッサ18は、画像座標から、変換式を用いて三次元座標の単位ベクトル(ex,ey,ez)を算出する。プロセッサ18は、三次元座標の単位ベクトルにおける奥行き方向成分座標eyで、推定した深度DEPTH_Yを割ることにより、スケール(実距離)パラメータKを算出する。Kは、三次元座標の単位ベクトルと位置ベクトルとの比を示す。プロセッサ18は、Kを単位ベクトルの全成分(ex,ey,ez)に乗じることにより、三次元座標を算出する。
プロセッサ18は、三次元座標に基づき撮像画像とは視点が異なる視点変更画像を生成する。プロセッサ18は、各画素の画素値を、算出した三次元座標に対応付ける。プロセッサ18は、視点変更画像に対応する特定の方向から見た視点変更画像の二次元座標に、算出した三次元座標を変換する。プロセッサ18は、三次元座標に対応付けられた画素値を、視点変更画像の二次元座標に配置することにより視点変更画像を生成する。視点変更画像の視点は、例えば、図3及び4に示すような移動体11の鉛直上方から鉛直下方を向く。
The
プロセッサ18は、撮像画像において被写体30で隠れた部分(以下、「不可視部分」という)を視点変更画像において、明示する態様で表示する。具体的には、上述のように、プロセッサ18は、撮像画像を構成する各画素を、上面視画像で対応する位置に移動させる。プロセッサ18は、上面視画像の一部に生じる、画像を構成する画素が存在しない領域Raを、不可視部分と認定する。プロセッサ18は、不可視部分に認定した領域Raを色付け等により明示させる。
The
プロセッサ18は、不可視部分に認定した領域Raを生じさせる被写体30を正面上方から見た図を、拡大して表示してもよい。具体的に、図3を参照して、プロセッサ18は、領域Raにおいて移動体11に最も近い部分及び当該部分の近傍31を、拡大して表示する。当該部分の近傍31には被写体30が映る。それゆえ運転者は、拡大表示を見て、被写体30の詳細を認識し得る。
The
プロセッサ18は、複数の撮像画像それぞれから複数の視点変更画像を生成してもよい。複数の視点変更画像の視点は同じであってよい。プロセッサ18は、当該複数の視点変更画像を合成して、図4に示す単一の視点変更画像を生成してもよい。
The
以下、プロセッサ18が単一の視点変更画像を生成する処理の例が示される。プロセッサ18は、上述したように、4つの撮像装置10a,10b,10c,10dそれぞれの撮像画像から、同じ視点の4つの視点変更画像を生成する。プロセッサ18は、4つの視点変更画像の中の、部分的に重複する2つの視点変更画像の重複部分については当該2つの視点変更画像の少なくとも一方の画素を用いて合成画像を作成する。プロセッサ18は、重複部分について2つの視点変更画像のそれぞれの画素を用いる場合、2つの画素の画素値の平均値、重み付け平均値等を当該画素の画素値に定めてよい。
An example of the process by which the
図4に示すような、複数の視点変更画像を合成した画像においても、画像を構成する画素が存在しない領域R’が存在する。プロセッサ18は、当該領域R’を不可視部分と認定し、上面視画像において、色付け等により明示させる。
Even in an image obtained by synthesizing a plurality of viewpoint-changed images as shown in FIG. 4, there is a region R' in which there are no pixels constituting the image. The
本実施形態では、撮像装置10a,10b,10c,10dの一つの撮像範囲が、他の撮像装置の撮像範囲と重複する。撮像位置が異なりながら撮像範囲が重複することで、プロセッサ18は、ある撮像装置の撮像画像において被写体の裏に位置する部分を、他の撮像画像に基づいて補完し得る。具体的に、複数の視点変更画像の合成画像では、プロセッサ18が上述のような合成を行うことにより、撮像装置10aの撮像画像において被写体30の裏に位置する部分が、他の撮像装置10bの撮像画像に基づいて補完され得る。撮像装置10aに対応する視点変更画像における、不可視部分に認定した領域Raの一部の領域Raoは、撮像装置10bに対応する視点変更画像により補完される。また、撮像装置10bに対応する視点変更画像における不可視部分に認定した領域Rfの一部の領域Rboが、撮像装置10aに対応する視点変更画像により補完される。プロセッサ18は、当該領域Rao及びRboを、例えば不可視部分R’とは異なる色付けにより明示させてもよい。
In this embodiment, the imaging range of one of the
プロセッサ18は、図4に示すような、不可視部分に認定した領域R’を生じさせる被写体30を正面上方から見た図を生成する。具体的に、プロセッサ18は、領域R’において移動体11に最も近い部分及び当該部分の近傍31を、拡大して表示する。
The
プロセッサ18は、撮像画像から路面の種類を認識してよい。路面は、例えば、車道及び歩道である。プロセッサ18は、歩道を示す領域Rfを、図3及び4の横縞模様のように、ユーザに示してもよい。路面の種類の認識は、任意の方法によって行われてよい。プロセッサ18は、例えば、上述した三次元座標から得られる路面の高さ情報を利用して認識を行ってよい。一般に、車道と非車道路面との間には高低差が存在する。非車道路面は、車道よりも高いことが一般的である。プロセッサ18は、車道と非車道路面との間の高低差を利用して、路面の種類の認識精度を向上し得る。
The
次に、本実施形態においてプロセッサ18により実行される、視点変更画像を生成する処理が、図5のフローチャートを用いて説明される。プロセッサ18は、視点変更画像を生成する処理を、例えば撮像部13から1フレームの画像を取得するたびに開始する。
Next, processing for generating a viewpoint-changed image, which is executed by the
ステップS100において、プロセッサ18は、撮像部13に画像を撮像させる。プロセッサ18は、画像インタフェース15を介して、撮像部13に生成させた撮像画像を取得する。ステップS101において、プロセッサ18は、受信した撮像画像に対して深度推定を行う。ステップS102において、プロセッサ18は、撮像画像の各画素に対してステップS101において推定した深度を用いて、三次元座標変換を行う。ステップS103において、プロセッサ18は、三次元座標に基づき撮像画像とは視点が異なる視点変更画像を生成する。ステップS104において、プロセッサ18は、撮像画像から路面の種類を認識する。
In step S100, the
ステップS105において、プロセッサ18は、複数の撮像画像別に、複数の視点変更画像を生成し、前記複数の視点変更画像を合成して単一の視点変更画像を生成する。ステップS106において、プロセッサ18は、撮像画像における不可視部分を認定する。更に、プロセッサ18は、視点変更画像において、不可視部分に認定した領域を色付ける。
In step S105, the
視点変更画像が二次元の画像座標のみに基づいて生成される構成では、高さの大きな物体は歪んで大きく表示されることがある。これに対し、本実施形態の画像処理装置14は、撮像画像の複数の箇所における深度を推定し、複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、三次元座標に基づき撮像画像とは視点が異なる視点変更画像を生成する。このような構成により、画像処理装置14は、物体の高さに基づいて視点変更画像を生成する。それゆえ、画像処理装置14は、歪みが軽減された視点変更画像を提供し得る。
In a configuration in which a viewpoint-changed image is generated based only on two-dimensional image coordinates, a tall object may be distorted and displayed large. On the other hand, the
また、本実施形態の画像処理装置14は、視点変更画像に、不可視部分であることを、すなわち撮像画像において被写体で隠れた部分であることを示すように表示させた画像を生成する。このような構成により、画像処理装置14は、運転者に当該部分を注意させ得る。
Further, the
また、本実施形態の画像処理装置14は、複数の撮像画像の中の一つの撮像画像における被写体の裏に位置する部分を、該一つの撮像画像以外の前記複数の撮像画像に基づいて補完する。それゆえに、画像処理装置14は、歪みが軽減された視点変更画像同士で補完し、歪みが軽減された状態でより不可視領域の少ない画像を作成し得る。
In addition, the
また、本実施形態の画像処理装置14は、前記複数の撮像画像別に、複数の前記視点変更画像を生成し、前記複数の視点変更画像を合成して単一の視点変更画像を生成する。このような構成により、画像処理装置14は、より広い領域を表示する視点変更画像を生成し得る。
Further, the
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。 Although the present invention has been described with reference to the drawings and examples, it should be noted that various variations and modifications will be readily apparent to those skilled in the art based on this disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention.
10a,10b,10c,10d 撮像装置
11 移動体
12 本体
13 撮像部
14 画像処理装置
15 画像インタフェース
16 記憶部
17 送信部
18 プロセッサ
19 外部機器
30 被写体
31 拡大表示される部分
Fa,Fb,Fc,Fd 視野
R1,R2,R’ 不可視領域に認識された領域
Rao,Rbo 補完された領域
Rf 歩道を示す領域
10a, 10b, 10c,
Claims (7)
前記撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える
画像処理装置。 an image interface for acquiring a captured image;
estimating depths at a plurality of locations in the captured image; transforming the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations; and determining the captured image based on the three-dimensional coordinates. An image processing device comprising: a processor that generates a viewpoint-changed image with a different viewpoint.
前記プロセッサは、前記視点変更画像に、前記撮像画像において被写体で隠れた部分であることを示すように表示させた画像を生成する
画像処理装置。 The image processing device according to claim 1,
The processor generates an image displayed in the viewpoint-changed image so as to indicate a portion hidden by a subject in the captured image.
前記画像インタフェースが取得する前記撮像画像は、互いに一部の撮像範囲が重なり、それぞれ異なる位置から撮像した複数の撮像画像を含み、
前記プロセッサは、前記複数の撮像画像の中の一つの撮像画像における被写体の裏に位置する部分を、該一つの撮像画像以外の前記複数の撮像画像に基づいて補完する
画像処理装置。 The image processing device according to claim 1 or 2,
The captured image acquired by the image interface includes a plurality of captured images that partially overlap each other and are captured from different positions,
The image processing device, wherein the processor interpolates a portion located behind a subject in one captured image among the plurality of captured images based on the plurality of captured images other than the one captured image.
前記プロセッサは、前記複数の撮像画像別に、複数の前記視点変更画像を生成し、前記複数の視点変更画像を合成して単一の視点変更画像を生成する
画像処理装置。 In the image processing device according to claim 3,
The processor generates a plurality of the viewpoint-changed images for each of the plurality of captured images, and combines the plurality of viewpoint-changed images to generate a single viewpoint-changed image.
前記撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するステップと、を含む
画像処理方法。 obtaining a captured image;
estimating depths at a plurality of locations in the captured image; transforming the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations; and determining the captured image based on the three-dimensional coordinates. and generating a viewpoint-changed image with a different viewpoint.
前記画像信号に相当する撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える
撮像装置。 an imaging unit that generates an image signal by imaging;
estimating depths at a plurality of locations in a captured image corresponding to the image signal, converting the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations, and based on the three-dimensional coordinates and a processor that generates a viewpoint-changed image whose viewpoint is different from that of the captured image.
前記本体の所定の位置に所定の姿勢で固定されており、撮像により画像信号を生成する撮像部と、
前記画像信号に相当する撮像画像の複数の箇所における深度を推定し、前記複数の箇所における前記深度及び画像座標を前記複数の箇所それぞれに対応する三次元座標に変換し、前記三次元座標に基づき前記撮像画像とは視点が異なる視点変更画像を生成するプロセッサと、を備える
移動体。
the main body;
an imaging unit that is fixed at a predetermined position on the main body in a predetermined posture and that generates an image signal by imaging;
estimating depths at a plurality of locations in a captured image corresponding to the image signal, converting the depths and image coordinates at the plurality of locations into three-dimensional coordinates corresponding to the plurality of locations, and based on the three-dimensional coordinates a processor that generates a viewpoint-changed image having a viewpoint different from that of the captured image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021135146A JP2023029064A (en) | 2021-08-20 | 2021-08-20 | Image processing device, image processing method, image capturing device, and mobile vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021135146A JP2023029064A (en) | 2021-08-20 | 2021-08-20 | Image processing device, image processing method, image capturing device, and mobile vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023029064A true JP2023029064A (en) | 2023-03-03 |
Family
ID=85330888
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021135146A Pending JP2023029064A (en) | 2021-08-20 | 2021-08-20 | Image processing device, image processing method, image capturing device, and mobile vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023029064A (en) |
-
2021
- 2021-08-20 JP JP2021135146A patent/JP2023029064A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6675448B2 (en) | Vehicle position detecting method and device | |
US9672432B2 (en) | Image generation device | |
US9467679B2 (en) | Vehicle periphery monitoring device | |
JP4861574B2 (en) | Driving assistance device | |
KR101911610B1 (en) | Method and device for the distortion-free display of an area surrounding a vehicle | |
US20090015675A1 (en) | Driving Support System And Vehicle | |
WO2017056484A1 (en) | Image processing device, stereo camera device, vehicle, and image processing method | |
US20100259372A1 (en) | System for displaying views of vehicle and its surroundings | |
JP6565188B2 (en) | Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program | |
EP2642364B1 (en) | Method for warning the driver of a motor vehicle about the presence of an object in the surroundings of the motor vehicle, camera system and motor vehicle | |
JP2009206747A (en) | Ambient condition monitoring system for vehicle, and video display method | |
JP4797877B2 (en) | VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD | |
JP5516998B2 (en) | Image generation device | |
CN111971682A (en) | Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method | |
JP6589313B2 (en) | Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program | |
WO2022119997A1 (en) | System and method of directing three dimensional scanning | |
JP5083443B2 (en) | Driving support device and method, and arithmetic device | |
US10769804B2 (en) | Parallax calculation apparatus, stereo camera apparatus, vehicle, and parallax calculation method | |
JP2023029064A (en) | Image processing device, image processing method, image capturing device, and mobile vehicle | |
JP7047291B2 (en) | Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program | |
JP2022152922A (en) | Electronic apparatus, movable body, imaging apparatus, and control method for electronic apparatus, program, and storage medium | |
JP7345369B2 (en) | Image processing devices, imaging devices, and moving objects | |
WO2021132227A1 (en) | Information processing device, sensing device, moving body, and information processing method | |
JP7345601B2 (en) | Image processing device, camera, moving object, and image processing method | |
WO2017086057A1 (en) | Display device for vehicles and display method for vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231117 |