JP7373079B2 - Image recognition simulator device - Google Patents
Image recognition simulator device Download PDFInfo
- Publication number
- JP7373079B2 JP7373079B2 JP2022546154A JP2022546154A JP7373079B2 JP 7373079 B2 JP7373079 B2 JP 7373079B2 JP 2022546154 A JP2022546154 A JP 2022546154A JP 2022546154 A JP2022546154 A JP 2022546154A JP 7373079 B2 JP7373079 B2 JP 7373079B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- unit
- virtual object
- region division
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 claims description 30
- 230000015572 biosynthetic process Effects 0.000 claims description 19
- 238000003786 synthesis reaction Methods 0.000 claims description 19
- 230000007717 exclusion Effects 0.000 claims description 18
- 238000009434 installation Methods 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 14
- 238000000034 method Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 6
- 239000002131 composite material Substances 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 244000025254 Cannabis sativa Species 0.000 description 4
- 230000001788 irregular Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000002372 labelling Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、画像認識シミュレータ装置に関する。
本願は、2020年9月7日に出願された日本国特願2020-149907号に基づき優先権を主張し、その内容をここに援用する。The present invention relates to an image recognition simulator device.
This application claims priority based on Japanese Patent Application No. 2020-149907 filed on September 7, 2020, the contents of which are incorporated herein.
昨今、各種センサーを自動車に搭載して危険を検知又は回避する予防安全システムのテストが盛んに行われている。予防安全システムが必要な時に意図通り始動しないと事故につながる危険性があるので、多くの場合を想定してテストする必要がある。しかし、実際に車両を走らせて危険なシーンで該システムが始動するか否かのテストは、安全面などにおいて限界がある。このため、CG(Computer Graphics)などで擬似的に生成した走行環境と車両とを用いてテストを行う手法が求められている。 BACKGROUND OF THE INVENTION Recently, testing of active safety systems that detect or avoid danger by installing various sensors in automobiles has been actively conducted. If an active safety system does not start as intended when it is needed, there is a risk of an accident, so it is necessary to test the system in many scenarios. However, there are limits to the ability to actually drive a vehicle and test whether the system will start up in a dangerous scene from a safety standpoint. For this reason, there is a need for a method of conducting tests using a vehicle and a driving environment that is simulated using CG (Computer Graphics) or the like.
一例として、特許文献1では、実写画像データに天候外乱などを示す画像を重畳して擬似的に走行シーンのパターンを複数作成してテストを行う方法が提案されている。
As an example,
しかしながら、特許文献1に記載の方法では、単に実写画像データに対してもう一つの画像を重畳するだけであり、リアリティに欠ける問題が生じる。例えば、実写画像にCGで作成した歩行者の画像を単に重畳した場合、遠近感が乱れるので、違和感のある画像になってしまう。
However, the method described in
本発明は、このような技術課題を解決するためになされたものであって、リアリティを有する合成画像を作成することができる画像認識シミュレータ装置を提供することを目的とする。 The present invention was made to solve such technical problems, and an object of the present invention is to provide an image recognition simulator device that can create a realistic composite image.
本発明に係る画像認識シミュレータ装置は、少なくとも2つのカメラにより撮像された輝度画像に基づいてステレオマッチングで距離を計算し、計算した結果を画像で表した距離画像を出力する距離計算部と、前記輝度画像に対し領域分割を行うことにより領域分割画像を得る領域分割計算部と、前記領域分割計算部により領域分割された結果に基づいて前記距離画像からステレオマッチングの誤差を除外する距離画像誤差除外部と、前記距離画像誤差除外部により除外された距離画像に基づいて3次元空間を生成する3次元空間生成部と、車載カメラのアプリケーションの物標として認識される仮想物体を任意の位置と時刻に設置する仮想物体設置部と、前記仮想物体設置部により設置された仮想物体を、前記3次元空間生成部により生成された3次元空間に合成する仮想物体合成部と、前記仮想物体合成部により合成された結果に基づいて、前記2つのカメラの輝度画像を生成する画像生成部と、を備えることを特徴としている。 The image recognition simulator device according to the present invention includes a distance calculation unit that calculates a distance by stereo matching based on brightness images captured by at least two cameras, and outputs a distance image representing the calculated result as an image; a region division calculation unit that performs region division on a luminance image to obtain a region division image; and a distance image error exclusion unit that excludes stereo matching errors from the distance image based on the result of region division by the region division calculation unit. a 3D space generation unit that generates a 3D space based on the range images excluded by the range image error exclusion unit; a virtual object installation unit installed in the virtual object installation unit, a virtual object synthesis unit that synthesizes the virtual object installed by the virtual object installation unit into the three-dimensional space generated by the three-dimensional space generation unit, and a virtual object synthesis unit configured to The present invention is characterized by comprising an image generation unit that generates brightness images of the two cameras based on the combined results.
本発明に係る画像認識シミュレータ装置では、距離画像誤差除外部が領域分割計算部により領域分割された結果に基づいて距離画像からステレオマッチングの誤差を除外するので、ステレオマッチングの誤差に影響されずに仮想物体を輝度画像に合成することができる。従って、リアリティを有する合成画像を作成することができる。 In the image recognition simulator device according to the present invention, the distance image error exclusion section excludes the stereo matching error from the distance image based on the result of region division by the region division calculation section, so that the image recognition simulator device is not affected by the stereo matching error. A virtual object can be synthesized into a brightness image. Therefore, a realistic composite image can be created.
本発明によれば、リアリティを有する合成画像を作成することができる。 According to the present invention, a realistic composite image can be created.
以下、図面を参照して本発明に係る画像認識シミュレータ装置の実施形態について説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of an image recognition simulator device according to the present invention will be described with reference to the drawings.
図1は実施形態に係る画像認識シミュレータ装置を示す概略構成図である。本実施形態の画像認識シミュレータ装置1は、車載画像収集装置により収集された複数の時系列画像と同期した制御信号とに基づいて、自然画像、合成したいCG及びその挙動を用いて、認識アプリケーションのシミュレーションを行うための装置である。図示しないが、車載画像収集装置は、少なくとも2つのカメラ(ここでは、ステレオカメラ)を有する画像取得部を備えている。
FIG. 1 is a schematic configuration diagram showing an image recognition simulator device according to an embodiment. The image
ステレオカメラは、すなわち車載カメラであり、例えば互いの光軸が平行となるように所定の光軸間隔(基線長)で配置された左右一対のカメラからなり、自車両周囲の様子を撮像する。左右一対のカメラは、それぞれCMOSなどのイメージセンサや光学レンズなどにより構成されている。そして、このステレオカメラによって撮像された画像は、上述の自然画像である。 A stereo camera is a vehicle-mounted camera, and includes, for example, a pair of left and right cameras arranged at a predetermined distance between optical axes (baseline length) so that their optical axes are parallel to each other, and captures images of the surroundings of the vehicle. The pair of left and right cameras each consist of an image sensor such as CMOS and an optical lens. The image captured by this stereo camera is the above-mentioned natural image.
図1に示すように、画像認識シミュレータ装置1は、CG-自然画像合成部10と画像認識部20とを備えている。
As shown in FIG. 1, the image
図2は画像認識シミュレータ装置のCG-自然画像合成部を示す概略構成図である。図2に示すように、CG-自然画像合成部10は、距離計算部11と、領域分割計算部12と、距離画像誤差除外部13と、3次元空間生成部14と、仮想物体設置部15と、仮想物体合成部16と、画像生成部17とを備えている。
FIG. 2 is a schematic configuration diagram showing the CG-natural image synthesis section of the image recognition simulator device. As shown in FIG. 2, the CG-natural
距離計算部11は、ステレオカメラにより撮像された輝度画像に基づいてステレオマッチングで距離を計算し、計算した結果を画像で表した距離画像を出力する。より具体的には、距離計算部11は、まず、ステレオカメラによって撮像された2枚の輝度画像に基づいて、ステレオマッチングを用いて距離を計算する。このとき、距離計算部11は、例えば三角測量の原理で画素ごとの視差を取得することで距離を計算する。取得された視差は、使用したステレオカメラの仕様から距離へ変換することができる。例えば、ステレオカメラの基線長をL、CMOSサイズをμ、光学レンズの焦点距離をV、視差をdとした場合、距離をVL/dμで計算することができる。次に、距離計算部11は、上述のように計算した結果を画像で表した距離画像を距離画像誤差除外部13に出力する。
The
ステレオマッチングの例として、局所的な画像情報に基づいて実行する手法が挙げられる。この手法では、着目した画像付近に窓を設定し、その窓内の特徴量が左右の画像で類似度を計算することで得られる。ここで、窓は幅W、高さHとし、着目画素を中心に設定するものと考えられる。類似度の計算として、SAD(Sum of Absolute Difference)が挙げられる。 An example of stereo matching is a method performed based on local image information. In this method, a window is set near the image of interest, and the feature values within the window are obtained by calculating the similarity between the left and right images. Here, the window is assumed to have a width W and a height H, and is set to center around the pixel of interest. An example of calculating similarity is SAD (Sum of Absolute Difference).
そして、右カメラ画像の座標と輝度をpR=(x,y)T,I(pR)、左カメラ画像の座標と輝度をpL=[x,y]T,I(pL)、視差をD=[d,0]T、窓内の移動量をs=[w, h]Tとするとき、視差D=[d,0]Tを得る類似度R(D)として、下記式(1)で求めることができる。Then, the coordinates and brightness of the right camera image are p R =(x,y) T ,I(p R ), and the coordinates and brightness of the left camera image are p L =[x,y] T ,I(p L ). When the disparity is D=[d,0] T and the amount of movement within the window is s=[w, h] T , the following formula is used as the similarity R(D) to obtain the disparity D=[d,0] T. It can be obtained using (1).
また、画素ごとに得られる視差は上述で設定した窓と評価関数によって決定されるため、真値ではないことを注意する必要がある。本来の視差と異なる視差が得られる(誤マッチと呼ぶ)場合を距離誤差があると呼ぶ。 Furthermore, it must be noted that the parallax obtained for each pixel is determined by the window and evaluation function set above, and therefore is not a true value. A case where a parallax different from the original parallax is obtained (referred to as a false match) is called a distance error.
領域分割計算部12は、ステレオカメラにより撮像された輝度画像に対し領域分割を行うことにより領域分割画像を得る。領域分割とは、エッジや輝度など特性が似通った領域ごとに画像を分割し、その分割した領域ごとにラベル付けを行うことを指す。このとき、例えばConvolutional Neural Network(CNN)を応用したアルゴリズムが用いられる。なお、ここでのラベルは、例えば道路、自動車、歩行者、草むらなどであり、それぞれIDが設定されるのが好ましい。
The region
また、このとき、領域分割計算部12は、上述の輝度画像に対して奥側よりも手前側を細かく領域分割することが好ましい。これは、画像に対して奥側よりも手前側の方が自車両に近いので、細かく分割することで誤差などを少なくし、安全性を高めることができるからである。
Moreover, at this time, it is preferable that the region
距離画像誤差除外部13は、領域分割計算部12により領域分割された結果に基づいて、距離計算部11により出力された距離画像からステレオマッチングの誤差を除外する。上述したように、距離画像には誤差が含まれている。このため、距離画像誤差除外部13は、距離画像と領域分割画像からステレオマッチングの誤差を除外し、誤差を除外した距離画像を3次元空間生成部14に出力する。
The distance image
具体的には、距離画像誤差除外部13は、領域分割計算部12により領域分割された領域分割画像に基づいて画像を分割する画像分割部131と、画像分割部131によって分割された画像ごとに距離を取得してステレオマッチングの誤差を除外する距離取得部132とを有する。画像分割部131は、領域分割画像に基づいて画像を分割し、更に領域分割画像で指定されたIDを分割した画像に設定する。
Specifically, the distance image
距離取得部132は、領域分割画像に設定されたIDを基に距離分布を取得し、更に所定の距離を取得してステレオマッチングの誤差の除外を行う。すなわち、距離取得部132は、画像のIDごとに特徴付けられた距離を取得した上、該特徴付けられた距離と比べて不自然な距離を誤差として除去する。
The
具体的には、距離取得部132は奥行きの有無によって取得するべき距離を変更する仕組みを有する。画像のIDは、整数で割り当てられ、内部でその整数と種別が対応付けられており、例えば表1のような対応関係になっていることが考えられる。距離取得部132は、このIDごとに対応した距離の取得方法を有する。
Specifically, the
例えばID=1の場合、種別が道路であるので、距離取得部132は道路で取得するのに適した距離の取得方法を実施する。画像収集は、道路を走っている前提であり、道路の距離は自車両の位置を0mとして消失点の方向に向かい徐々に遠くなり無限遠点で最大となる。距離取得部132は、この前提で画素ごとに設定された距離を補正する。なお、距離はX軸方向に類似していて、さらにY軸方向へ減衰していくため、近似曲線を描くことができる。このように距離を補正することによって、ステレオマッチングの誤差が除外されることになる。
For example, in the case of ID=1, the type is a road, so the
また、ID=2,3,4の場合、種別がそれぞれ自動車(例えば先行車、対向車)、歩行者、2輪車である。自動車、歩行者及び2輪車がそれぞれ自身で移動するので、ID=1の道路と異なる。また、大きさと向きも様々であるため、領域分割された画像の距離も様々な値が含まれることが予想できる。このとき、距離取得部132は合成するのに適した距離を取得することが目的であるので、必ずしも正しい距離を取得する必要はない。そして、距離取得部132は、距離画像と領域分割画像の時間変化を取得することにより、時間的及び空間的な距離の分布を取得して距離の変動を均一化する。このように距離の変動を均一化することにより、ステレオマッチングの誤差が除外されることになる。なお、時間的又は空間的な距離の分布は、画像領域全体でも、X軸またはY軸へ投影しても、時間的に重みを付けて計算しても良い。
Furthermore, in the case of ID=2, 3, and 4, the types are automobiles (for example, preceding vehicles, oncoming vehicles), pedestrians, and two-wheeled vehicles, respectively. It is different from the road with ID=1 because cars, pedestrians, and two-wheeled vehicles move on their own. Furthermore, since the sizes and orientations vary, it can be expected that the distances of the segmented images will also include various values. At this time, since the purpose of the
また、ID=5の場合、種別が草むらである。草むらや芝生は不規則なパターンを有しており、本実施形態において考えている窓を用いた局所的なステレオマッチングが不得意とするケースである。従って、誤マッチングが比較的に多く、或いは距離が求められないことが多くなるのが想定される。このような場合は、草むらそのものではなく、正しい距離を比較的推定しやすい道路の距離を草むらの距離として推定して使うことができる。このようにすることで、ステレオマッチングの誤差が除外されることになる。なお、その際には、領域分割して得た一つの画像を路面での距離の変化に応じて分割すると、後述するCGの合成が実行しやすくなる。 Also, if ID=5, the type is grass. Grass and lawns have irregular patterns, and this is a case where local stereo matching using windows, as considered in this embodiment, is not suitable. Therefore, it is assumed that there will be a relatively large number of erroneous matchings, or that the distance will not be determined in many cases. In such a case, it is possible to estimate and use the distance of the road, which is relatively easy to estimate the correct distance, as the distance of the grass, rather than the grass itself. By doing so, errors in stereo matching are eliminated. In this case, if one image obtained by region division is divided according to changes in distance on the road surface, CG synthesis, which will be described later, will be easier to perform.
本実施形態では、距離取得部132が、領域分割画像に設定されたIDごとに対応した距離をそれぞれ取得し、取得した距離に基づいてステレオマッチングの誤差の除外を行うので、ステレオマッチングの誤差を除外する精度を高めることができる。
In this embodiment, the
3次元空間生成部14は、距離画像誤差除外部13により除外された距離画像に基づいて3次元空間を生成する。より具体的には、3次元空間生成部14は、距離画像誤差除外部13によって除外された距離画像とステレオカメラにより撮像された輝度画像とから3次元空間を生成する。輝度画像は正射影で得られたものを想定しているので、ステレオカメラの使用に基づき距離画像と組み合わせることで、3次元空間の座標を得ることができる。
The three-dimensional
仮想物体設置部15は、車載カメラのアプリケーションの物標として認識される仮想物体を任意の位置と時刻に設置する。より具体的には、仮想物体設置部15は、合成すべき仮想物体のCGの種別を決定し、その仮想物体の設置する時刻と位置を決定する。このとき、仮想物体設置部15は、その仮想物体をどのように動かすかの情報と自車両の制御信号から得られる自車両の移動距離とに基づいて仮想物体の設置位置と時刻を決定することが好ましい。このようにすれば、より実画像に近い合成画像を得ることができ、シミュレーションの信頼性を向上する効果を奏する。また、仮想物体設置部15は、決定した結果に基づいて仮想物体を設置する。
The virtual
なお、仮想物体とは、車載カメラのアプリケーションの物標として認識される物体であり、自動車、歩行者、二輪車等が例に挙げられる。また、仮想物体は擬似的に生成できるので、その速度や大きさは自由に設定することができる。 Note that the virtual object is an object that is recognized as a target for an in-vehicle camera application, and includes, for example, a car, a pedestrian, a two-wheeled vehicle, and the like. Furthermore, since the virtual object can be generated in a pseudo manner, its speed and size can be freely set.
仮想物体合成部16は、仮想物体設置部15により設置された仮想物体を、3次元空間生成部14により生成された3次元空間に合成する。このとき、仮想物体合成部16は、仮想物体設置部15が設置した仮想物体を3次元空間の所定位置に合成する。
The virtual
画像生成部17は、仮想物体合成部16により合成された結果に基づいて、上記ステレオカメラの輝度画像を生成する。このとき、画像生成部17は、仮想物体を合成した3次元空間からステレオカメラで得られる左右カメラの輝度画像を生成する。
The
一方、画像認識部20は、画像生成部17により生成された左右カメラの輝度画像を認識する。
On the other hand, the
以下、図3~図6を参照してCG-自然画像合成部10の動作を説明する。
The operation of the CG-natural
まず、距離計算部11は、ステレオカメラにより撮像された輝度画像に基づいてステレオマッチングで距離を計算する(図3参照)。図3において、左図はステレオカメラで取得した輝度画像を模擬的に表現したものであり、右図は距離計算部11の計算によって得られた距離画像を色の濃淡で表現したものである。右図に示す色の濃淡は、物体ごとに距離の遠近に基づいて設定されている。
First, the
また、右図に示す距離画像には、不規則な点が複数存在している。これらの不規則な点はステレオマッチングの誤差によって生じた距離誤差を表現したものである。このような距離誤差が距離画像に含まれていると、CGを合成する際に物体との前後関係が変わってしまい、違和感のある画像になる。すなわち、これらの距離誤差を含む距離画像に対して仮想物体を合成すると、例えば本来仮想物体より奥にあるはずの芝生の一部が手前にあるように見える問題が生じ、部分的に仮想物体が遮蔽されてしまうので、不自然な画像となる。 Furthermore, there are multiple irregular points in the distance image shown in the right figure. These irregular points represent distance errors caused by stereo matching errors. If such a distance error is included in the distance image, the front and back relationship with the object will change when CG is combined, resulting in an unnatural looking image. In other words, when a virtual object is synthesized with a distance image that includes these distance errors, a problem arises where, for example, a part of the lawn that is supposed to be in the back of the virtual object appears to be in the foreground, and the virtual object is partially hidden. Since it is occluded, the image becomes unnatural.
続いて、領域分割計算部12は、ステレオカメラにより撮像された輝度画像に対し領域分割を行う(図4参照)。図4に示すように、ステレオカメラで取得した輝度画像に対して領域分割が行われた結果、例えば「自動車」、「道路」、「芝生」、「それ以外」といったラベル付けがされている。
Subsequently, the region
続いて、距離画像誤差除外部13は、領域分割計算部12により領域分割された結果に基づいて距離画像からステレオマッチングの誤差を除外する(図5参照)。具体的には、距離画像誤差除外部13の距離取得部132は、上述の領域分割で得られたラベル付けに基づいて、ラベルごとに距離を再計算し、距離誤差(すなわち、図3の右図中の不規則な点)を除去する。このように領域分割によってラベル付けした結果から距離を再計算したことで、ステレオマッチングで生じる誤差を効果的に除外することができ、不自然な画像の合成を抑制することができる。
Subsequently, the distance image
続いて、3次元空間生成部14は距離誤差を除去した距離画像に基づいて3次元空間を生成し、仮想物体設置部15は仮想物体(ここでは、歩行者)を任意の位置と時刻に設置する。
Next, the three-dimensional
続いて、仮想物体合成部16は、仮想物体としての歩行者を、3次元空間生成部14により生成された3次元空間に配置させてCGを合成する(図6の左図参照)。画像生成部17は、仮想物体合成部16で合成したCGに基づいて、ステレオカメラの輝度画像を生成する(図6の右図参照)。
Next, the virtual
本実施形態の画像認識シミュレータ装置1では、距離画像誤差除外部13が領域分割計算部12により領域分割された結果に基づいて距離画像からステレオマッチングの誤差を除外するので、ステレオマッチングの誤差に影響されずに仮想物体を輝度画像に合成することができる。従って、リアリティを有する合成画像を作成することができる。
In the image
また、ステレオカメラにより撮像された自然画像を用いるので、全てCGで作成する場合と比較してリアリティを更に高めることができるとともに、シミュレーションの信頼性を向上することができる。更に、自然画像に対して自動車や歩行者や二輪車などのCG画像(すなわち、仮想物体)を合成するので、簡単に画像のバリエーションを増加することができる。 Furthermore, since natural images captured by a stereo camera are used, it is possible to further enhance the reality and improve the reliability of the simulation compared to the case where everything is created using CG. Furthermore, since CG images (i.e., virtual objects) of cars, pedestrians, motorcycles, etc. are combined with natural images, it is possible to easily increase the variety of images.
以上、本発明の実施形態について詳述したが、本発明は、上述の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various designs can be made without departing from the spirit of the present invention as described in the claims. Changes can be made.
1 画像認識シミュレータ装置
10 CG-自然画像合成部
11 距離計算部
12 領域分割計算部
13 距離画像誤差除外部
14 3次元空間生成部
15 仮想物体設置部
16 仮想物体合成部
17 画像生成部
20 画像認識部
131 画像分割部
132 距離取得部1 Image
Claims (3)
前記輝度画像に対し領域分割を行うことにより領域分割画像を得る領域分割計算部と、 前記領域分割計算部により領域分割された結果に基づいて前記距離画像からステレオマッチングの誤差を除外する距離画像誤差除外部と、
前記距離画像誤差除外部により除外された距離画像に基づいて3次元空間を生成する3次元空間生成部と、
車載カメラのアプリケーションの物標として認識される仮想物体を任意の位置と時刻に設置する仮想物体設置部と、
前記仮想物体設置部により設置された仮想物体を、前記3次元空間生成部により生成された3次元空間に合成する仮想物体合成部と、
前記仮想物体合成部により合成された結果に基づいて、前記2つのカメラの輝度画像を生成する画像生成部と、
を備え、
前記領域分割計算部は、前記輝度画像に対して奥側よりも手前側を細かく領域分割することを特徴とする画像認識シミュレータ装置。 a distance calculation unit that calculates a distance by stereo matching based on brightness images captured by at least two cameras, and outputs a distance image representing the calculated result as an image;
a region division calculation unit that performs region division on the luminance image to obtain a region divided image; and a distance image error that excludes stereo matching errors from the distance image based on the result of region division by the region division calculation unit. an exclusion section;
a three-dimensional space generation unit that generates a three-dimensional space based on the distance image excluded by the distance image error exclusion unit;
a virtual object installation unit that installs a virtual object recognized as a target for an in-vehicle camera application at an arbitrary position and time;
a virtual object synthesis unit that synthesizes the virtual object installed by the virtual object installation unit into the three-dimensional space generated by the three-dimensional space generation unit;
an image generation unit that generates brightness images of the two cameras based on the results of the synthesis by the virtual object synthesis unit;
Equipped with
The image recognition simulator device is characterized in that the region division calculation unit divides the brightness image into regions on a front side more finely than on a back side .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020149907 | 2020-09-07 | ||
JP2020149907 | 2020-09-07 | ||
PCT/JP2021/027676 WO2022049926A1 (en) | 2020-09-07 | 2021-07-27 | Image recognition simulator device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022049926A1 JPWO2022049926A1 (en) | 2022-03-10 |
JP7373079B2 true JP7373079B2 (en) | 2023-11-01 |
Family
ID=80491959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022546154A Active JP7373079B2 (en) | 2020-09-07 | 2021-07-27 | Image recognition simulator device |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7373079B2 (en) |
DE (1) | DE112021003088T5 (en) |
WO (1) | WO2022049926A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012079251A (en) | 2010-10-06 | 2012-04-19 | Konica Minolta Holdings Inc | Image processing apparatus and image processing system |
JP2014098986A (en) | 2012-11-13 | 2014-05-29 | Hitachi Advanced Digital Inc | Image recognition function verification device and processing method of the same |
JP2018060511A (en) | 2016-10-06 | 2018-04-12 | 株式会社アドバンスド・データ・コントロールズ | Simulation system, simulation program, and simulation method |
JP2018060512A5 (en) | 2017-05-09 | 2019-05-09 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010033321A (en) | 2008-07-29 | 2010-02-12 | Mitsubishi Heavy Ind Ltd | Evaluation system for image processing algorithm |
JP7114516B2 (en) | 2019-03-14 | 2022-08-08 | 日本製鉄株式会社 | Metal materials for separators, fuel cell separators and fuel cells |
-
2021
- 2021-07-27 JP JP2022546154A patent/JP7373079B2/en active Active
- 2021-07-27 WO PCT/JP2021/027676 patent/WO2022049926A1/en active Application Filing
- 2021-07-27 DE DE112021003088.4T patent/DE112021003088T5/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012079251A (en) | 2010-10-06 | 2012-04-19 | Konica Minolta Holdings Inc | Image processing apparatus and image processing system |
JP2014098986A (en) | 2012-11-13 | 2014-05-29 | Hitachi Advanced Digital Inc | Image recognition function verification device and processing method of the same |
JP2018060511A (en) | 2016-10-06 | 2018-04-12 | 株式会社アドバンスド・データ・コントロールズ | Simulation system, simulation program, and simulation method |
JP2018060512A5 (en) | 2017-05-09 | 2019-05-09 |
Also Published As
Publication number | Publication date |
---|---|
WO2022049926A1 (en) | 2022-03-10 |
DE112021003088T5 (en) | 2023-04-27 |
JPWO2022049926A1 (en) | 2022-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI703064B (en) | Systems and methods for positioning vehicles under poor lighting conditions | |
US10949684B2 (en) | Vehicle image verification | |
KR101359660B1 (en) | Augmented reality system for head-up display | |
Abdi et al. | In-vehicle augmented reality traffic information system: a new type of communication between driver and vehicle | |
US11100808B2 (en) | System and method for vehicle convoys | |
JP6202367B2 (en) | Image processing device, distance measurement device, mobile device control system, mobile device, and image processing program | |
US8305431B2 (en) | Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images | |
JP2021508815A (en) | Systems and methods for correcting high-definition maps based on the detection of obstructing objects | |
CN109997148B (en) | Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and computer-readable recording medium | |
JP2021510227A (en) | Multispectral system for providing pre-collision alerts | |
KR101551026B1 (en) | Method of tracking vehicle | |
CN103814306A (en) | Depth measurement quality enhancement | |
JP2014138420A (en) | Depth sensing method and system for autonomous vehicle | |
KR102507248B1 (en) | Egomotion estimation system and method thereof | |
JP2017162116A (en) | Image processing device, imaging device, movable body apparatus control system, image processing method and program | |
CN109791607B (en) | Detection and verification of objects from a series of images of a camera by means of homography matrices | |
US20200051282A1 (en) | Object detection device and vehicle | |
KR101573576B1 (en) | Image processing method of around view monitoring system | |
CN112204614B (en) | Motion segmentation in video from non-stationary cameras | |
JPWO2017154389A1 (en) | Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program | |
CN105512641A (en) | Method for using laser radar scanning method to calibrate dynamic pedestrians and vehicles in video in snowing or raining state | |
JP2017010078A (en) | Road surface sign detection apparatus and road surface sign detection method | |
JP2023184572A (en) | Electronic apparatus, movable body, imaging apparatus, and control method for electronic apparatus, program, and storage medium | |
JP7373079B2 (en) | Image recognition simulator device | |
Roessing et al. | Intuitive visualization of vehicle distance, velocity and risk potential in rear-view camera applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231020 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7373079 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |