JPWO2020189081A1 - カメラシステムの評価装置及び評価方法 - Google Patents

カメラシステムの評価装置及び評価方法 Download PDF

Info

Publication number
JPWO2020189081A1
JPWO2020189081A1 JP2021506232A JP2021506232A JPWO2020189081A1 JP WO2020189081 A1 JPWO2020189081 A1 JP WO2020189081A1 JP 2021506232 A JP2021506232 A JP 2021506232A JP 2021506232 A JP2021506232 A JP 2021506232A JP WO2020189081 A1 JPWO2020189081 A1 JP WO2020189081A1
Authority
JP
Japan
Prior art keywords
image
camera
evaluation device
unit
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021506232A
Other languages
English (en)
Other versions
JP7245318B2 (ja
Inventor
隆良 千代田
中田 啓明
道雄 森岡
雅之 金井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2020189081A1 publication Critical patent/JPWO2020189081A1/ja
Application granted granted Critical
Publication of JP7245318B2 publication Critical patent/JP7245318B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/23Pc programming
    • G05B2219/23446HIL hardware in the loop, simulates equipment to which a control module is fixed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2637Vehicle, car, auto, wheelchair
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

評価対象が必要とする明るさや歪みなどの光学的な画像処理を行った仮想映像を用いて評価を行う、外界を撮像するカメラを含むカメラシステムの評価装置であって、前記カメラが撮影する外界の映像を模擬するシミュレーション用映像を生成する映像生成部と、前記カメラから出力される映像を模擬するための光学的な画像処理を、前記シミュレーション用映像に行う光学フィルタ部と、前記画像処理された後の映像を用いて認識処理を行って、車両制御用の信号を生成するカメラ画像処理部とを備える。

Description

本発明は、車両が道路を走行する状態をシミュレートして、該車両に搭載されたカメラシステムを評価する評価装置に関する。
近年、安全かつ快適な車社会を実現するために運転支援システムや自動運転システムが研究されている。今後、自動運転のレベルが向上するに従って、高速道路の合流地点や交差点における右左折など、周辺環境を含めた複雑な制御ロジックの開発が必要になる。また、これらの機能の複雑な制御ロジックを検証し、評価するために膨大なテストケースが必要になると予想されている。現状の検証・評価は、実車走行評価を中心に実施されているが、今後テスト工数が膨大になり、実車を走行させるだけでは評価が困難であり、シミュレータの活用が一般的である。
このようなシミュレータとしてのHILS(Hardware In the Loop Simulator)は、評価対象には実物を用い、それ以外の車両要素をモデル化して、これらを組み合わせて評価装置を構築することによって、実際の制御システムを仮想的に評価するツールである。このようなシミュレータとしては、例えば特許文献1に記載のものが知られている。
特開2010−26845号公報
各種センサ情報に基づいて演算処理を実行する評価対象を用いてHILSを構築する場合、評価対象が要求するタイミングでセンサ情報を提供する必要がある。例えば、評価対象であるカメラがシャッタを切るタイミングで、評価対象に映像を入力する必要がある。HILSでは、実際の映像を評価対象に入力できないため、CG(Computer Graphics)で作成した仮想的な外界の映像を入力する。本来、評価対象はレンズや撮像素子に対して時々刻々と明るさなどを調整しており、評価対象に入力される仮想映像も評価対象からの指示に基づいて変化させることが望まれている。
前述した特許文献1(特開2010−26845号)では、評価対象(カメラ制御ECU)からカメラモデルにタイミング信号をフィードバックする機能が無いため、評価対象の制御に従って必要な映像を入力できず、評価対象が映像を正しく認識したり認識結果に基づく車両の制御が不可能となる問題がある。
以上のことから、本発明の目的は、CG映像を用いたHILS環境で評価対象を評価する際に、評価対象から出力された情報を用い、評価対象が必要とする明るさや歪みなどの光学的な画像処理を行った仮想映像を用いて評価を行うことである。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、外界を撮像するカメラを含むカメラシステムの評価装置であって、前記カメラが撮影する外界の映像を模擬するシミュレーション用映像を生成する映像生成部と、前記カメラから出力される映像を模擬するための光学的な画像処理を、前記シミュレーション用映像に行う光学フィルタ部と、前記画像処理された後の映像を用いて認識処理を行って、車両制御用の信号を生成するカメラ画像処理部とを備える。
本発明の一態様によれば、評価対象が必要とする明るさや歪みなどの光学的な画像処理を行った仮想映像を用いてカメラ画像処理部を適切に評価できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
本発明の実施例に係る光学フィルタ機能を用いたHILSの構成例を示す図である。 実施例1に係る車両挙動シミュレータの構成を示す図である。 実施例1に係る視点映像生成機能の構成を示す図である。 実施例1に係る光学フィルタ機能の構成を示す図である。 実施例1に係るゲイン調整部の概念図である。 実施例1に係るカメラフォーマット変換機能の構成を示す図である。 実施例1に係るステレオカメラECUの構成を示す図である。 実施例1に係るHILSを構成する各機能の動作を示すシーケンス図である。 実施例2に係る光学フィルタ機能を映像生成機能に統轄したHILSの構成例を示す図である。 実施例2に係る光学フィルタ機能を含む視点映像生成機能の構成を示す図である。 実施例2に係るHILSを構成する各機能の動作を示すシーケンス図である。 実施例3に係る光学フィルタ機能を用いたSILSの構成例を示す図である。 実施例4に係る単眼カメラのHILSの構成例を示す図である。 実施例5に係る視点映像CG映像部の構成を示す図である。 実施例5に係るゲイン調整処理部の構成を示す図である。
以下、本発明の実施例を図面を用いて説明する。
[実施例1]
図1は、本発明の実施例に係る光学フィルタ機能を用いたHILSの構成例を示す図である。CG映像S7が入力されるステレオカメラECU6を評価する評価環境は、車両挙動シミュレータ1と、左視点映像生成機能2と、右視点映像生成機能3と、光学フィルタ機能4と、カメラフォーマット変換機能5とから構成される。
車両挙動シミュレータ1は、所定の時間(例えば、1ミリ秒)間隔で車両の挙動を計算し、シミュレーション空間内にいる自車両の左右のカメラ座標と姿勢を計算する。計算されるカメラ座標と姿勢は、ある時間における座標と姿勢角の相対的な変化量でも、所定の位置や方向を基準とした絶対的な座標と絶対的な姿勢角でもよい。また、車両の挙動は、アクセル、ブレーキ、ステアリングをドライバーが操作する情報の他に、ステレオカメラECU6から入力されるアクセル、ブレーキ、舵角などの車両制御情報S10を用いて計算する。計算された左視点座標・姿勢S1を左視点映像生成機能2に送信し、右視点座標・姿勢S2を右視点映像生成機能3に送信する。また、車速などの車両情報S11をステレオカメラECU6に送信する。
左視点映像生成機能2は、車両挙動シミュレータ1によって計算された左視点座標・姿勢S1から左視点映像S3を生成し、光学フィルタ機能4に送信する。
右視点映像生成機能3は、車両挙動シミュレータ1によって計算された右視点座標・姿勢S2から右視点映像S4を生成し、光学フィルタ機能4に送信する。
光学フィルタ機能4は、ステレオカメラECU6から出力された光学処理情報S8に従って、左右の視点映像S3、S4に明るさやノイズなどの光学的な画像処理を行った左視点映像S5、右視点映像S6を生成し、シャッタ信号S9のタイミングでカメラフォーマット変換機能5に送信する。
カメラフォーマット変換機能5は、入力された光学処理後の左視点映像S5と右視点映像S6とを、ステレオカメラECU6が受信できるハード的かつソフト的カメラI/Fに適合したCG映像S7に変換する。
ステレオカメラECU6は、カメラI/Fに適合したCG映像S7と、車速などの車両情報S11の入力を受け、アクセル、ブレーキ、舵角などの車両制御情報S10を必要に応じて車両挙動シミュレータ1に出力する。また、ステレオカメラECU6は、ステレオカメラECU6が要求する露光情報などを含む光学処理情報S8と、映像を要求するタイミングを示すシャッタ信号S9とを、映像を要求するタイミングで光学フィルタ機能4に出力する。また、シャッタ信号S9は、車両挙動シミュレータ1にも出力される。
以下の説明において、左右ともに同じ動作をする場合は、左映像について説明する。右映像についての説明は省略するが、左映像と同様の処理が行われる。
図2は、本実施例に係る車両挙動シミュレータ1の構成を示す図である。
車両挙動シミュレータ1は、シミュレーションモデル101と、視点情報I/F105と、CAN I/F106とから構成される。また、シミュレーションモデル101は、センサモデル102と、環境モデル103と、車両モデル104とを有する。
シミュレーションモデル101は、所定の時間(例えば、1ミリ秒)間隔で車両の挙動(位置及び姿勢)を計算し、計算された左右の視点座標・姿勢S1、S2をシャッタ信号S9のタイミングで出力する。環境モデル103が持つ仮想道路上を車両モデル104が走行することによって、実車両と同等の車両の挙動を計算する。車両モデル104は、ステレオカメラECU6から入力されるアクセル、ブレーキ、舵角などの車両制御情報S10をCAN I/F106を介して取得し、車両挙動に反映する。また、車両モデル104で模擬した車両情報S11はCAN I/F106で変換され、ステレオカメラEUC6に送信される。
センサモデル102は、車両モデル104が模擬する車両に搭載されている外界認識センサの設定を行っており、本実施例ではステレオカメラの車両への取り付け位置が設定される。この外界認識センサの設定は、左右の視点座標・姿勢S1、S2の計算に用いられる。計算された左右の視点座標・姿勢S1、S2は、視点情報I/F105を介し、左右それぞれの視点映像生成機能2、3に送信される。
ここで、本実施例の評価環境を構成する計算機の物理的な構成を説明する。
本実施例の評価環境は、プロセッサ(CPU)、メモリ、補助記憶装置及び通信インターフェースを有する計算機によって構成される。評価環境は、入力インターフェース及び出力インターフェースを有してもよい。
プロセッサは、メモリに格納されたプログラムを実行する演算装置である。プロセッサが、各種プログラムを実行することによって、評価環境の各部(例えば、車両挙動シミュレータ1、左視点映像生成機能2、右視点映像生成機能3、光学フィルタ機能4、カメラフォーマット変換機能5など)による機能が実現される。なお、プロセッサがプログラムを実行して行う処理の一部を、他の演算装置(例えば、ASIC、FPGA等のハードウエアウェア)で実行してもよい。
メモリは、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサが実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。
補助記憶装置は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置である。また、補助記憶装置は、プロセッサがプログラムの実行時に使用するデータ、及びプロセッサが実行するプログラムを格納する。すなわち、プログラムは、補助記憶装置から読み出されて、メモリにロードされて、プロセッサによって実行されることによって、評価環境の各機能を実現する。
通信インターフェースは、所定のプロトコルに従って、他の装置との通信を制御するネットワークインターフェース装置である。
入力インターフェースは、キーボードやマウスなどの入力装置が接続され、オペレータからの入力を受けるインターフェースである。出力インターフェースは、ディスプレイ装置やプリンタ(図示省略)などの出力装置が接続され、プログラムの実行結果をオペレータが視認可能な形式で出力するインターフェースである。なお、評価環境にネットワークを介して接続されたユーザ端末が入力装置及び出力装置を提供してもよい。この場合、評価環境がウェブサーバの機能を有し、ユーザ端末が評価環境に所定のプロトコルでアクセスしてもよい。
プロセッサが実行するプログラムは、リムーバブルメディア(CD−ROM、フラッシュメモリなど)又はネットワークを介して評価環境に提供され、非一時的記憶媒体である不揮発性の補助記憶装置に格納される。このため、評価環境は、リムーバブルメディアからデータを読み込むインターフェースを有するとよい。
評価環境は、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムであり、複数の物理的計算機資源上に構築された仮想計算機上で動作してもよい。例えば、車両挙動シミュレータ1、左視点映像生成機能2、右視点映像生成機能3、光学フィルタ機能4及びカメラフォーマット変換機能5は、各々別個の物理的又は論理的計算機上で動作するものでも、複数が組み合わされて一つの物理的又は論理的計算機上で動作するものでもよい。
図3は、本実施例に係る視点映像生成機能2、3の構成を示す図である。なお、図3には、左視点映像生成機能2の構成を示すが、右視点映像生成機能3も同じ構成である。
左視点映像生成機能2は、CG環境情報201と、座標情報受信部202と、視点映像CG生成部203と、CG映像送信部204とから構成される。座標情報受信部202は、車両挙動シミュレータ1によって計算された視点座標・姿勢S1を、視点映像CG生成部203が処理できる形式に変換し、視点映像CG生成部203に送信する。
視点映像CG生成部203は、CG環境情報201で指定された仮想空間上において、座標情報受信部202で変換された視点座標・姿勢S1に応じたCG映像を生成し、CG映像送信部204に送信する。
CG映像送信部204は、視点映像CG生成部203によって生成された映像を受信すると、すぐに光学フィルタ機能4に左視点映像S3を送信する。CG映像送信部204は、映像を格納するバッファを有してもよい。
図4は、本実施例に係る光学フィルタ機能4の構成を示す図である。
光学フィルタ機能4は、CG映像受信部401と、ゲイン調整部402と、ぼかし処理部403と、ノイズ処理部404と、歪み処理部405と、CG映像送信部406とから構成される。CG映像受信部401は、左視点映像S3又は右視点映像S4を受信し、ゲイン調整部402、ぼかし処理部403、ノイズ処理部404、歪み処理部405に送信する。CG映像受信部401は、受信した映像を格納するバッファを有してもよい。なお、光学フィルタ機能4は、ゲイン調整調整部402と、ぼかし処理403と、ノイズ処理404と、歪み処理405を任意の順に変更する構成であってもよい。
ゲイン調整部402、ぼかし処理部403、ノイズ処理部404、歪み処理部405は、ステレオカメラECU6から入力される光学処理情報S8に基づいてカメラの光学系を模擬する処理を行う。これらの処理は、模擬される光学系(レンズ及び撮像素子)の特性に応じて、一つ以上が選択的に実行されればよい。具体的には、ゲイン調整部402は、カメラの撮像素子のゲイン調整により映像の明るさを模擬するための処理である。ぼかし処理部403は、レンズが固有に有する光学的なボケを模擬するための処理である。ノイズ処理部404は、カメラが撮影した映像に含まれるノイズを模擬するための処理である。歪み処理部405は、レンズが固有に有する光学的な歪みを模擬するための処理である。
そして、光学フィルタ機能4は、光学的な画像処理を行った視点映像をCG映像送信部406に格納し、シャッタ信号S9のタイミングで、左右の視点映像S5、S6をカメラフォーマット変換機能5に送信する。CG映像送信部406は、映像を格納するバッファを有してもよい。
図5は、本実施例に係るゲイン調整部402の概念図である。
左視点映像生成機能2で生成される左視点映像S3は、複数画素の集合から構成されている。例えば、各画素をRGBの各値で表した場合、RGBの各値に明度情報が含まれることから、RGBの各値を決定する。ステレオカメラECU6は、周辺の明るさに応じてカメラの露光時間を調整しており、光学処理情報S8を出力する。この光学処理情報S8に含まれる露光情報が全体を1/2の明るさにする指令である場合、各画素の明度を1/2にする処理を行う。これにより、実際のレンズなどの光学系を通過して撮像素子で撮影された映像と同等の映像を生成できる。
図6は、本実施例に係るカメラフォーマット変換機能5の構成を示す図である。
カメラフォーマット変換機能5は、データ情報である左右の視点映像S5、S6を、ハードウェアと接続するためのインターフェースであり、CG映像受信部501と、カラーフィルタ変換部502と、伝送形式変換部503と、CG映像送信I/F504とから構成される。
CG映像受信部501は、光学フィルタ機能4によって光学処理された左右の視点映像S5、S6を入力し、カメラECUが認識できるRGGB形式やRCC形式などのカラーパターンへ変換するカラーフィルタ変換部502に送信する。
カラーフィルタ変換部502は、ステレオカメラECU6に適したカラーパターン(例えば、撮像素子から出力されるものと同じ形式(RGGBなど)の)に変換されたCG映像を、カメラへの送信I/Fに従った映像形式に変更をする伝送形式変換部503に送信する。
CG映像送信I/F504は、伝送形式変換部503によってカメラフォーマットに従った形式に変換されたCG映像S7を、ステレオカメラECU6に出力する。
図7は、本実施例に係るステレオカメラECU6の構成を示す図である。
ステレオカメラECU6は、CG映像受信I/F601と、画像認識部602と、車両制御部603とから構成される。
CG映像受信I/F601は、カメラフォーマットで入力されるCG映像を受信し、画像認識部602に送信する。
画像認識部602は、入力されるCG映像を用いて外界認識処理を実行し、認識された物体の速度や距離などの認識結果を出力する。
車両制御部603は、車両制御情報S10を出力する。車両制御情報S10は、画像認識部602による認識結果と、車両情報S11とに基づいて生成される、車両制御のための制御フィードバック情報であるアクセル、ブレーキ、舵角などを含む。また、車両制御部603は、映像の明るさを決める露光時間などのステレオカメラECU6が要求する光学処理情報S8と、ステレオカメラECU6が映像を要求するタイミングを示すシャッタ信号S9を出力する。
図8は、本実施例に係るHILSを構成する各機能の動作を示すシーケンス図である。なお、図8には左視点映像を生成する処理を示すが、右視点映像も同様の処理で生成される。
ステレオカメラEUC6は、映像を要求するタイミング毎にシャッタ信号S9と光学処理情報S8とを送信する。車両挙動シミュレータ1は、シャッタ信号S9を受信すると、受信したタイミングのカメラ視点座標・姿勢S1を計算し、視点映像生成機能2、3に通知する。視点映像生成機能2、3は、カメラ視点座標・姿勢S1が通知されると、通知されたカメラ視点座標・姿勢S1のCG映像S3を生成し、光学フィルタ機能4へ送信する。光学フィルタ機能4は、ステレオカメラECU6から受信する光学処理情報S8に従って、受信したCG映像S3に、ステレオカメラECU6に出力するための光学的な画像処理を行い、画像処理された映像を保持する。光学フィルタ機能4は、ステレオカメラECU6が次のシャッタ信号S9で要求するタイミングにおいて、光学処理された映像S5をステレオカメラECU6が処理可能な信号形式にカメラフォーマット変換機能5に送信する。カメラフォーマット変換機能5は、受信した光学処理後の映像S5をカメラフォーマットに変換し、ステレオカメラECU6に映像を送信する。
シャッタタイミング内で左右カメラの処理を終え、次のシャッタタイミングでデータを送信することによって、左右でずれがない光学処理を含んだCG映像を提供することが可能となる。
以上に説明したように実施例1によると、カメラが撮影する外界の映像を模擬するシミュレーション用映像を生成する映像生成機能2、3と、カメラから出力される映像を模擬するための光学的な画像処理をシミュレーション用映像に行う光学フィルタ機能4と、画像処理された後の映像を用いて認識処理を行って、車両制御用の信号を生成するカメラ画像処理部(ステレオカメラECU6、ステレオカメラモデル7)とを備えるので、評価対象が必要とする明るさや歪みなどの光学的な画像処理を行った仮想映像を用いてカメラ画像処理部を適切に評価できる。
すなわち、ステレオカメラECU6からの情報に基づいて明るさを変更したCG映像を描画するとシステムの負荷が高くなることから、映像生成機能2、3が生成したシミュレーション用映像に、光学フィルタ機能4が光学的な画像処理を行うことによって、システム負荷を抑制しつつ、ステレオカメラECU6の要求に従ったシミュレーション用映像を生成できる。
また、ステレオカメラECU6は明るさによって動作が異なる場合があり、ステレオカメラECU6の学習時に、明るさだけが異なる同一被写体の映像が有効である。しかし、実写映像や指定された条件で生成されたCG映像は一つの明るさでしかなく、異なる明るさ状態での学習が困難である。しかし、本実施例ではCG環境によって映像を生成するので、異なる条件で同一被写体の映像を生成でき、実写映像より細かな明るさ指定によって、ステレオカメラECU6に十分な学習をさせることができる。
また、カメラが搭載される車両の挙動及び周辺環境を模擬する車両挙動シミュレータ1を有し、映像生成機能2、3が車両挙動シミュレータ1の出力に基づいてCG映像を生成するので、車両の走行に合わせたCG映像を生成できる。
また、光学フィルタ機能4によって画像処理された映像をステレオカメラECU6への入力に適する形式の映像にデータフォーマットを変換するカメラフォーマット変換機能5を有するので、実車搭載時にステレオカメラECU6に入力されるフォーマットの映像データ(例えば、撮像素子が出力するRGGBの画素データ)をステレオカメラECU6に入力でき、ステレオカメラECU6を適切に評価できる。
また、実施例1では、カメラは少なくとも左視点映像と右視点映像とを撮影する複眼カメラであって、実施例4では、カメラは一つの映像とを撮影する単眼カメラとしたので、様々な数のカメラ(撮像素子)にも対応できる。
また、光学フィルタ機能4は、ゲイン調整処理と、ぼかし処理と、ノイズ処理と、歪み処理との少なくとも一つの処理を実行するので、実際のレンズなどの光学系を通過して撮像素子で撮影された映像と同等の映像を生成できる。
[実施例2]
図9は、本発明に係る一実施例として光学フィルタ機能4を映像生成機能に統轄したHILSの構成例を示す図である。実施例2では、左視点映像生成機能2及び右視点映像生成機能3が、CG映像を生成する際に光学的な画像処理を実行する。以下の実施例2の説明において、実施例1と異なる箇所を主に説明し、実施例1と同じ機能の構成には同じ符号を付し、それらの説明は省略する。
CG映像S7が入力されるステレオカメラECU6を評価する評価環境は、車両挙動シミュレータ1と、左視点映像生成機能2と、右視点映像生成機能3と、カメラフォーマット変換機能5とから構成される。
車両挙動シミュレータ1は、所定の時間(例えば、1ミリ秒)間隔で車両の挙動を計算し、シミュレーション空間内にいる自車両の左右のカメラ座標と姿勢を計算する。また、車両の挙動は、ドライバーが操作する情報の他に、ステレオカメラECU6から入力されるアクセル、ブレーキ、舵角などの車両制御情報S10を用いて計算する。計算された左視点座標・姿勢S1を左視点映像生成機能2に送信し、右視点座標・姿勢S2を右視点映像生成機能3に送信する。また、車速などの車両情報S11をステレオカメラECU6に送信する。
左視点映像生成機能2は、車両挙動シミュレータ1によって計算された左視点座標・姿勢S1と、ステレオカメラECU6から出力された光学処理情報S8とから、光学処理された左視点の映像S5を生成し、シャッタ信号S9が入力されたタイミングでカメラフォーマット変換機能5に送信する。
右視点映像生成機能3は、車両挙動シミュレータ1によって計算された右視点座標・姿勢S2と、ステレオカメラECU6から出力された光学処理情報S8とから、光学処理された右視点の映像S6を生成し、シャッタ信号S9が入力されたタイミングでカメラフォーマット変換機能5に送信する。
カメラフォーマット変換機能5は、入力された光学処理後の左視点映像S5と右視点映像S6とを、ステレオカメラECU6が受信できるハード的かつソフト的カメラI/Fに適合したCG映像S7に変換する。
ステレオカメラECU6は、カメラI/Fに適合したCG映像S7と、車速などの車両情報S11の入力を受け、アクセル、ブレーキ、舵角などの車両制御情報S10を必要に応じて車両挙動シミュレータ1に出力する。また、ステレオカメラECU6は、ステレオカメラECU6が要求する露光情報などを含む光学処理情報S8を、左視点映像生成機能2と右視点映像生成機能3とに出力する。また、ステレオカメラECU6は、映像を要求するタイミングを制御し、映像を要求するタイミングを示すシャッタ信号S9を、左視点映像生成機能2と右視点映像生成機能3と車両挙動シミュレータ1とに出力する。
以下の説明において、左右ともに同じ動作をする場合は、左映像について説明する。右映像についての説明は省略するが、左映像と同様の処理が行われる。
図10は、本実施例に係る光学フィルタ機能4を含む視点映像生成機能2、3の構成を示す図である。なお、図10には、左視点映像生成機能2の構成を示すが、右視点映像生成機能3も同じ構成である。
左視点映像生成機能2は、CG環境情報201と、座標情報受信部202と、視点映像CG生成部203と、CG映像送信部204とから構成される。視点映像CG生成部203は、光学フィルタ機能4を有し、光学処理情報S8に基づいてゲイン調整部402と、ぼかし処理403部と、ノイズ処理404部と、歪み処理405部とで画像処理を行って、CG映像を生成する。
座標情報受信部202は、車両挙動シミュレータ1によって計算された視点座標・姿勢S1を受信すると視点映像CG生成部203に送信する。
視点映像CG生成部203は、CG環境情報201で指定された仮想空間上において、座標情報受信部202で変換された視点座標・姿勢S1に応じたCG映像を生成し、ステレオカメラECU6から入力された光学処理情報S8に基づいて、ゲイン調整部402と、ぼかし処理部403と、ノイズ処理部404と、歪み処理部405とで処理を行って、光学処理を行ったCG映像を生成し、CG映像送信部204に送信する。CG映像送信部204は、映像を格納するバッファを有してもよい。
CG映像送信部204は、ステレオカメラECU6から入力されるシャッタ信号S9のタイミングで、光学的な画像処理後の左視点映像S5をカメラフォーマット変換機能5に送信する。
図11は、本実施例に係るHILSを構成する各機能の動作を示すシーケンス図である。
ステレオカメラECU6は、映像を要求するタイミング毎にシャッタ信号S9と光学処理情報S8とを送信する。車両挙動シミュレータ1は、シャッタ信号S9を受信すると、受信したタイミングのカメラ視点座標・姿勢S1を計算し、視点映像生成機能2、3に送信する。視点映像生成機能2、3は、カメラ視点座標・姿勢S1が通知されると、通知されたカメラ視点座標・姿勢S1のCG映像を生成し、ステレオカメラEUC6から受信する光学処理情報S8に従って、受信したCG映像S3に、ステレオカメラECU6に出力するための光学的な画像処理を行ったCG映像S5を生成する。生成された映像は視点映像生成機能2、3で保持される。視点映像生成機能2、3は、ステレオカメラECU6が次のシャッタ信号S9で要求するタイミングにおいて、光学処理された映像S5をステレオカメラECU6が処理可能な信号形式にカメラフォーマット変換機能5に送信する。カメラフォーマット変換機能5は、受信した光学処理後の映像S5をカメラフォーマットに変換し、ステレオカメラECU6に映像を送信する。
以上に説明したように実施例2によると、光学フィルタ機能4を映像生成機能2、3に設けたので、実施例1と比べてCG映像を生成する処理の時間が長くなるが、バッファへの入出力やデータ転送などの映像生成の周辺の処理回数を低減できる。このため、ステレオカメラECU6を短時間で評価できる。
[実施例3]
図12は、本実施例に係る一構成例として光学フィルタ機能4を用いたSILSの構成例を示す図である。実施例3では、実施例1のステレオカメラECU6の機能をソフトウェアで構成されたステレオカメラモデル7が実行するので、ステレオカメラモデル7に入力されるデータは形式を変換する必要がなく、カメラフォーマット変換機能5が不要となる。以下の実施例3の説明において、実施例1と異なる箇所を主に説明し、実施例1と同じ機能の構成には同じ符号を付し、それらの説明は省略する。
CG映像S7が入力されるステレオカメラモデル7を評価する評価環境は、車両挙動シミュレータ1と、左視点映像生成機能2と、右視点映像生成機能3と、光学フィルタ機能4とから構成される。
車両挙動シミュレータ1は、所定の時間(例えば、1ミリ秒)間隔で車両の挙動を計算し、シミュレーション空間内にいる自車両の左右のカメラ座標と姿勢を計算する。また、車両の挙動は、ドライバーが操作する情報の他に、ステレオカメラECU6から入力されるアクセル、ブレーキ、舵角などの車両制御情報S10を用いて計算する。計算された左視点座標・姿勢S1を左視点映像生成機能2に送信し、右視点座標・姿勢S2を右視点映像生成機能3に送信する。また、車速などの車両情報S11をステレオカメラECU6に送信している。
左視点映像生成機能2は、車両挙動シミュレータ1によって計算された左視点座標・姿勢S1から左視点映像S3を生成し、光学フィルタ機能4に送信する。
右視点映像生成機能3は、車両挙動シミュレータ1によって計算された右視点座標・姿勢S2から右視点映像S4を生成し、光学フィルタ機能4に送信する。
光学フィルタ機能4は、ステレオカメラECU6から出力された光学処理情報S8に従って、左右の視点映像S3、S4に明るさやノイズなどの光学的な画像処理を行った左視点映像S5、右視点映像S6を生成し、シャッタ信号S9のタイミングでカメラフォーマット変換機能5に送信する。
ステレオカメラモデル7は、光学処理された左右の視点映像S5、S6と、車速などの車両情報S11が入力され、アクセル、ブレーキ、舵角などの車両制御情報S10を必要に応じて車両挙動シミュレータ1に出力する。また、ステレオカメラモデル7は、ステレオカメラECU6が要求する露光情報などを含む光学処理情報S8と、映像を要求するタイミングを示すシャッタ信号S9とを、映像を要求するタイミングで光学フィルタ機能4に出力する。また、シャッタ信号S9は、車両挙動シミュレータ1にも出力される。
すなわち、外界認識センサの一つであるステレオカメラを模擬する構成は、実施例1、2のようにハードウェア(HiLS)で構成しても、実施例3のようにソフトウェア(SiLS)で構成してもよい。
以上に説明したように実施例3によると、ハードウェアで構成されるステレオカメラECUをソフトウェアで模擬するので、ステレオカメラECUのハードウェア的な仕様(例えば、信号レベル)に左右されることなく、ステレオカメラECUの制御ロジックを検証できる。
[実施例4]
図13は、本実施例に係る一構成例として単眼カメラのHILSの構成例を示す図である。以下の実施例4の説明において、実施例1と異なる箇所を主に説明し、実施例1と同じ機能の構成には同じ符号を付し、それらの説明は省略する。
CG映像S7が入力されるステレオカメラECU6を評価する評価環境は、車両挙動シミュレータ1と、視点映像生成機能2と、光学フィルタ機能4と、カメラフォーマット変換機能5から構成される。各機能の処理は前述した実施例1と同じである。
すなわち、外界認識センサの一つであるカメラは、実施例1〜3のように複眼カメラ(例えばステレオカメラ)でも、実施例4のように単眼カメラでもよく、本発明はカメラの撮像素子の数を限定するものではない。また、3眼以上の複眼カメラ(上方から見下ろす視点で周囲映像を生成するシステム)にも、本発明を適用できる。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
[実施例5]
図14は、実施例の一例として視点映像CG映像部を示す。本実施例では、実際のレンズのようにCG映像を作成する場合、仮想空間上に存在する光源からRGB映像を描画する。光源が発する光の情報として輝度情報があり、光学処理情報S8に含まれる。作成するRGB映像には色深度が存在し、複数の色情報を有している。この色深度は任意に設定可能であり、Xbitとする。また、この色深度の情報は、輝度情報から関連付けられ、輝度情報と色深度の設定は任意に設定可能とし、1次元や2次元などの引数参照も可能とする。
図15は、CG映像を光学処理するゲイン調整処理部402を示す。図14に示すRGBデータを受領し、実際のカメラのようなCMOS特性を考慮した光学処理を行う。ゲイン調整処理部402は、RGBデータを受領しCMOS特性などを考慮したゲイン調整を行う。このゲイン調整は1次元や2次元などの引数参照も可能とする。このことで実際のCMOS特性を再現するものである。
すなわち本実施例は、映像生成部がカメラ画像処理部からの輝度情報に基づいて、任意の映像データを作成する。
また、輝度情報から映像データへの生成は、任意に設定可能な変数により変換する。
また、映像生成部で作成された映像データから、光学センサを模擬した映像データに変換する。
また、映像生成部で作成された映像データは、任意に設定可能な変数を用いて光学センサを模擬した映像データへ変換する。
1:車両挙動シミュレータ
2:左視点映像生成機能
3:右視点映像生成機能
4:光学フィルタ機能
5:カメラフォーマット変換機能
6:ステレオカメラECU
7:ステレオカメラモデル
101:シミュレーションモデル
102:センサモデル
103:環境モデル
104:車両モデル
105:視点情報I/F
106:CAN I/F
201:CG環境情報
202:座標情報受信部
203:視点映像用CG生成部
204:CG映像送信部
401:CG映像受信部
402:ゲイン調整 処理部
403:ぼかし処理部
404:ノイズ処理部
405:歪み処理部
406:CG映像送信部
501:CG映像受信部
502:カラーフィルタ変換部
503:映像形式変換部
504:CG映像送信I/F
601:CG映像受信I/F
602:画像認識部
603:車両制御部
S1:左視点座標・姿勢
S2:右視点座標・姿勢
S3:左視点映像
S4:右視点映像
S5:光学処理後の左視点映像
S6:光学処理後の右視点映像
S7:カメラI/Fに適合した視点映像
S8:光学処理情報
S9:シャッタ信号
S10:アクセル、ブレーキ、舵角などの車両制御情報
S11:車両情報

Claims (14)

  1. 外界を撮像するカメラを含むカメラシステムの評価装置であって、
    前記カメラが撮影する外界の映像を模擬するシミュレーション用映像を生成する映像生成部と、
    前記カメラから出力される映像を模擬するための光学的な画像処理を、前記シミュレーション用映像に行う光学フィルタ部と、
    前記画像処理された後の映像を用いて認識処理を行って、車両制御用の信号を生成するカメラ画像処理部とを備える評価装置。
  2. 請求項1に記載の評価装置であって、
    前記カメラが搭載される車両の挙動及び周辺環境を模擬するシミュレータと、
    映像の形式を変換する変換部とを備え、
    前記映像生成部は、前記シミュレータの出力に基づいて、前記シミュレーション用映像を生成し、
    前記変換部は、前記画像処理された映像を前記カメラ画像処理部への入力に適する形式の映像に変換し、
    前記カメラ画像処理部は、前記画像処理された後に、前記形式が変換された映像を用いて認識処理を行って、車両制御用の信号を生成することを特徴とする評価装置。
  3. 請求項2に記載の評価装置であって、
    前記光学フィルタ部は、前記映像生成部に設けられることを特徴とする評価装置。
  4. 請求項2に記載の評価装置であって、
    前記カメラは、少なくとも左視点映像と右視点映像とを撮影する複眼カメラであって、
    前記映像生成部は、前記シミュレータの出力に基づいて、左視点シミュレーション用映像と右視点シミュレーション用映像とを生成し、
    前記光学フィルタ部は、前記カメラ画像処理部からの出力に基づいて、前記左視点シミュレーション用映像と前記右視点シミュレーション用映像とのそれぞれに前記光学的な画像処理を行い、前記カメラ画像処理部からのタイミング信号に従って前記光学処理された左視点シミュレーション用映像と右視点シミュレーション用映像とを同期して出力し、
    前記変換部は、前記画像処理された左視点シミュレーション用映像と右視点シミュレーション用映像とを前記カメラ画像処理部に入力可能な形式の映像に変換し、
    前記カメラ画像処理部は、前記画像処理された後に、前記形式が変換された映像を用いて認識処理を行って、車両制御用の信号を生成することを特徴とする評価装置。
  5. 請求項4に記載の評価装置であって、
    前記光学フィルタ部は、前記映像生成部に設けられることを特徴とする評価装置。
  6. 請求項1から5のいずれか一つに記載の評価装置であって、
    前記光学フィルタ部は、ゲイン調整処理と、ぼかし処理と、ノイズ処理と、歪み処理との少なくとも一つの処理を行うことを特徴とする評価装置。
  7. 請求項1から5のいずれか一つに記載の評価装置であって、
    前記カメラ画像処理部は、前記カメラシステムに実装される電子制御装置であることを特徴とする評価装置。
  8. 請求項1から5のいずれか一つに記載の評価装置であって、
    前記カメラ画像処理部は、ソフトウェアによるカメラ機能シミュレータであることを特徴とする評価装置。
  9. 外界を撮像するカメラを含むカメラシステムの評価を演算装置が行う方法であって、
    前記演算装置が、前記カメラが撮影する外界の映像を模擬するシミュレーション用映像を生成する映像生成手順と、
    前記演算装置が、前記カメラから出力される映像を模擬するための光学的な画像処理を、前記シミュレーション用映像に行う光学フィルタ手順と、
    前記演算装置が、前記画像処理された後の映像を用いて認識処理を行って、車両制御用の信号を生成するカメラ画像処理手順とを備える方法。
  10. 請求項1から5のいずれか一つに記載の評価装置であって、
    前記光学フィルタ部は、ゲイン調整処理と、ぼかし処理と、ノイズ処理と、歪み処理を任意の順に変更することを特徴とする評価装置。
  11. 請求項2に記載の評価装置であって、
    前記映像生成部は、前記カメラ画像処理部からの輝度情報に基づいて、任意の映像データを作成する評価装置。
  12. 請求項11に記載の評価装置であって、
    前記輝度情報から前記映像データへの生成は、任意に設定可能な変数により変換することを特徴とする評価装置。
  13. 請求項6に記載の評価装置であって、
    前記映像生成部で作成された映像データから、光学センサを模擬した映像データに変換することを特徴とする評価装置。
  14. 請求項13に記載の評価装置であって、
    前記映像生成部で作成された映像データは、任意に設定可能な変数を用いて光学センサを模擬した映像データへ変換することを特徴とする評価装置。
JP2021506232A 2019-03-19 2020-02-07 カメラシステムの評価装置及び評価方法 Active JP7245318B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019051526 2019-03-19
JP2019051526 2019-03-19
PCT/JP2020/004733 WO2020189081A1 (ja) 2019-03-19 2020-02-07 カメラシステムの評価装置及び評価方法

Publications (2)

Publication Number Publication Date
JPWO2020189081A1 true JPWO2020189081A1 (ja) 2021-10-28
JP7245318B2 JP7245318B2 (ja) 2023-03-23

Family

ID=72520611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021506232A Active JP7245318B2 (ja) 2019-03-19 2020-02-07 カメラシステムの評価装置及び評価方法

Country Status (4)

Country Link
US (1) US20220101500A1 (ja)
JP (1) JP7245318B2 (ja)
DE (1) DE112020000836T5 (ja)
WO (1) WO2020189081A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022149411A1 (ja) * 2021-01-07 2022-07-14 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、シミュレーションシステム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008069189A1 (ja) * 2006-12-04 2008-06-12 Fujitsu Limited 運転模擬評価方法、運転模擬評価装置及びコンピュータプログラム
JP2009265915A (ja) * 2008-04-24 2009-11-12 Toyota Central R&D Labs Inc シミュレーション装置及びプログラム
JP2010026845A (ja) * 2008-07-22 2010-02-04 Yokogawa Electric Corp 車載カメラ用電子ユニットの評価システム
JP2015015527A (ja) * 2013-07-03 2015-01-22 クラリオン株式会社 映像表示システム、映像合成装置及び映像合成方法
WO2017171005A1 (ja) * 2016-04-01 2017-10-05 株式会社wise 3dグラフィック生成、人工知能の検証・学習システム、プログラム及び方法
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272571B1 (ko) * 2011-11-11 2013-06-10 재단법인대구경북과학기술원 지능형 자동차의 스테레오 비전 시스템에 대한 시뮬레이션 장치 및 이를 이용한 카메라 교정 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008069189A1 (ja) * 2006-12-04 2008-06-12 Fujitsu Limited 運転模擬評価方法、運転模擬評価装置及びコンピュータプログラム
JP2009265915A (ja) * 2008-04-24 2009-11-12 Toyota Central R&D Labs Inc シミュレーション装置及びプログラム
JP2010026845A (ja) * 2008-07-22 2010-02-04 Yokogawa Electric Corp 車載カメラ用電子ユニットの評価システム
JP2015015527A (ja) * 2013-07-03 2015-01-22 クラリオン株式会社 映像表示システム、映像合成装置及び映像合成方法
WO2017171005A1 (ja) * 2016-04-01 2017-10-05 株式会社wise 3dグラフィック生成、人工知能の検証・学習システム、プログラム及び方法
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法

Also Published As

Publication number Publication date
WO2020189081A1 (ja) 2020-09-24
DE112020000836T5 (de) 2022-01-05
JP7245318B2 (ja) 2023-03-23
US20220101500A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
US11092966B2 (en) Building an artificial-intelligence system for an autonomous vehicle
JP7011711B2 (ja) カメラおよび回折光学要素の外因性較正のためのシステムおよび方法
US11663691B2 (en) Method and apparatus for restoring image
TWI705417B (zh) 深度資料處理系統的操作方法
JP7082713B2 (ja) ローリングシャッター画像/ビデオのsfm/slamに対するアプリケーションで畳み込みニューラルネットワークを用いる画像/ビデオにおけるローリングシャッター補正
JP7064257B2 (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
US20220319145A1 (en) Image processing device, image processing method, moving device, and storage medium
WO2020189081A1 (ja) カメラシステムの評価装置及び評価方法
GB2564866A (en) Method of and data processing system for providing an output surface
CN113246858B (zh) 车辆行驶状态图像生成方法、设备和系统
US11823353B2 (en) System and method for generating bokeh image for DSLR quality depth-of-field rendering and refinement and training method for the same
US20240078284A1 (en) Two-way descriptor matching on deep learning accelerator
US20230276020A1 (en) Image processing device, image processing method, and image processing program
Pfeffer et al. Video injection methods in a real-world vehicle for increasing test efficiency
CN114585487A (zh) 通过使用基于视觉的机器人任务模型训练模拟到真实模型来减轻现实差距
US11189065B2 (en) Editor for images with depth data
KR20230078502A (ko) 이미지 처리 장치 및 방법
US20210374543A1 (en) System, training device, training method, and predicting device
US20210074059A1 (en) Rendering device, rendering method, 3d model generating method, neural network model generating method, and non-transitory computer readable medium
US11423308B1 (en) Classification for image creation
KR20220127642A (ko) 전자 장치 및 그 제어 방법
JP6967150B2 (ja) 学習装置、画像生成装置、学習方法、画像生成方法及びプログラム
WO2020067204A1 (ja) 学習用データ作成方法、機械学習モデルの生成方法、学習用データ作成装置及びプログラム
KR20210116161A (ko) 단일 체커보드를 이용하는 이종 센서 캘리브레이션 방법 및 장치
KR102445874B1 (ko) 멀티 카메라 시스템을 보정하기 위한 전자 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230310

R150 Certificate of patent or registration of utility model

Ref document number: 7245318

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150