JP6893322B2 - 画像生成システム、画像表示システム、画像生成方法、画像生成プログラム、及び移動体 - Google Patents

画像生成システム、画像表示システム、画像生成方法、画像生成プログラム、及び移動体 Download PDF

Info

Publication number
JP6893322B2
JP6893322B2 JP2019050367A JP2019050367A JP6893322B2 JP 6893322 B2 JP6893322 B2 JP 6893322B2 JP 2019050367 A JP2019050367 A JP 2019050367A JP 2019050367 A JP2019050367 A JP 2019050367A JP 6893322 B2 JP6893322 B2 JP 6893322B2
Authority
JP
Japan
Prior art keywords
image
processing unit
processing
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019050367A
Other languages
English (en)
Other versions
JP2019169146A (ja
Inventor
裕大 石橋
裕大 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2019169146A publication Critical patent/JP2019169146A/ja
Application granted granted Critical
Publication of JP6893322B2 publication Critical patent/JP6893322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、画像生成システム、画像表示システム、画像生成方法、画像生成プログラム、及び移動体に関する。より詳細には、本開示は、入力された画像データを加工して画像データを生成する画像生成システム、画像表示システム、画像生成方法、画像生成プログラム、及び移動体に関する。
従来、複数のカメラで撮影することで得られた画像データをもとに全周囲の画像(俯瞰画像)を生成し、この画像を表示装置に表示する全周囲映像システムがあった(例えば特許文献1参照)。
この全周囲映像システムは、複数のカメラから入力される画像データをもとに全周囲の画像を生成して表示装置に表示するプロセッサを有している。
プロセッサは、複数の画像処理モジュールと、中央処理装置とを備えている。複数の画像処理モジュールの各々は、複数のカメラのうち対応するカメラから入力された画像について、魚眼レンズに起因する歪みを補正する処理を行い、歪み補正後の画像を半導体メモリに書き込む。複数の画像処理モジュールの各々は、ディスプレイリストを格納するためのディスプレイリストバッファを備え、ディスプレイリストバッファに格納されたディスプレイリストに従って歪み補正を行う。複数の画像処理モジュールにおいて1画面分の画像データが得られたら、ディスプレイリストにおけるTRAP命令が実行され、中央処理装置に対する割り込みが発生する。中央処理装置では、割り込みに対応する所定の割り込み処理を実行し、歪み補正処理後の画像データを半導体メモリから読み出して、歪み補正処理後の画像データから全周囲の画像データを生成し、表示装置に表示する。
特開2012−95075号公報
上述の全周囲映像システムでは、複数の画像表示モジュールにおいて1画面分の画像データが得られたら、複数の画像表示モジュールが中央処理装置に対する割り込みを発生する。そして、中央処理装置は、複数の画像表示モジュールから割り込みを受けると、所定の割り込み処理を実行するのであるが、中央処理装置への割り込みによる待ち合わせが発生すると、処理速度が低下するという問題があった。
本開示の目的は、処理速度の低下を抑制可能な画像生成システム、画像表示システム、画像生成方法、画像生成プログラム、及び移動体を提供することにある。
本開示の一態様の画像生成システムは、取得部と、第1処理部と、第2処理部と、を備える。前記取得部は、第1画像データを取得する。前記第1処理部は、前記取得部が取得した前記第1画像データに対して所定の加工処理を実行して第2画像データを生成する。前記第2処理部は、前記第2画像データに対して認識処理を実行する。前記第1処理部と前記第2処理部とは、プロセッサからの命令によらずに、前記加工処理と前記認識処理とを含む一連の処理を同期して実行する。前記第1処理部が、前記一連の処理が設定された所定の設定情報に従って前記加工処理を実行し、前記第2処理部が前記設定情報に従って前記認識処理を実行する。
本開示の一態様の画像表示システムは、前記画像生成システムと、前記画像生成システムで生成された画像を表示する表示部と、を備える。
本開示の一態様の画像生成方法は、第1画像データを取得するステップと、前記第1画像データに対して所定の加工処理を実行して第2画像データを生成するステップと、前記第2画像データに対して認識処理を実行するステップと、を含む。前記画像生成方法は、プロセッサからの命令によらずに、前記加工処理と前記認識処理とを含む一連の処理を同期して実行する。前記画像生成方法は、前記一連の処理が設定された所定の設定情報に従って前記加工処理を実行し、前記設定情報に従って前記認識処理を実行する。
本開示の一態様の画像生成プログラムは、コンピュータシステムに前記画像生成方法を実行させるためのプログラムである。
本開示の一態様の移動体は、前記画像表示システムと、前記画像表示システムを搭載する移動体本体と、を備える。
本開示によれば、処理速度の低下を抑制可能な画像生成システム、画像表示システム、画像生成方法、画像生成プログラム、及び移動体を提供することができる。
図1は、本開示の一実施形態に係る画像生成システムを備える画像表示システムのブロック図である。 図2は、同上の画像表示システムを備える移動体の概略説明図である。 図3は、同上の画像表示システムを備える移動体の運転席に座った利用者の前方視界を説明する説明図である。 図4A〜図4Cは、同上の画像表示システムに入力されるカメラの画像を説明する説明図である。図4Dは、同上の画像表示システムによって表示される合成画像の説明図である。 図5は、同上の画像生成システムが備える動作制御部の動作を示すフローチャートである。 図6は、同上の画像表示システムが備える動作設定部の動作を示すフローチャートである。 図7は、同上の画像表示システムが備えるプレグラフィックス処理部の動作を示すフローチャートである。 図8は、同上の画像表示システムが備える検索部の動作を示すフローチャートである。 図9は、同上の画像表示システムが備えるマッチング部の動作を示すフローチャートである。 図10は、同上の画像表示システムが備えるポストグラフィックス処理部の動作を示すフローチャートである。
(実施形態)
(1)概要
本実施形態に係る画像生成システム2の概要について、図1を参照して説明する。
本実施形態の画像生成システム2は、第1画像データに所定処理を実行して第2画像データを生成し、生成した第2画像データに対して認識処理を実行する。
画像生成システム2は、取得部40と、第1処理部50と、第2処理部60と、を備える。取得部40は第1画像データを取得する。第1処理部50は、取得部40が取得した第1画像データに対して所定の加工処理を実行して第2画像データを生成する。第2処理部60は、第2画像データに対して認識処理を実行する。第1処理部50と第2処理部60とは、プロセッサ(ソフト処理部10)からの命令によらずに、同期して処理を実行する。
本実施形態に係る画像表示システム1は、画像生成システム2と、画像生成システム2で生成された画像を表示する表示部3と、を備える。
また、本実施形態に係る移動体100(図2参照)は、画像表示システム1と、画像表示システム1を搭載する本体(移動体本体)101と、を備える。
プロセッサが、第1処理部50に加工処理を実行させた後に第1処理部50からの完了信号を受け付けると、第2処理部60に認識処理を実行させる場合は、プロセッサで完了信号の待ち受けを行う必要があり、プロセッサの処理速度が低下する可能性がある。本実施形態の画像生成システム2では、第1処理部50と第2処理部60とが、プロセッサ(後述のソフト処理部10)からの命令によらずに同期して処理を実行する。したがって、プロセッサにおいて第1処理部50から加工処理の完了信号が入力されるのを待ち受ける必要がなく、プロセッサの処理速度の低下を抑制できる、という利点がある。
ここにおいて、取得部40は、例えばディジタルビデオカメラのようなカメラ4が定期又は不定期に撮影することで、カメラ4によって取り込まれる複数の画像フレームで表される第1画像データを、カメラ4から取得する。第1画像データによって表される複数の画像フレームを以下では第1群の画像フレームともいう。カメラ4は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、CCD(Charged Coupled Devices)イメージセンサ等の撮像素子を有している。カメラ4は、定期又は不定期に対象範囲を撮影して得た第1画像データを出力する。尚、取得部40は、カメラ4から第1画像データを取得するものに限定されず、外部記憶装置又はデータベースに蓄積された第1画像データを外部記憶装置又はデータベースから取得してもよい。外部記憶装置としては、ハードディスクドライブ(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、フラッシュメモリ等がある。また、取得部40は、放送局から電波で送信された第1画像データを受信するものでもよいし、通信ネットワークを通じて送信された第1画像データを受信するものでもよい。
また、「所定の加工処理」とは、例えば、カメラ4が広角レンズを備えている場合にカメラ4で撮影することで得られた第1画像データから、画像の歪みを補正する補正処理である。なお、所定の加工処理は、画像の歪みを補正する処理に限定されない。所定の加工処理は、第1画像データの画像の歪み、変形、明るさ、コントラスト、色調、サイズのうち少なくとも1つを補正する処理でもよい。
第2処理部60が第2画像データに対して行う認識処理とは、例えば、第2画像データから特徴量を検索し、検索された特徴量に基づいて第2画像データから物体(人・車等の移動物体、建物・樹木等の静止物体等)を認識する処理である。ここにおいて、特徴量とは、例えば、各画素の特徴(濃度、輝度、色等)を数値化したもの、又は隣接する画素の集合である「領域」の特徴(領域に含まれる複数画素の濃度、輝度、色等)を数値化したものである。また、第2処理部60では、第2画像データから検索された特徴量に基づいて特徴点を求めてもよい。特徴点は特徴を有する画像上の点であり、特徴点は1つの画素に限らず、隣接する画素の集合(領域)であってもよい。第2処理部60は、第2画像データから検索された特徴量に基づいて画像内の物体を認識してもよいし、第2画像データによって表される複数の画像フレームからそれぞれ検索された特徴量に基づいて、複数の画像フレームに存在する同一の物体を認識してもよい。以下では、第2画像データによって表される複数の画像フレームを第2群の画像フレームともいう。
(2)詳細
以下、本実施形態に係る画像生成システム2、及び画像生成システム2を備える画像表示システム1について図1〜3を参照して説明する。
本実施形態の画像表示システム1は、図2に示すような自動車(移動体)100に適用される。本実施形態の画像表示システム1は、自動車100の本体(移動体本体)101に設けられて本体101の外側(例えば後方)を撮影するカメラ4の映像を、本体101の内側(つまり車室の内部)に配置された表示部3(図2及び図3参照)に表示する電子ミラーシステムである。尚、以下の説明では、図2において「上」、「下」、「前」、「後」の矢印で示す通りに各方向を規定する。また、上下方向、及び前後方向とそれぞれ直交する方向を左右方向と規定する。ただし、これらの方向は画像表示システム1の設置方向を規定する趣旨ではない。また、図面中の各方向を示す矢印は説明のために表記しているに過ぎず、実体を伴わない。
本実施形態では、自動車100の本体101の後方をそれぞれ撮影する複数(例えば3台)のカメラ4が本体101に設けられている。図4A〜図4Cに、3台のカメラ4でそれぞれ撮影することによって得られた画像フレームG1,G2,G3を示す。画像フレームG1は、例えば自動車100の左側に設けられたカメラ4が本体101の左後方を撮影することで得られた画像フレームである。画像フレームG2は、例えば本体101の後部において左右方向の中央に設けられたカメラ4が本体101の後方を撮影することで得られた画像フレームである。画像フレームG3は、例えば自動車100の右側に設けられたカメラ4が本体101の右後方を撮影することで得られた画像フレームである。尚、本実施形態ではカメラ4の台数が3台であるが、カメラ4の台数は3台に限定されず、2台でもよいし、4台以上でもよい。
ここにおいて、画像フレームG2に写る領域と画像フレームG1に写る領域とが部分的に重複し、画像フレームG2に写る領域と画像フレームG3に写る領域とが部分的に重複するように、3台のカメラ4が本体101に配置されている。本実施形態の画像生成システム2では、3台のカメラ4の画像フレームG1,G2,G3の画像データを合成し、3つの画像フレームG1,G2,G3を繋ぎ合わせた広角の合成画像G4(図4D参照)の画像データを生成する。そして、画像表示システム1は、画像生成システム2によって生成された合成画像G4を表示部3に表示させている。したがって、自動車100のユーザ200(例えば、運転者等)は、表示部3に表示された合成画像G4を基に、本体101の後方の状況を広い範囲で確認することができる。
(2.1)構成
(2.1.1)画像生成システム
本実施形態の画像生成システム2の構成を図1〜図3に基づいて説明する。
画像生成システム2は、ソフト処理部10と、ハード処理部20とを備える。
ソフト処理部10は、例えば、プロセッサおよびメモリを有するマイクロコンピュータで構成されている。つまり、ソフト処理部10は、プロセッサおよびメモリを有するコンピュータシステムで実現されている。そして、プロセッサが所定のプログラム(画像生成プログラムを含む)を実行することにより、コンピュータシステムがソフト処理部10として機能する。プログラムは、メモリに予め記録されていてもよいし、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。
ソフト処理部10は、ハード処理部20の動作を制御する動作制御部11の機能を備える。動作制御部11は、ハード処理部20(つまり、第1処理部50及び第2処理部60)の処理内容に関する設定情報をハード処理部20に設定する機能を有する。具体的には、動作制御部11は、設定情報としてハード処理部20に実行させる一連のコマンドのリストであるディプレイリストを生成する。動作制御部11は、生成したディスプレイリストを、ソフト処理部10とハード処理部20とがともにアクセス可能なメモリに書き込む。つまり、動作制御部11が、設定情報を生成する設定情報生成部として機能する。設定情報生成部としての動作制御部11は、初期設定時及び設定時に、上位ソフトウェアの要求を、ハード処理部20のリソースに合わせて動作最適化(例えば、パイプライン処理のための処理順序の変更等)を行ったディスプレイリストを生成する。したがって、システム全体の動作を高速化できる。
また、動作制御部11は、ハード処理部20に動作を開始させる起動トリガを与える機能を有している。
ハード処理部20は、ハードウェア(例えば表示部3及びカメラ4等)を制御するデバイスドライバと、API(Application Programming Interface)とを含む。APIは、デバイスドライバと、ソフト処理部10によって処理される上位ソフトウェアとの間のインターフェースである。
ハード処理部20は、動作設定部30、取得部40、第1処理部50、及び第2処理部60の機能を備える。
動作設定部30は、ソフト処理部10の動作制御部11から、第1処理部50及び第2処理部60の処理内容に関する設定情報を取得する。本実施形態では、動作設定部30は、設定情報であるディスプレイリストを記憶するメモリから、ディスプレイリストを読み込むことによって、動作制御部11から設定情報を取得する。動作設定部30は、ディスプレイリストを読み込むと、ディスプレイリストをデコードし、第1処理部50及び第2処理部60が実行する一連のコマンドを取得する。つまり、動作設定部30が、設定情報を受け付けると、設定情報を第1処理部50と第2処理部60とに出力するデコード部の機能を有する。
また、動作設定部30は、動作制御部11からトリガ信号が入力されると、第1処理部50及び第2処理部60にトリガ信号を出力して、第1処理部50及び第2処理部60に設定情報によって設定された一連の処理を開始させる。
本実施形態では、動作設定部30が、メモリから読み込んだディスプレイリスト(設定情報)をデコードすることによって、第1処理部50及び第2処理部60の処理内容を取得し、取得した処理内容を第1処理部50及び第2処理部60に出力する。そして、動作設定部30が第1処理部50及び第2処理部60に処理内容を設定した後に、動作設定部30が動作制御部11から起動トリガを受け付けると、第1処理部50及び第2処理部60に処理内容に応じた処理を開始させている。第1処理部50は、動作設定部30が取得した設定情報に従って、取得部40が取得した第1画像データに対して所定の加工処理を行って第2画像データを生成する。また、第2処理部60は、動作設定部30が取得した設定情報に従って、第2画像データに対して認識処理を行う。つまり、3台のカメラ4から1フレーム分の第1画像データが入力されるごとに、第1処理部50及び第2処理部60は設定された一連のコマンドに基づいて所定の処理を実行する。したがって、ソフト処理部10(プロセッサ)は、動作設定部30に対して起動トリガを与えればよく、第1処理部50及び第2処理部60に所定の処理を実行させるための命令をその都度与える必要がない。ソフト処理部10(プロセッサ)が第1処理部50から完了信号の待ち受けを行う必要はなく、ソフト処理部10(プロセッサ)の処理速度の低下を抑制できるという利点がある。
取得部40は、カメラ4で撮影することで得られた第1画像データを取得する。本実施形態では、本体101の後方を撮影する3台のカメラ4が本体101に設けられている。取得部40は、例えば移動体100に設けられた車内ネットワークを介して3台のカメラ4と通信する機能を有している。3台のカメラ4は定期又は不定期に本体101の後方を撮影しており、取得部40は、3台のカメラ4の各々から第1画像データを車内ネットワークを介して取得する。本実施形態の取得部40は第1画像データによって表される複数の画像フレーム(すなわち、第1群の画像フレーム)を取得する。
第1処理部50は、取得部40が取得した第1画像データに対してグラフィックス処理を実行するグラフィックス処理部である。第1処理部50は、プレグラフィックス処理部51と、ポストグラフィックス処理部52とを備える。
プレグラフィックス処理部51は、第1画像データに対して所定の加工処理を実行することによって第2画像データを生成する。本実施形態ではカメラ4が、より広い範囲を撮影可能なように広角レンズを備えているため、カメラ4で撮影された画像にはレンズの特性による歪みが発生する。そこで、プレグラフィックス処理部51では、第1画像データに対して画像の歪みを補正する補正処理を行い、歪みが補正された第2画像データを生成する。本実施形態では、取得部40が、複数台のカメラ4によって同じタイミングで撮影された複数の画像フレームの第1画像データを取得しており、第1処理部50のプレグラフィックス処理部51は、取得部40が取得した複数の画像フレームの第1画像データに対してそれぞれ加工処理を実行して複数の画像フレームの第2画像データを生成する。プレグラフィックス処理部51では、画像フレームG1,G2,G3の第1画像データに対してそれぞれ補正処理を行い、補正後の第2画像データを生成する。
ポストグラフィックス処理部52は、第2処理部60から入力されるマッチング結果に基づいて、プレグラフィックス処理部51によって表示用に加工された複数の画像フレームの画像データを合成することで合成画像G4の画像データを生成する。ポストグラフィックス処理部52は、画像フレームG1,G2,G3において、第2処理部60によるマッチング処理でマッチングされた画素又は領域が存在する場合のみ、画像フレームG1,G2,G3を合成して合成画像G4の画像データを生成する。ポストグラフィックス処理部52は、合成画像G4の画像データを表示部3に出力することによって、表示部3に合成画像G4を表示させる。本実施形態では、ポストグラフィックス処理部52が、マッチング処理において検出された特徴点を基に、マッチング対象の2つの画像フレームを合成した合成画像データを生成する合成処理部の機能を備えている。
第2処理部60は、第1処理部50によって所定の加工処理が行われた後の第2画像データに対して認識処理を実行する認識処理部である。第2処理部60は、検索部61と、マッチング部62とを備える。本実施形態では、第2処理部60による認識処理が、第2画像データから特徴量を検索する検索処理と、検索処理によって検索された特徴量に基づいて第2群の画像フレームのうちマッチング対象の2つの画像フレームをマッチングするマッチング処理と、を含んでいる。
検索部61は、プレグラフィックス処理部51から入力される第2画像データにおいて特徴量を生成する対象の画素又は領域を検索する検索処理と、検索処理で検索された画素又は領域に対して特徴量を生成する特徴量生成処理とを行う。
検索部61は、検索処理を行って特徴量を生成する対象の画素又は領域を絞り込むことで、マッチング部62によるマッチング処理の処理量を削減する。検索部61は、第2画像データに対して、エッジ検出処理、コーナー検出処理、物体検出処理、人物検出処理、顔検出処理のうち少なくとも1つの検出処理を行うことで、特徴量を生成可能な画素又は領域を検索する。ここで、エッジ検出処理とは、例えば微分フィルタを用い、第2画像データにおいて各画素の濃度又は明るさが急激に変化する部分を検出する処理である。コーナー検出処理とは、エッジの交点であるコーナーを検出する処理である。物体検出処理は、例えば第2画像データから所定の大きさ及び形状の移動領域を抽出することによって、第2画像データから物体(静止物体、移動物体等)に対応する画素又は領域を検出する処理である。人物検出処理は、例えば第2画像データから所定の大きさ及び形状の移動領域を抽出することによって、第2画像データから人物に対応する画素又は領域を検出する処理である。顔検出処理は、例えば第2画像データから所定の大きさ及び形状の移動領域を抽出することによって、第2画像データから人物の顔部分に対応する画素又は領域を検出する処理である。
また、検索部61は、検索処理によって特徴量を生成する対象の画素又は領域が検索されると、検索処理で検索された画素又は領域において特徴量を生成する処理を行う。本実施形態では、検索部61は、第2群の画像フレームのうちマッチング対象の2つの画像フレームについて特徴量を検索する検索処理を行う。検索部61は、例えば、検索された画素(検出点)における特徴量として、スティッチング処理に用いられる局所特徴量を生成する。局所特徴量には、ORB(Oriented FAST and Rotated BRIEF)特徴量、SIFT(Scale Invariant Feature Transform)特徴量、SURF(Speed Upped Robust Feature)特徴量、等がある。検索部61は、検索処理で検索された領域の特徴量として、色平均値又はヒストグラム等の大域特徴量を生成してもよい。検索部61は、特徴量として、検索処理で検索されたエッジ又はコーナー等の端点の座標を生成してもよい。検索部61は、検索処理で検索された領域の特徴量として、当該領域の色値、又は色値から求めた加工値(例えば、色値の二乗値、符号化した色値、又は色値をフーリエ変換した値、等)を生成してもよい。検索部61は、検索処理で検索された画素又は領域の特徴量として、これらの画素又は領域に対応付けられたキーワード等を生成してもよい。尚、検索部61は、特徴量として、局所特徴量、大域特徴量、端点の座標、検索された領域の色値又は色値から求めた加工値、検索された画素又は領域に対応付けられたキーワード、のうちの複数を生成してもよい。
マッチング部62は、3つの画像フレームG1,G2,G3のうちマッチング対象の2つの画像フレームの第2画像データについて、検索部61の検索処理で検索された特徴量を基に、マッチング処理を行う。本実施形態では、3つの画像フレームG1,G2,G3のうち部分的に重複している2つの画像フレーム、つまり画像フレームG1,G2の組、又は画像フレームG2,G3の組がマッチング対象の画像フレームとなる。マッチング部62は、マッチング対象となる2つの画像フレームにおいて特徴量が検出された場合のみ、マッチング対象の2つの画像フレーム間でマッチング処理を行う。
マッチング部62は、例えば、マッチング対象の2つの画像フレームの第2画像データからそれぞれ求められたORB特徴量について、バイナリ値のハミング距離が所定の第1閾値よりも小さいか否かを比較することでマッチング処理を行う。尚、マッチング部62は、マッチング対象の2つの画像フレームの第2画像データからそれぞれ求められたSIFT特徴量又はSURF特徴量について、ベクトル値の差分が所定の第2閾値よりも小さいか否かを比較することでマッチング処理を行ってもよい。また、マッチング部62は、マッチング対象の2つの画像フレームの第2画像データからそれぞれ求められた特徴量について、テンプレートマッチングを行うことでマッチング処理を行ってもよい。また、マッチング部62は、マッチング対象の2つの画像フレームの第2画像データからそれぞれ求められたキーワードについてマッチング処理を行ってもよい。また、マッチング部62は、上述したマッチング処理を複数組み合わせて実施してもよい。
このように、本実施形態のマッチング部62は、マッチング対象の2つの画像フレームについて検索処理で検索された特徴量のマッチングを行うことによって、マッチング対象の2つの画像フレームに共通して存在する特徴点を検出する。
(2.1.2)画像表示システム
画像表示システム1は、画像生成システム2と、画像生成システム2によって生成された画像データを表示する表示部3と、を備える。つまり、画像生成システム2と表示部3とで画像表示システム1が構成される。
表示部3は、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイなどの薄型の表示デバイスを備える。表示部3には、ポストグラフィックス処理部52から合成画像G4の画像データが入力される。表示部3は、ポストグラフィックス処理部52から入力される画像データを基に、合成画像G4を画面上に表示する。
画像表示システム1は、画像生成システム2及び表示部3等の部品を収納したハウジング70を備えている(図2及び図3参照)。ハウジング70は、例えば合成樹脂の成型品等で構成されている。ハウジング70の後部の表面には開口部が設けられており、この開口部に表示部3が取り付けられている。
ハウジング70は、移動体100の本体101の天井部分102においてウィンドシールド104(フロントガラス)に近い前側部分であって、前部座席103に着座するユーザ200が前方を向いた状態でユーザ200の視界に入る位置に取り付けられている。ハウジング70は、ボールジョイントを有する支持棒71を介して本体101の天井部分102に取り付けられており、ユーザ200の前方視界を邪魔しない位置に配置されている。
(2.2)動作
本実施形態の画像生成システム2の各部の動作を図5〜図10に基づいて説明する。
(2.2.1)動作制御部の動作説明
ソフト処理部10が備える動作制御部11の動作を図5に基づいて説明する。
ソフト処理部10が上位ソフトウェアを実行し、上位ソフトウェアの命令で3台のカメラ4の画像フレームを合成して合成画像を表示部3に表示させる画像合成動作を行う場合、ソフト処理部10の動作制御部11がハード処理部20に処理内容を設定する。
動作制御部11は、ハード処理部20の処理内容を設定する設定情報を生成し、生成した設定情報をハード処理部20に設定する(S1)。つまり、動作制御部11は、ハード処理部20の第1処理部50及び第2処理部60に実行させる一連のコマンドのリストであるディスプレイリストを生成し、ソフト処理部10とハード処理部20とがともにアクセス可能なメモリにディスプレイリストを書き込む。
動作制御部11は、ハード処理部20に設定情報を設定すると、ハード処理部20に3台のカメラ4の画像フレームを合成して表示部3に表示させる動作を開始させる起動トリガを出力する(S2)。
動作制御部11は、起動トリガを出力すると、ハード処理部20からの合成完了信号を待ち受ける入力待ちの状態になる(S3)。合成完了信号は、1フレーム分の合成画像の生成が完了したことを示す信号である。
動作制御部11は、ハード処理部20から合成完了信号が入力されると、処理を継続するか否かの判定を行う(S4)。
動作制御部11は、上位ソフトウェアから画像合成動作を終了する命令が入力されていなければ、処理を継続すると判断し(S4:Yes)、設定情報に変更があるか否かを判断する(S5)。動作制御部11は、上位ソフトウェアから設定情報の変更指示が入力されるという更新条件が成立していれば、設定情報が変更されたと判断し、更新条件が成立していなければ、設定情報に変更がないと判断する。動作制御部11は、設定情報に変更がある場合はステップS1に戻って処理を継続し、設定情報に変更が無い場合はステップS2に戻って処理を継続する。
また、動作制御部11は、ステップS4において、上位ソフトウェアから画像合成動作を終了する命令が入力されていなければ、ハード処理部20の動作設定部30に終了命令を出力して、処理を終了する(S4:No)。
(2.2.2)動作制御部の動作説明
ハード処理部20が備える動作設定部30の動作を図6に基づいて説明する。
画像生成システム2が動作を開始すると、動作設定部30は、ソフト処理部10の動作制御部11からの起動トリガを待ち受ける入力待ちの状態になる(S11)。
動作設定部30は、動作制御部11から起動トリガが入力されると、ディスプレイリスト(設定情報)をメモリから読み込む(S12)。
動作設定部30は、メモリから読み込んだディスプレイリストをデコードして、第1処理部50及び第2処理部60に出力する(S13)。これにより、第1処理部50及び第2処理部60がそれぞれ有するAPIに一連の処理を行うコマンドが設定される。
その後、動作設定部30は、第1処理部50及び第2処理部60からの完了信号を待ち受ける入力待ちの状態となる(S14)。ここで、第1処理部50及び第2処理部60は、1フレーム分の画像についての処理が終了すると、完了信号を動作設定部30に出力する。
そして、動作設定部30は、第1処理部50及び第2処理部60から完了信号が入力されると、1フレーム分の画像の合成が終了したことを示す合成完了信号をソフト処理部10の動作制御部11に出力し(S15)、処理を継続するか否かを判断する(S16)。
ここで、ソフト処理部10の動作制御部11から終了信号が入力されていなければ、動作設定部30は処理を継続すると判断し(S16:Yes)、ステップS11に戻って処理を継続する。ソフト処理部10の動作制御部11から終了信号が入力されていれば(S16:No)、動作設定部30は処理を終了し、第1処理部50及び第2処理部60に終了信号を出力して、第1処理部50及び第2処理部60よる画像合成処理を終了する。
上述のように、動作制御部11は、所定の更新条件が成立すると、設定情報を変更してメモリに記憶する。したがって、動作設定部30は、所定の更新条件が成立すると、動作制御部11によって変更された設定情報をメモリから読み込んでおり、設定情報を更新して、更新後の設定情報を第1処理部50及び第2処理部60に設定する。
ここで、設定情報の更新時においても、ソフト処理部10の動作制御部11が、更新後の設定情報に基づいてディスプレイリストを生成し、ソフト処理部10とハード処理部20とがともにアクセス可能なメモリに更新後のディスプレイリストを書き込んでいる。ハード処理部20は、次回の処理開始時に、メモリからディスプレイリストを取得することで、更新後のディスプレイリストに従って動作を行うので、ソフト処理部10とハード処理部20とで同期をとらずに設定情報の更新が可能になる。よって、システム全体の処理速度の低下を抑制できる。
(2.2.3)プレグラフィックス処理部の動作説明
第1処理部50のプレグラフィックス処理部51の動作について図7を参照して説明する。
画像生成システム2が動作を開始すると、プレグラフィックス処理部51は動作設定部30から設定情報を待ち受ける入力待ちの状態となる(S21)。
プレグラフィックス処理部51は、動作設定部30から設定情報が入力されると、設定情報に基づいて一連の処理(ステップS22以降の処理)を実行する。
プレグラフィックス処理部51は、取得部40から処理対象の1フレーム分の第1画像データを取り込む(S22)。プレグラフィックス処理部51は、取得部40から、画像フレームG1,G2,G3の第1画像データを順番に取り込む。
プレグラフィックス処理部51は、画像フレームG1,G2,G3の第1画像データに対して、所定の加工処理を施すことによって、第2処理部60による認識用の第2画像データを生成し、第2画像データを検索部61に出力する(S23)。ここで、プレグラフィックス処理部51が認識用の第2画像データを生成するために行う加工処理は、例えば、広角レンズによる画像の歪みを補正する歪み補正処理である。尚、加工処理は歪み補正処理に限定されず、視点の位置を変換する投影変換処理、画像ピラミッドを生成する画像ピラミッド生成処理、又は検索部61が検索する範囲の画像を切り出すトリミング処理でもよい。また、加工処理は、モノクロ画像に変換するモノクロ加工処理、第1画像データの色空間を変換する色空間変換処理、所定のフィルタをかけるフィルタ処理、又はコントラストを調整するコントラスト調整処理でもよい。また、プレグラフィックス処理部51は、歪み補正処理、投影変換処理、画像ピラミッド生成処理、トリミング処理、モノクロ加工処理、色空間変換処理、フィルタ処理、コントラスト調整処理のうちの複数を組み合わせた加工処理を行ってもよい。
また、プレグラフィックス処理部51は、画像フレームG1,G2,G3の第1画像データに対して表示のための加工処理を施すことによって表示用の第2画像データを生成し、表示用の第2画像データをポストグラフィックス処理部52に出力する(S24)。表示のための加工処理には、上記した歪み補正処理、投影変換処理、トリミング処理、色空間変換処理、フィルタ処理、コントラスト調整処理の他、ミップマップを生成するミップマップ生成処理、又はキューブマップを生成するキューブマップ生成処理、等がある。尚、プレグラフィックス処理部51は、歪み補正処理、投影変換処理、ミップマップ生成処理、キューブマップ生成処理、トリミング処理、色空間変換処理、フィルタ処理、コントラスト調整処理のうちの複数を組み合わせた加工処理を行ってもよい。
プレグラフィックス処理部51は、画像フレームG1,G2,G3の第1画像データの全てについて加工処理を終了するまで、ステップS22〜S24の処理を繰り返す。
そして、プレグラフィックス処理部51は、画像フレームG1,G2,G3の第1画像データの全てについて加工処理を終了すると(S25:Yes)、完了信号を動作設定部30に出力し(S26)、処理を継続するか否かを判断する(S27)。
ここで、プレグラフィックス処理部51は、動作設定部30から終了信号が入力されていなければ、処理継続と判断し(S27:Yes)、ステップS21に移行して処理を継続する。プレグラフィックス処理部51は、動作設定部30から終了信号が入力されていれば、処理終了と判断し(S27:No)、第1画像データの加工処理を終了する。
(2.2.4)検索部の動作説明
第2処理部60の検索部61の動作について図8を参照して説明する。
画像生成システム2が動作を開始すると、検索部61は動作設定部30から設定情報を待ち受ける入力待ちの状態となる(S31)。
検索部61は、動作設定部30から設定情報が入力されると、設定情報に基づいて一連の処理(S32以降の処理)を実行する。
検索部61は、プレグラフィックス処理部51から1フレーム分の画像フレームG1,G2,G3の第2画像データを取得する(S32)。検索部61は、画像フレームG1,G2,G3の第2画像データのそれぞれで特徴量を生成する対象の画素又は領域を検索する検索処理を行う(S33)。ここにおいて、検索部61は、第2画像データに対して、上述したエッジ検出処理、コーナー検出処理、物体検出処理、人物検出処理、顔検出処理のうち少なくとも1つの検出処理を行うことで、特徴量を生成可能な画素又は領域を検索する。
検索部61は、検索処理の結果に基づいて、特徴量を1つ以上生成可能か否かを判断する(S34)。
検索部61は、特徴量を1つ以上生成可能と判断すると(S34:Yes)、特徴量を生成してマッチング部62に出力する(S35)。ここにおいて、特徴量には、上述した検出点の局所特徴量、検索処理で検索された検索領域の大域特徴量、エッジ又はコーナー等の端点の座標、検索領域の色値又は色値から求めた加工値、検索処理で検索された画素又は領域に対応付けられたキーワード等がある。尚、検索部61は、検出点の局所特徴量、検索領域の大域特徴量、エッジ又はコーナー等の端点の座標、検索領域の色値又は色値から求めた加工値、検索処理で検索された画素又は領域に対応付けられたキーワードのうちの複数を特徴量として生成してもよい。
一方、検索部61は、検索処理において特徴量を生成する対象の画素又は領域を検索できなかった場合、特徴量を生成不可能と判断し(S34:No)、特徴量を生成不可能である旨の通知信号をマッチング部62に出力する(S36)。
検索部61は、ステップS35の処理又はステップS36の処理を終えると、画像フレームG1,G2,G3の第2画像データの全てについて処理が完了したか否かを判断する(S37)。
処理が完了していない場合(S37:No)、検索部61は、画像フレームG1,G2,G3の第2画像データの全てについて処理を完了するまで、ステップS32以降の処理を繰り返す。
一方、画像フレームG1,G2,G3の第2画像データの全てについて処理が完了した場合(S37:Yes)、検索部61は、完了信号を動作設定部30に出力し(S38)、処理を継続するか否かを判断する(S39)。
ここで、検索部61は、動作設定部30から終了信号が入力されていなければ(S39:Yes)、ステップS31に移行して処理を継続する。検索部61は、動作設定部30から終了信号が入力されていれば(S39:No)、検索処理を終了する。
(2.2.5)マッチング部の動作説明
第2処理部60のマッチング部62の動作について図9を参照して説明する。
画像生成システム2が動作を開始すると、マッチング部62は動作設定部30から設定情報を待ち受ける入力待ちの状態となる(S41)。
マッチング部62は、動作設定部30から設定情報が入力されると、設定情報に基づいて一連の処理(ステップS42以降の処理)を実行する。
マッチング部62は、検索部61から、マッチング対象の画像フレームG1,G2,G3について行った検索処理の結果を受け付ける(S42)。検索処理において検索部61が特徴量を生成している場合、マッチング部62は、検索部61から検索処理の結果として特徴量が入力される。検索処理において検索部61が特徴量を生成できなかった場合、マッチング部62は、検索部61から検索処理の結果として特徴量が無い旨の通知が入力される。
ここで、マッチング部62は、画像フレームG1,G2,G3のうちマッチング対象の2つの画像フレーム(画像フレームG1,G2の組、又は画像フレームG2,G3の組)についてマッチング処理が可能か否かを判断する(S43)。
マッチング対象の2つの画像フレームのうち少なくとも一方に特徴量が存在しなければ、マッチング部62は、マッチング処理が不能であると判断して(S43:Yes)、ステップS47の処理に移行する。
一方、マッチング対象の2つの画像フレームの両方に特徴量が存在すれば、マッチング部62は、マッチング処理が可能であると判断して(S43:No)、マッチング処理を行う(S44)。
マッチング部62は、画像フレームG1,G2,G3のうちマッチング対象の2つの画像フレームの第2画像データについて、検索部61によって検索された特徴量を基に、マッチング処理を行う。マッチング部62は、例えば、マッチング対象の2つの画像フレームの第2画像データからそれぞれ求められたORB特徴量について、バイナリ値のハミング距離が第1閾値よりも小さいか否かを比較することでマッチング処理を行う。尚、マッチング部62は、マッチング対象の2つの画像フレームの第2画像データからそれぞれ求められたSIFT特徴量又はSURF特徴量について、ベクトル値の差分が第2閾値よりも小さいか否かを比較することでマッチング処理を行ってもよい。マッチング部62は、マッチング対象の2つの画像フレームの第2画像データからそれぞれ求められた特徴量について、テンプレートマッチングを行うことでマッチング処理を行ってもよい。マッチング部62は、マッチング対象の2つの画像フレームの第2画像データからそれぞれ求められたキーワードについてマッチング処理を行ってもよい。また、マッチング部62は、上述したマッチング処理を複数組み合わせて実施してもよい。
尚、マッチング部62は、マッチング処理の実行後に異常値と判断されたマッチング結果を削除してもよい。ここで、マッチング部62は、中央値との差分が所定の第3閾値を超える場合はマッチング結果を異常値と判断してもよいし、以前のフレームでのマッチング結果との差分が所定の第4閾値を超える場合は今回のマッチング結果を異常値と判断してもよい。
マッチング部62は、マッチング処理を行った後、マッチング対象の2つの画像フレームにおいて、マッチングされた画素又は領域のペアが存在するか否かを判断する(S45)。ここにおいて、画素又は領域がマッチングされるとは、マッチング対象の2つの画像フレームの画素又は領域が、2つの画像に写っている同一の物体に対応する画素又は領域であると判定されることを意味する。
マッチングされた画素又は領域のペアが存在する場合(S45:Yes)、マッチング部62は、マッチングされた画素又は領域のペアをポストグラフィックス処理部52に出力する(S46)。
一方、マッチングされた画素又は領域のペアが存在しない場合(S45:No)、マッチング部62は、マッチングできた画素又は領域のペアが無い旨の通知をポストグラフィックス処理部52に出力する(S47)。
マッチング部62は、ステップS46の処理又はステップS47の処理を終えると、画像フレームG1,G2,G3の第2画像データの全てについて処理が完了したか否かを判断する(S48)。
処理が完了していない場合(S48:No)、マッチング部62は、画像フレームG1,G2,G3の第2画像データの全てについてマッチング処理を完了するまで、ステップS42以降の処理を繰り返す。
一方、画像フレームG1,G2,G3の第2画像データの全てについて処理が完了した場合(S48:Yes)、マッチング部62は、完了信号を動作設定部30に出力し(S49)、処理を継続するか否かを判断する(S50)。
ここで、マッチング部62は、動作設定部30から終了信号が入力されていなければ(S50:Yes)、ステップS41に移行して処理を継続する。マッチング部62は、動作設定部30から終了信号が入力されていれば(S50:No)、検索処理を終了する。
(2.2.6)ポストグラフィックス処理部の動作説明
第1処理部50のポストグラフィックス処理部52の動作について図10を参照して説明する。
画像生成システム2が動作を開始すると、ポストグラフィックス処理部52は動作設定部30から設定情報を待ち受ける入力待ちの状態となる(S51)。
ポストグラフィックス処理部52は、動作設定部30から設定情報が入力されると、設定情報に基づいて一連の処理(ステップS52以降の処理)を実行する。
ポストグラフィックス処理部52は、画像フレームG1,G2,G3の第1画像データについて表示用の加工処理が施された後の表示用の第2画像データをプレグラフィックス処理部51から取得する(S52)。
また、ポストグラフィックス処理部52は、マッチング部62から、マッチング対象の2つの画像フレーム(画像フレームG1,G2の組、又は画像フレームG2,G3の組)について行ったマッチング処理の結果を取得する(S53)。マッチング処理においてマッチングされた画素又は領域のペアが存在する場合、ポストグラフィックス処理部52は、マッチング処理の結果としてマッチングされた画素又は領域のペアに関する情報(例えば座標等)をマッチング部62から取得する。マッチング処理においてマッチングされた画素又は領域のペアが存在しなかった場合、ポストグラフィックス処理部52は、マッチングされた画素又は領域のペアが無い旨の通知をマッチング部62から取得する。
ここで、ポストグラフィックス処理部52は、マッチング処理の結果に基づいて、マッチング対象の2つの画像フレーム(画像フレームG1,G2の組、又は画像フレームG2,G3の組)においてマッチングされた画素又は領域のペアが存在するか否かを判断する(S54)。
マッチング対象の2つの画像フレームにおいてマッチングされた画素又は領域のペアが存在する場合(S54:No)、ポストグラフィックス処理部52は、マッチング結果を用いてマッチング対象の2つの画像フレームを合成した合成画像の画像データを生成する(S55)。ここにおいて、ポストグラフィックス処理部52は、合成画像中に、マッチングした旨の表示、マッチングした画素又は領域の表示、マッチングした物体、人物、又は顔画像の表示、等が出力されるように、合成画像の画像データを生成してもよい。
マッチング対象の2つの画像フレームにおいてマッチングされた画素又は領域のペアが存在しない場合(S54:Yes)、ポストグラフィックス処理部52は、マッチング結果を用いずにマッチング対象の2つの画像フレームを合成した合成画像の画像データを生成する(S56)。ポストグラフィックス処理部52は、例えば、3台のカメラ4の設置位置、及び撮影方向等の撮影条件に基づいて、マッチング対象の2つの画像フレームを合成した合成画像の画像データを生成する。ポストグラフィックス処理部52は、過去のマッチング結果を用いて、マッチング対象の2つの画像フレームを合成した合成画像の画像データを生成してもよい。また、ポストグラフィックス処理部52は、合成画像中に、マッチング対象の2つの画像フレームにおいて、マッチングできた画素又は領域が存在しなかった旨の表示が出力されるように、合成画像の画像データを生成してもよい。
ポストグラフィックス処理部52は、ステップS55の処理又はステップS56の処理を終えると、画像フレームG1,G2,G3の表示用の画像データの全てについて合成処理が完了したか否かを判断する(S57)。
合成処理が完了していない場合(S57:No)、ポストグラフィックス処理部52は、画像フレームG1,G2,G3の表示用の画像データの全てについて合成処理を完了するまで、ステップS52以降の処理を繰り返す。
一方、画像フレームG1,G2,G3の表示用の画像データの全てについて合成処理が完了した場合(S57:Yes)、ポストグラフィックス処理部52は、合成画像G4の画像データを表示部3に出力し(S58)、表示部3に1フレーム分の合成画像G4を表示させる。
また、ポストグラフィックス処理部52は、1フレーム分の合成画像G4の出力が完了したことを示す完了信号を動作設定部30に出力し(S59)、処理を継続するか否かを判断する(S60)。
ここで、ポストグラフィックス処理部52は、動作設定部30から終了信号が入力されていなければ(S60:Yes)、ステップS51に移行して処理を継続する。ポストグラフィックス処理部52は、動作設定部30から終了信号が入力されていれば(S60:No)、画像の合成処理を終了する。
本実施形態の画像生成システム2の動作は以上の通りである。本実施形態の画像生成システム2では、グラフィックス処理のAPIを含む第1処理部50に処理内容を設定する設定部と、スティッチング処理のAPIを含む第2処理部60に処理内容を設定する設定部とが統合されている。つまり、第1処理部50が含むグラフィックス処理のAPIと、第2処理部60が含むスティッチング処理のAPIとで、ディスプレイリストのような設定情報が統合されている。ディスプレイリストには、マッチング部62がステップS43の判断で分岐するステップS46及びS47の処理、ポストグラフィックス処理部52がステップS54の判断で分岐するステップS55及びS56の処理の両方の設定情報があらかじめ含められている。これにより、それぞれ前段回路の結果を取得して判断・分岐した処理に対応した設定を用いてマッチング部62やポストグラフィックス処理部52を動作させることができる。そして、ソフト処理部10の動作制御部11がハード処理部20に対して起動トリガを与えると、第1処理部50と第2処理部60とがディスプレイリストに基づいて、同期して画像合成動作を実行する。そのため、ソフト処理部10が、第1処理部50の処理完了を受けて第2処理部60に処理開始の指示を与える必要がない。つまり、ソフト処理部10において第1処理部50の処理完了を待ち受けする必要がないので、ソフト処理部10の処理速度が低下するのを抑制することができる。
ここにおいて、本実施形態の画像生成システム2と比較例とで、3つの画像フレームG1,G2,G3を合成して合成画像G4を生成する合成処理にかかる時間をシミュレーションしたところ、以下のような結果が得られた。なお、比較例は、プロセッサ(ソフト処理部10)が、第1処理部50の処理完了を受けて、第2処理部60に処理開始の指示を与えるように構成された画像生成システムである。ソフト処理部10の低負荷時において1回の合成処理にかかる時間は、比較例では4.96[mS]であるのに対して、本実施形態の画像生成システム2では4.34[ms]であり、1回の合成処理にかかる時間を14.3%短縮できる。ソフト処理部10の高負荷時において1回の合成処理にかかる時間は、比較例では6.15[mS]であるのに対して、本実施形態の画像生成システム2では5.53[ms]であり、1回の合成処理にかかる時間を11.2%短縮できる。
(3)変形例
上記実施形態は、本開示の様々な実施形態の一つに過ぎない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、画像生成システム2又は画像表示システム1と同様の機能は、画像生成方法、画像生成プログラム(コンピュータプログラム)、又は画像生成プログラムを記録した非一時的な記録媒体等で具現化されてもよい。一態様に係る画像生成方法は、第1画像データを取得するステップと、第1画像データに対して所定の加工処理を実行して第2画像データを生成するステップと、第2画像データに対して認識処理を実行するステップと、を含む。この画像生成方法では、加工処理と認識処理とを、プロセッサからの命令によらずに、同期して実行する。また、一態様に係る画像生成プログラムは、コンピュータシステムに、上記の画像生成方法を実行させるためのプログラムである。
本開示における画像生成システム2、画像表示システム1又は画像生成方法の実行主体は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラム(画像生成プログラム)をプロセッサが実行することによって、本開示における画像生成システム2、画像表示システム1又は画像生成方法の実行主体としての機能が実現される。プログラム(画像生成プログラム)は、コンピュータシステムのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよいし、コンピュータシステムで読み取り可能な非一時的な記録媒体に記録されて提供されてもよい。コンピュータシステムで読み取り可能な非一時的な記録媒体は、メモリカード、光学ディスク、ハードディスクドライブ等である。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)等を含む1乃至複数の電子回路で構成される。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。
また、上記の実施形態では、画像生成システム2は、1つのハウジング70に収まる1つの装置にて実現されているが、画像生成システム2の機能が2つ以上の装置に分散して設けられてもよい。また、画像生成システム2が備える第1処理部50及び第2処理部60の各々の機能が、複数の装置に分散して設けられていてもよい。また、画像生成システム2の少なくとも一部の機能は、例えば、クラウド(クラウドコンピューティング)によって実現されてもよい。
上記の実施形態において、複数台のカメラ4が本体101の前方又は側方を撮影可能なように配置されてもよく、画像生成システム2が、複数台のカメラ4で撮影された画像フレームをスティッチングすることで、本体101の前方又は側方の画像を生成することができる。
また、複数台のカメラ4が本体101の周りを全周に亘って撮影可能なように配置されてもよく、画像生成システム2が、複数台のカメラ4で撮影された画像フレームをスティッチングすることで、本体101の周りの全周画像を生成することができる。
上記の実施形態では、画像生成システム2は、複数の画像フレームを合成するスティッチング処理を行っているが、画像生成システム2はスティッチング処理以外の処理を行ってもよい。例えば、画像生成システム2は、第1画像データに所定の加工処理を行って第2画像データを生成し、第2画像データに対して認識処理を実行することで第2画像データから所望の対象物を検出する処理を行ってもよい。
上記実施形態の画像生成システム2を備える画像表示システム1は、自動車100に適用されるものに限らず、例えば、二輪車、電車、航空機、建設機械、及び船舶等、自動車100以外の移動体にも適用可能である。
また、上記実施形態の画像生成システム2を備える画像表示システム1は、移動体に適用されるものに限定されず、例えば住宅、集合住宅、オフィスビル、商業施設等の施設に適用されるものでもよい。
また、上記の実施形態において、2値の比較において、「より小さい」としているところは「以下」であってもよい。つまり、2値の比較において、2値が等しい場合を含むか否かは、基準値等の設定次第で任意に変更できるので、「より小さい」か「以下」かに技術上の差異はない。同様に、上記の実施形態において、2値の比較において、「超える」としているところは「以上」であってもよい。
(まとめ)
以上説明したように、第1の態様の画像生成システム(2)は、取得部(40)と、第1処理部(50)と、第2処理部(60)と、を備える。取得部(40)は第1画像データを取得する。第1処理部(50)は、取得部(40)が取得した第1画像データに対して所定の加工処理を実行して第2画像データを生成する。第2処理部(60)は、第2画像データに対して認識処理を実行する。第1処理部(50)と第2処理部(60)とは、プロセッサ(10)からの命令によらずに、同期して処理を実行する。
この態様によれば、プロセッサ(10)が、第1処理部(50)の処理完了を受けて、第2処理部(60)に処理開始の命令を出力する場合に比べて、プロセッサ(10)が第1処理部(50)から処理完了を通知する信号を待ち受ける必要がない。よって、プロセッサ(10)の処理速度の低下を抑制できる、という利点がある。
第2の態様の画像生成システム(2)では、第1の態様において、第1画像データが、複数の画像フレームを含む第1群の画像フレームを表し、第2画像データが、複数の画像フレームを含む第2群の画像フレームを表す。
この態様によれば、プロセッサ(10)の処理速度の低下を抑制できる、という利点がある。
第3の態様の画像生成システム(2)では、第2の態様において、認識処理が、検索処理と、マッチング処理とを含む。検索処理では、第2画像データから特徴量を検索する。マッチング処理では、検索処理によって検索された特徴量に基づいて、第2群の画像フレームのうちマッチング対象の2つの画像フレームをマッチングする。
この態様によれば、第2処理部(60)において、第2画像データから検索された特徴量をマッチング対象とマッチングするマッチング処理が行われる場合でも、プロセッサ(10)の処理速度の低下を抑制できる。
第4の態様の画像生成システム(2)では、第3の態様において、取得部(40)は第1群の画像フレームを取得する。第1処理部(50)は、取得部(40)が取得した第1群の画像フレームに対してそれぞれ加工処理を実行して第2群の画像フレームを生成する。検索処理では、マッチング対象の2つの画像フレームについて特徴量を検索する。マッチング処理では、検索処理で検索された特徴量に基づいて、マッチング対象の2つの画像フレームに共通して存在する特徴点を検出する。
この態様によれば、第2処理部(60)が、複数の画像の第1画像データを加工して得られた複数の第2画像データのうち、マッチング対象の2つの第2画像データについてマッチング処理を実行する場合でも、プロセッサ(10)の処理速度の低下を抑制できる。
第5の態様の画像生成システム(2)は、第4の態様において、マッチング処理において検出された特徴点を基に、マッチング対象の2つの画像フレームを合成した合成画像データを生成する合成処理部(52)を、更に備える。
この態様によれば、マッチング対象の2つの第2画像データを合成した合成画像データを生成する場合でも、プロセッサ(10)の処理速度の低下を抑制できる、という利点がある。
第6の態様の画像生成システム(2)では、第4又は第5の態様において、マッチング対象の2つの画像フレームは部分的に重複している。
第7の態様の画像生成システム(2)では、第2〜第6のいずれかの態様において、取得部(40)は、複数のカメラ(4)から第1群の画像フレームを取得する。
第8の態様の画像生成システム(2)では、第7の態様において、複数のカメラ(4)は、移動体(100)に設けられて、移動体(100)の外側を撮影する。
第9の態様の画像生成システム(2)では、第1〜第8のいずれかの態様において、第1処理部(50)が所定の設定情報に従って加工処理を実行し、第2処理部(60)が設定情報に従って認識処理を実行する。
この態様によれば、設定情報に従って第1処理部(50)と第2処理部(60)とが処理を実行するので、プロセッサ(10)の処理の負担を軽減でき、プロセッサ(10)の処理速度の低下を抑制できる、という利点がある。
第10の態様の画像生成システム(2)では、第9の態様において、設定情報を受け付けると、設定情報を第1処理部(50)と第2処理部(60)とに出力するデコード部(30)を、更に備える。
この態様によれば、デコード部(30)に設定情報を出力することで、デコード部(30)から第1処理部(50)と第2処理部(60)とに設定情報を出力させることができ、プロセッサ(10)の処理速度の低下を抑制できる、という利点がある。
第11の態様の画像生成システム(2)では、第10の態様において、デコード部(30)は、所定の更新条件が成立すると、設定情報を更新して、更新後の設定情報を第1処理部(50)と第2処理部(60)とに出力する。
この態様によれば、更新条件が成立した場合には、第1処理部(50)及び第2処理部(60)の処理内容に関する設定情報を更新することができる。
第12の態様の画像生成システム(2)では、第11の態様において、設定情報を生成する設定情報生成部(11)を更に備える。
この態様によれば、プロセッサ(10)の処理速度の低下を抑制できる、という利点がある。
第13の態様の画像表示システム(1)は、第1〜第12のいずれかの態様の画像生成システム(2)と、画像生成システム(2)で生成された画像を表示する表示部(3)と、を備える。
この態様によれば、プロセッサ(10)の処理速度の低下を抑制可能な画像表示システム(1)を提供できる。
第14の態様の画像生成方法は、第1画像データを取得するステップと、第1画像データに対して所定の加工処理を実行して第2画像データを生成するステップと、第2画像データに対して認識処理を実行するステップと、を含む。第10の態様の画像生成方法は、加工処理と認識処理とを、プロセッサからの命令によらずに、同期して実行する。
この態様によれば、プロセッサ(10)の処理速度の低下を抑制可能な画像生成方法を提供できる。
第15の態様の画像生成プログラムは、コンピュータシステムに、第14の態様の画像生成方法を実行させるためのプログラムである。
この態様によれば、プロセッサ(10)の処理速度の低下を抑制可能な画像生成プログラムを提供できる。
第16の態様の移動体(100)は、第13の態様の画像表示システム(1)と、画像表示システム(1)を搭載する移動体本体(101)と、を備える。
この態様によれば、プロセッサ(10)の処理速度の低下を抑制可能な移動体(100)を提供できる。
上記態様に限らず、実施形態に係る画像生成システムの種々の構成(変形例を含む)は、画像生成方法、画像生成プログラム(コンピュータプログラム)、又は画像生成プログラムを記録した非一時的記録媒体等で具現化可能である。
第2〜第8の態様に係る構成については、画像生成システム(2)に必須の構成ではなく、適宜省略可能である。
1 画像表示システム
2 画像生成システム
3 表示部
10 ソフト処理部(プロセッサ)
11 動作制御部(設定情報生成部)
30 動作設定部(デコード部)
40 取得部
50 第1処理部
52 ポストグラフィックス処理部(合成処理部)
60 第2処理部
100 移動体
101 本体(移動体本体)

Claims (15)

  1. 第1画像データを取得する取得部と、
    前記取得部が取得した前記第1画像データに対して所定の加工処理を実行して第2画像データを生成する第1処理部と、
    前記第2画像データに対して認識処理を実行する第2処理部と、を備え、
    前記第1処理部と前記第2処理部とは、プロセッサからの命令によらずに、前記加工処理と前記認識処理とを含む一連の処理を同期して実行し、
    前記第1処理部が、前記一連の処理が設定された所定の設定情報に従って前記加工処理を実行し、前記第2処理部が前記設定情報に従って前記認識処理を実行する、
    画像生成システム。
  2. 前記第1画像データが、複数の画像フレームを含む第1群の画像フレームを表し、
    前記第2画像データが、複数の画像フレームを含む第2群の画像フレームを表す、
    請求項1に記載の画像生成システム。
  3. 前記認識処理が、検索処理と、マッチング処理とを含み、
    前記検索処理では、前記第2画像データから特徴量を検索し、
    前記マッチング処理では、前記検索処理によって検索された前記特徴量に基づいて、前記第2群の画像フレームのうちマッチング対象の2つの画像フレームをマッチングする、
    請求項2に記載の画像生成システム。
  4. 前記取得部は前記第1群の画像フレームを取得し、
    前記第1処理部は、前記取得部が取得した前記第1群の画像フレームに対してそれぞれ前記加工処理を実行して前記第2群の画像フレームを生成し、
    前記検索処理では、マッチング対象の前記2つの画像フレームについて前記特徴量を検索し、
    前記マッチング処理では、前記検索処理で検索された前記特徴量に基づいて、マッチング対象の前記2つの画像フレームのマッチングを行うことによって、マッチング対象の前記2つの画像フレームに共通して存在する特徴点を検出する、
    請求項3に記載の画像生成システム。
  5. 前記第1処理部は、前記マッチング処理において検出された前記特徴点を基に、マッチング対象の前記2つの画像フレームを合成した合成画像データを生成する合成処理部を、
    備える、
    請求項4に記載の画像生成システム。
  6. マッチング対象の前記2つの画像フレームは部分的に重複している、
    請求項4又は5に記載の画像生成システム。
  7. 前記取得部は、複数のカメラから前記第1群の画像フレームを取得する、
    請求項2〜6のいずれか1項に記載の画像生成システム。
  8. 前記複数のカメラは、移動体に設けられて、前記移動体の外側を撮影する、
    請求項7に記載の画像生成システム。
  9. 前記設定情報を受け付けると、前記設定情報を前記第1処理部と前記第2処理部とに出力するデコード部を、更に備える、
    請求項1〜8のいずれか1項に記載の画像生成システム。
  10. 前記デコード部は、所定の更新条件が成立すると、前記設定情報を更新して、更新後の前記設定情報を前記第1処理部と前記第2処理部とに出力する、
    請求項9に記載の画像生成システム。
  11. 前記設定情報を生成する設定情報生成部を、更に備える、
    請求項10に記載の画像生成システム。
  12. 請求項1〜11のいずれか1項に記載の画像生成システムと、前記画像生成システムで生成された画像を表示する表示部と、を備える、
    画像表示システム。
  13. 第1画像データを取得するステップと、
    前記第1画像データに対して所定の加工処理を実行して第2画像データを生成するステップと、
    前記第2画像データに対して認識処理を実行するステップと、を含み、
    プロセッサからの命令によらずに、前記加工処理と前記認識処理とを含む一連の処理を同期して実行し、
    前記一連の処理が設定された所定の設定情報に従って前記加工処理を実行し、前記設定情報に従って前記認識処理を実行する、
    画像生成方法。
  14. コンピュータシステムに、請求項13に記載の画像生成方法を実行させるための、
    画像生成プログラム。
  15. 請求項12に記載の画像表示システムと、前記画像表示システムを搭載する移動体本体と、を備える、
    移動体。
JP2019050367A 2018-03-20 2019-03-18 画像生成システム、画像表示システム、画像生成方法、画像生成プログラム、及び移動体 Active JP6893322B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018053549 2018-03-20
JP2018053549 2018-03-20

Publications (2)

Publication Number Publication Date
JP2019169146A JP2019169146A (ja) 2019-10-03
JP6893322B2 true JP6893322B2 (ja) 2021-06-23

Family

ID=67983803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019050367A Active JP6893322B2 (ja) 2018-03-20 2019-03-18 画像生成システム、画像表示システム、画像生成方法、画像生成プログラム、及び移動体

Country Status (2)

Country Link
US (1) US10965866B2 (ja)
JP (1) JP6893322B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112165572A (zh) * 2020-09-10 2021-01-01 Oppo(重庆)智能科技有限公司 图像处理方法、装置、终端及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8625680B2 (en) * 2003-09-07 2014-01-07 Microsoft Corporation Bitstream-controlled post-processing filtering
JP2008022240A (ja) * 2006-07-12 2008-01-31 Fujifilm Corp 撮影装置,画像処理装置、及び画像ファイル生成方法,画像処理方法、並びに画像処理プログラム
JP4980089B2 (ja) 2007-01-31 2012-07-18 富士重工業株式会社 ステレオ画像処理装置
US8219878B1 (en) * 2007-12-03 2012-07-10 Marvell International Ltd. Post-processing decoder of LDPC codes for improved error floors
JP5679763B2 (ja) 2010-10-27 2015-03-04 ルネサスエレクトロニクス株式会社 半導体集積回路及び全周囲映像システム
US9672431B2 (en) * 2012-11-09 2017-06-06 Analog Devices Global Object detection
US10798422B2 (en) * 2015-10-20 2020-10-06 Intel Corporation Method and system of video coding with post-processing indication
JP2017085297A (ja) 2015-10-26 2017-05-18 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6631350B2 (ja) * 2016-03-22 2020-01-15 株式会社デンソー ドライブレコーダ
JP6652463B2 (ja) 2016-08-02 2020-02-26 日立オートモティブシステムズ株式会社 車載カメラ装置、車載カメラ調整装置及び車載カメラ調整システム
WO2018037789A1 (ja) * 2016-08-22 2018-03-01 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム

Also Published As

Publication number Publication date
US20190297257A1 (en) 2019-09-26
US10965866B2 (en) 2021-03-30
JP2019169146A (ja) 2019-10-03

Similar Documents

Publication Publication Date Title
US10956774B2 (en) Electronic device for acquiring image using plurality of cameras and method for processing image using the same
CN110322542B (zh) 重建真实世界3d场景的视图
US7916177B2 (en) Image-capturing apparatus, image-capturing method and program for detecting and correcting image blur
US8886017B2 (en) Display image generating method
US10764496B2 (en) Fast scan-type panoramic image synthesis method and device
US20170064174A1 (en) Image shooting terminal and image shooting method
KR20190032061A (ko) 이미지 보정을 수행하는 전자 장치 및 그 동작 방법
CN109005334B (zh) 一种成像方法、装置、终端和存储介质
US11917291B2 (en) Apparatus and method for producing slow motion video
CN111131698A (zh) 图像处理方法及装置、计算机可读介质、电子设备
KR102383134B1 (ko) 우선 순위에 기반하여 이미지를 처리하는 전자 장치 및 그 동작 방법
CN101656836A (zh) 照相机、图像合成方法以及程序
JP2019080226A (ja) 撮像装置、撮像装置の制御方法、及びプログラム
CN103945116A (zh) 用于在具有相机的移动终端中处理图像的设备和方法
JP6893322B2 (ja) 画像生成システム、画像表示システム、画像生成方法、画像生成プログラム、及び移動体
CN116668836B (zh) 拍照处理方法和电子设备
US10701286B2 (en) Image processing device, image processing system, and non-transitory storage medium
US10785470B2 (en) Image processing apparatus, image processing method, and image processing system
CN115908120A (zh) 图像处理方法和电子设备
CN113674138B (zh) 图像处理方法、装置及系统
CN114066731A (zh) 生成全景图的方法、装置、电子设备及存储介质
CN117714840B (zh) 图像处理方法、装置、芯片、电子设备及介质
CN116934654B (zh) 图像模糊度的确定方法及其相关设备
CN113034369A (zh) 一种基于多摄像头的图像生成方法、装置和计算机设备
CN117714863A (zh) 拍摄方法及其相关设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210127

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210204

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210514

R151 Written notification of patent or utility model registration

Ref document number: 6893322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350