JP6674630B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6674630B2
JP6674630B2 JP2016107130A JP2016107130A JP6674630B2 JP 6674630 B2 JP6674630 B2 JP 6674630B2 JP 2016107130 A JP2016107130 A JP 2016107130A JP 2016107130 A JP2016107130 A JP 2016107130A JP 6674630 B2 JP6674630 B2 JP 6674630B2
Authority
JP
Japan
Prior art keywords
image
divided
moving
moving image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016107130A
Other languages
English (en)
Other versions
JP2017216496A5 (ja
JP2017216496A (ja
Inventor
和典 柳
和典 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016107130A priority Critical patent/JP6674630B2/ja
Priority to US15/467,577 priority patent/US10609306B2/en
Priority to CN201710227086.5A priority patent/CN107454307B/zh
Publication of JP2017216496A publication Critical patent/JP2017216496A/ja
Publication of JP2017216496A5 publication Critical patent/JP2017216496A5/ja
Application granted granted Critical
Publication of JP6674630B2 publication Critical patent/JP6674630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1215Mirror assemblies combined with other articles, e.g. clocks with information displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置に関するものである。
従来より、複数台のカメラを用いて同時に撮影された撮影方向が異なる動画像(以下、動画という。)を画面上に同時に再生表示する技術が知られている(例えば下記特許文献1参照)。係る技術によれば、閲覧者は異なる方向の視野の映像を同時に観察することができる。
特表2008−507449号公報
しかしながら、これら複数台のカメラを移動体に設け、これらのカメラにより撮影された動画を画像の端部で合成して、例えば流れる風景の複数の動画を同時に再生させた時、その再生映像で閲覧者に臨場感を与えることは難しく、違和感を与える可能性があるという問題があった。
本願発明はこのような問題点に鑑みてなされたものであり、撮影し、合成により生成された広範囲の画像を再生表示する場合、臨場感を保つことができるようにすることを目的とする。
前記課題を解決するため、本発明においては、撮影タイミングが共通し、且つ、進行方向を撮影方向とした第1の画像と前記進行方向の逆方向を撮影方向とした第2の画像とを取得する画像取得手段と、前記画像取得手段により取得された前記第2の画像から動きベクトルを検出する検出手段と、前記検出手段によって検出された動きベクトルに基づいて、前記第2の画像の分割位置を決定し、前記画像取得手段により取得された前記第2の画像を決定した分割位置に基づいて第1の分割画像と第2の分割画像とに分割する分割手段と、前記第1の分割画像と前記第2の分割画像とを、前記第1の画像の両端側にそれぞれ合成する合成手段と、を備えたことを特徴とする。
また、撮影タイミングが共通し、且つ、進行方向を撮影方向とした第1の画像と前記進行方向の逆方向を撮影方向とした第2の画像とを取得する画像取得手段と、前記第2の画像を鏡面変換する鏡面変換手段と、前記鏡面変換手段による鏡面変換後の第2の画像を第1の分割画像と第2の分割画像とに分割する分割手段と、前記第1の分割画像と前記第2の分割画像とを、前記第1の画像の両端側にそれぞれ合成する合成手段とを備えたことを特徴とする。
本発明によれば、撮影し、合成により生成された広範囲の画像を再生表示する場合、臨場感を保つことが可能となる。
本発明の一実施形態に係る画像処理装置、及び撮像装置の要部を示すブロック図である。 画像処理装置の処理手順を示すフローチャートである。 図2に続くフローチャートである。 (a)は移動体における第1の撮像装置200aと第2の撮像装置200bの配置を示す図であり、(b)は第1の動画データにおける画像の動きベクトル群の例、(c)は第2の動画データにおける画像の動きベクトル群の例を示す図である。 第1のモードでの画像処理装置の処理内容を示す説明図である。 第2のモードでの画像処理装置の処理内容を示す説明図である。
以下、本発明の実施形態について説明する。図1は、本発明の一実施形態として例示する画像処理装置100と、この画像処理装置100と通信可能な撮像装置200a,200bの要部を示したブロック図である。
画像処理装置100は、後述するように、撮像装置200a,200bによって個別に撮影され記憶された動画データを無線によりそれぞれ取得し、取得した双方の動画データから新たな動画データを生成し、生成した動画データに基づく動画を再生表示及びその動画データを保存する機能を有している。
画像処理装置100は、具体的にはスマートフォン(多機能携帯電話機)や、タブレット型のパーソナルコンピュータ等により実現されるものあり、画像処理装置100には以下の各部が含まれる。すなわち画像処理装置100は、表示部101と、画像処理部102、プログラムメモリ103、無線通信部104、制御部105、操作部106、画像メモリ107を備えている。
無線通信部104は、撮像装置200a,200b(以下、第1の撮像装置200a、第2の撮像装置200bと区別する。)から無線通信技術によって動画データを取得する。無線通信部104が採用する無線通信技術は、例えば、国際標準規格IEEE 802.11シリーズを適用するWi−Fi(登録商標)、或いはBluetooth(登録商標)を準拠した技術を採用するが、動画データの伝送が可能な通信媒体であれば、有線、無線限らず他の方法を適用することも可能である。画像メモリ107は、フラッシュメモリ等から構成され、無線通信部104によって取得された動画データ等を記憶する。画像処理部102は、画像メモリ107に記憶された動画データから後述する新たな動画データを生成する画像処理回路等から構成される。なお、画像処理部102により生成された動画データも画像メモリ107に記憶される。
表示部101は、液晶パネルや、その駆動回路からなり、第1の撮像装置200aや第2の撮像装置200bから受信した動画データや、画像処理部102によって生成され、画像メモリ107に記憶された動画データに基づく動画を表示する。
操作部106は、電源スイッチや、ユーザーが画像処理装置100を操作するための操作ボタンにより構成され、ユーザーによる操作情報を制御部105へ供給する。なお、操作部106には、前記液晶パネルの表面に一体的に設けられタッチパネルが含まれる。
プログラムメモリ103は、フラッシュメモリ等の書き換え可能な不揮発性メモリで構成され、画像処理装置100の動作制御に必要な基本プログラムや、各種のアプリムーションプログラムを記憶する。制御部105は、CPU(Central Processing Unit)、及びその周辺回路等やメモリ等から構成され、プログラムメモリ103に記憶されている基本プログラムに従い、操作部106から供給される操作情報を参照しながら画像処理装置100全体を制御する。特に制御部105は、プログラムメモリ103に記憶されている所定の画像処理プログラムに従い、後述する図2及び図3に示した処理を実行する。
なお、例えば画像処理装置100がスマートフォンである場合、画像処理装置100には、上記の構成に加え、音声通信やデータ通信を行うための周知の回路、すなわち入力された音声を変調して送信する音声入力回路、送信回路、及び受信した音声信号を受信して復号再生する受信回路、再生回路やデータ送受信回路等が含まれる。また、画像処理プログラムは、アプリケーションプログラムとして提供される。
一方、第1の撮像装置200a及び第2の撮像装置200bは、各々が動画を撮影して記憶するとともに、記憶した動像データを必要に応じて画像処理装置100に送信する構成を備えている。
図に示したように第1の撮像装置200aは、広角レンズ201を介して被写体を撮像するCMOS(Complementary Meta1 0xide Semiconductor)やCCD(Charge Coupled Device)等の撮像素子202と、撮像素子202から出力される撮像信号の増幅、デジタル信号への変換、デジタル信号に変換後の画像データの圧縮等を行う画像処理部203と、圧縮後の画像データが静止画ファイルや動画ファイルとして記憶される画像メモリ205とを備えている。なお、広角レンズ201は水平方向に180°の画角を確保するものである。
また、第1の撮像装置200aは、プログラムメモリ204、制御部206、操作部207、センサモジュール208、無線通信部209を備えている。無線通信部209は、例えば、国際標準規格IEEE 802.11シリーズを適用するWi−Fi(登録商標)、或いは、Bluetooth(登録商標)等を準拠した技術によって、画像メモリ205に記憶されている動画データ(動画ファイル)を必要に応じて画像処理装置100等の外部機器に送信する。
センサモジュール208は、3軸方向の加速度を検出するモーションセンサやジャイロセンサ、GPSアンテナ等の検出信号をデジタル信号に変換し、第1の撮像装置200aの動きの有無や移動方向を示す動き情報として制御部206へ供給する。操作部207は、電源スイッチ、及びユーザーが第1の撮像装置200aを操作するための1又は複数の操作ボタンにより構成され、ユーザーによる操作情報を制御部206へ供給する。
制御部206は、CPU及びその周辺回路等やメモリ等から構成され、プログラムメモリ204に記憶されているプログラムに従い、操作部207から供給される操作情報、センサモジュール208から供給される動き情報を確認しながら第1の撮像装置200aの各部を制御する。すなわち第1の撮像装置200aにおける動画の撮影動作を制御する。
また、第1の撮像装置200aにおいては、ユーザーが動画の撮影中に移動方向を記録するか否かを設定することができ、移動方向の記録が設定されている場合、制御部206は、動画の撮影中に上記動き情報に基づいて、撮影方向(広角レンズ201の光軸に沿って被写体に向かう方向)を基準とした第1の撮像装置200aの移動方向を逐次演算し、その情報(以下、撮影方向情報という)動画の各フレームに関連付けて画像メモリ205に記憶する。
なお、図示しないが、第2の撮像装置200bは第1の撮像装置200aと同一の構成を備えている。
以下、画像処理装置100の本発明に係る動作について説明する。以下の説明においては、画像処理装置100が第2の撮像装置200b及び第1の撮像装置200aと通信可能な状態であるとともに、第1の撮像装置200aと第2の撮像装置200bとが、自動車等の任意の移動体に設置された状態で、各々の画像メモリ205に、移動体の移動中における前方側、又は後方側をそれぞれ撮影した動画データ(動画ファイル)が記録されているものとする。
図4(a)は、移動体Mにおける第1の撮像装置200aと第2の撮像装置200bの配置、及び撮影範囲を示した模式図である。第1の撮像装置200aは、図に矢印で示した移動体Mの前方側(進行方向側)の端部に位置し、第2の撮像装置200bは、移動体Mの後方側の端部に位置する。
既説したように第1の撮像装置200aは水平方向に180°の画角を有しており、第2の撮像装置200aの画像メモリ205には、移動体Mの前方側における図に示した[F0]から[F108]までの範囲を撮影した第1の動画データG1を含む動画ファイルが記憶されている。また、第2の撮像装置200bも水平方向に180°の画角を有しており、第2の撮像装置200bの画像メモリ205には、移動体Mの後方側における図に示した[R0]から[R108]までの範囲を撮影した第2の動画データG2を含む動画ファイルが記憶されている。なお、ここでは第1の撮像装置200aと第2の撮像装置200bには単一の動画ファイルがそれぞれ記憶されているものとする。
図2及び図3は、画像処理装置100において、制御部105がプログラムメモリ103に記憶されている所定の画像処理プログラムに従い実行する処理手順の要部を示したフローチャートである。
制御部105は、操作部106の操作ボタンの操作によってユーザーから動作開始が指示されると直ちに動作を開始するとともに、無線通信部104を介して第1の撮像装置200と第2の撮像装置300との通信を開始し、双方の画像メモリ205に格納された動画ファイルをそれぞれ取得する(ステップS1)。
次に、制御部105は、取得した動画ファイルの撮影タイミング(日時)が共通しているか否かを判断し、共通していないと判断したならば(ステップS2:NO)、各々の動画ファイルに基づく第1の動画データG1と第2の動画データG2をそれぞれ再生する(ステップS26)。なお、その場合において制御部105は、2つの動画データG1,G2の再生を終了した時点で全ての処理を完了する。
また、制御部105は、取得した動画ファイルの撮影タイミングが共通していると判断したならば(ステップS2:YES)、双方の動画ファイルに撮影方向情報が含まれているか否かをさらに判断する(ステップS3)。
ここで、双方の動画ファイルの少なくともいずれか一方に方向情報が含まれていると判断した場合(ステップS3:YES)、制御部105は、方向情報に基づいて動画撮影時における第1の撮像装置200aと第2の撮像装置200bの進行方向(撮影方向を基準とする移動方向)を判定する(ステップS4)。そして、制御部105は、判定した進行方向に基づき双方の動画ファイルによる2つの動画データにおいて、前方を撮影した動画データと後方を撮影した動画データとを特定する(ステップS5)。
次に、制御部105は、後方側の動画(ここでは、第2の動画データG2)において動きベクトルを解析する(ステップS6)。具体的には、動画データの隣接する2つ以上のフレームの画像において、広角レンズ201の光学特性による幾何学的歪(歪曲収差)をそれぞれ補正するとともに、補正後の各フレームの画像を複数のマクロブロックに分割し、マクロブロック毎にブロックマッチング法等の周知の方法により動きベクトルを解析する。
図4(c)は、後方側の動画(第2の動画データG2)において解析される動きベクトル群の例を矢印により便宜的に示した図である。なお、動きベクトルの解析時におけるマクロブロックは必ずしも画像を分割した領域である必要はなく、予め決められた互いに離間する複数の領域であっても構わない。
しかる後、制御部105は、後方側の動画における動きベクトル群に基づいて消失点VPを検出する(ステップS10)。かかる処理は、各々の動きベクトルが透視図法におけるパース線の延在方向を示すものと仮定し、動きベクトルで示される仮想のパース線が収束する点を消失点VPとして検出する処理である。ただし、仮想のパース線は必ずしも1点に収束しているとは限らない。そのため、ステップS10の処理において制御部105は、予め決められているサイズの領域であって、仮想のパース線の収束度合が最も高い収束領域を探索し、その中心を消失点とする。なお、消失点VPは画像外の場合もある。
また、以上の処理とは異なり、記録日時が一致する双方の動画ファイルに方向情報が含まれていないと判断した場合(ステップS3:NO)、制御部105は、双方の動画ファイルによる動画データにおいて動きベクトルを解析する(ステップS7)。すなわちステップS6の処理と同様の処理を、双方の動画データを対象として個別に行う。図4(b)は、前方側の動画データ(第1の動画データG1)における各動きベクトルの例を矢印により便宜的に示した図である。
引き続き、制御部105は、双方の動画データ(第1の動画データG1と第2の動画データG2)の一方側において動きベクトル群が画像の外側に向って発散し、かつ他方側において動きベクトル群が画像の内側に向かって収束しているか否かを判断する(ステップS8)。
ここで、上記の判断においてNoと判断した場合(ステップS8:NO)、制御部105は、双方の動画をそれぞれ再生し、表示部101に2画面で再生し(ステップS26)、双方の動画の再生を終了した時点で全ての処理を完了する。
これに対し、図4(b)及び図4(c)に例示したように、一方の動画データの動きベクトル群が発散し、かつ他方の動画データの動きベクトル群が収束していると判断した場合(ステップS8:YES)、制御部105は、動きベクトル群が収束している側の動画データを、後方を撮影した動画データであるとして特定する(ステップS9)。
すなわち、双方の動画データの動きベクトル群の状態が図4(b)及び図4(c)に例示した状態であれば、この時点で第2の動画データG2が後方側の動画データとして特定される。
しかる後、制御部105は、前述したステップS10へ進み、ステップS8の処理で解析した動きベクトル群に基づいて、後方側の動画データ(第2の動画データG2)について消失点VPを検出する。
以後、制御部105は図3に示した処理を行う。まず、制御部105は、ユーザーにより設定されている合成モードの種類を確認し、合成モードとして第1のモードが設定されているときには(ステップS11:第1)、ステップS12以降の処理を実施し、合成モードとして第2のモードが設定されているときには(ステップS11:第2)、ステップS17以降の処理を実施する。なお、これ以降は、第1の動画データG1を前方側の動画データ、第2の動画データG2を後方側の動画データと呼ぶこととする。
まず、第1のモードが設定されている場合について説明する。図5は、第1のモードでの処理内容を示す説明図であって、図5(a)及び図5(b)は、図4(b)及び図4(c)に対応する図である。
連続モードにおいて制御部105は、まず前方側の動画データG1と後方側の動画データG2についての各フレームの画像(以下、フレーム画像という)をフレーム順に矩形画像に変換する(ステップS12)。係る処理は、広角レンズ201の光学特性によりフレーム画像に生じている幾何学的歪(歪曲収差)を補正する処理である。図5(a)は、矩形画像に変換後の前方側の動画データG1のフレーム画像FG1、図5(b)は、矩形画像に変換した後の後方側の動画データG2のフレーム画像FG2を示す図である。
次に、制御部105は、後方側のデータG2のフレーム画像FG2を、ステップS10で検出した消失点VPを分割位置として左右に分割する(ステップS13)。つまり図5(b)のように、消失点VPがフレーム画像FG2の左右方向の中央であれば、制御部105は、フレーム画像FG2を、撮影範囲が[R0]から[R90]までの左半分の分割画像FG2−Lと、撮影範囲が[R90]から[R180]までの右半分の分割画像FG2−Rと、に分割する。
次に、制御部105は、分割した左右の分割画像FG2−L,FG2−Rを、フレーム画像FG2における位置関係を左右で逆転して、前方側の動画データG1のフレーム画像FG1の左右端部に合成する(ステップS14)。すなわち図5(c)に示したように、左側の分割画像FG2−Lを前方側の動画データG1のフレーム画像FG1の右側端部に合成し、かつ右側の分割画像FG2−Rを前方側の動画データG1のフレーム画像FG1の左側に合成したフレーム画像FG3を新たに生成する。なお、図5(a)〜図5(c)において各フレーム画像FG1,FG2,FG3に示した矢印は、個々の画像内に存在する被写体の、前方側の動画データG1及び後方側の動画データG2での移動方向を便宜的に示すものである。
引き続き、制御部105は、合成後のフレーム画像FG3を順次一時記憶し(ステップS15)、以後、最終フレームの合成が完了するまで(ステップS16:NO)、ステップS12以降の処理を繰り返す。しかる後、最終フレームの合成処理が完了すると(ステップS16:YES)、一時記憶しているフレーム画像FG3を含む動画データの動画を表示部101に再生する(ステップS23)。
これにより、前方側の動画データG1と後方側の動画データG2を、前方側の動画データG1を再生すべきフレーム画像の中心とするとともに、移動体Mの周囲のほぼ全域を再生する動画としてユーザーに観察又は鑑賞させることができる。
そして、制御部105は、ユーザーから記録指示があるまで動画の再生を継続し(ステップS24:NO)、記録指示を検出すると(ステップS24:YES)、一時記憶している合成後の動画データを新たな動画ファイルとして画像メモリ107に記憶し(ステップS25)、処理を終了する。
次に、第2のモードが設定されている場合について説明する。第2のモードは、主として移動体Mが自動車であって、第1の撮像装置200aと第2の撮像装置200bが自動車の前後の撮影に用いられる場合を想定して設けられているモードである。図6は、ミラーモードでの処理内容を示す説明図であって、図6(a)は、図5(a)に対応する図である。
第2のモードにおいても制御部105は、まずステップS12の処理と同様に、前方側の動画データG1と後方側の動画データG2のフレーム画像をフレーム順に矩形画像に変換する(ステップS17)。
次に、制御部105は、変換後における後方側の動画データG2のフレーム画像FG2に鏡面変換する(ステップS18)。図6(b)は、鏡面変換後のフレーム画像FG22を示す図である。
しかる後、制御部105は、鏡面変換後のフレーム画像FG22をステップS10で検出した消失点VPを中心に左右に分割する(ステップS19)。つまり図6(b)のように、消失点VPが鏡面変換後のフレーム画像FG22(フレーム画像FG2)の左右方向の中央であれば、制御部105は、フレーム画像FG22を、撮影範囲が[R90]から[R180]までの左半分の分割画像FG22−Lと、撮影範囲が[R0]から[R90]までの右半分の分割画像FG22−Rと、に分割する。
次に、制御部105は、分割した左右の分割画像FG22−L,FG22−Rを、鏡面変換後のフレーム画像FG22における位置関係を維持したまま、前方側の動画データG1のフレーム画像FG1の左右端部に合成する(ステップS20)。すなわち図6(c)に示したように、左側の分割画像FG22−Lを前方側の動画データG1のフレーム画像FG1の左側端部に合成し、かつ、右側の分割画像FG22−Rを前方側の動画データG1のフレーム画像FG1の右側端部に合成したフレーム画像FG4を新たに生成する。なお、図6(a)〜図6(c)においても、各フレーム画像FG2,FG22,FG4に示した矢印は、個々の画像内に存在する被写体の前方側の動画データG1と後方側の動画データG2での移動方向を便宜的に示すものである。
引き続き、制御部105は、合成後のフレーム画像FG4を順次一時記憶し(ステップS21)、以後、最終フレームの合成が完了するまで(ステップS22:NO)、ステップS17以降の処理を繰り返す。しかる後、最終フレームの合成が完了すると(ステップS22:YES)、一時記憶しているフレーム画像FG3を含む動画データの動画を表示部101に再生する(ステップS23)。
これにより、前方側の動画データG1と後方側の画像データG2とを用いて、例えば自動車の走行中に運転席から見える前方の景色と左右のサイドミラーに映った左後方側の景色と右後方側の景色とが並んだ動画としてユーザーに観察又は鑑賞させることができる。
以後、制御部105は、ユーザーにより設定されている合成モードの種類(第1のモード、又は第2のモード)に関係なく、ユーザーから記録指示があるまでは、合成した動画の表示を継続する(ステップS24:NO)。そして、制御部105は、記録指示を検出すると(ステップS24:YES)、一時記憶している動画データを新たな動画ファイルとして画像メモリ107に記憶し(ステップS25)、全ての処理を終了する。
以上説明したように画像処理装置100においては、同時に撮影された撮影方向が異なる第1の動画データG1と第2の動画データG2とを再生して表示する際、第1のモードが設定されている場合には、第1の動画データG1と第2の動画データG2とから、移動体Mの周囲のほぼ全域をカバーする単一の動画データを生成して表示部101に再生する。また、第2のモードが設定されている場合には、第1の動画データG1と第2の動画データG2から、前方の景色と左右のサイドミラーに映った左後方側の景色と右後方側の景色とが並んだ単一の動画データを生成して表示部101に再生する。
これにより、ユーザーにおいては、撮影し、合成により生成された広範囲の画像を再生表示する場合、臨場感を保つことができる。
また、第1の動画データG1と第2の動画データG2との動画ファイルの少なくともいずれか一方に方向情報が含まれている場合には、それによって示される撮影方向に基づいて、分割対象とすべき動画データ(本実施形態では後方側の動画データ)を特定する。つまり分割対象の動画データを自動的に特定する。これにより、ユーザーに分割対象とすべき動画データを選択させることなく、特定の方向を撮影した動画データ(本実施形態では前方側の動画データ)を中心とする単一の動画データを生成して表示することができる。
また、第1の動画データG1の動画ファイルと第2の動画データG2の動画ファイルの少なくとも一方に方向情報が含まれていない場合には、各々の動画データについて複数箇所の動きベクトルを検出し、検出した動きベクトル群から分割対象とすべき動画データ(本実施形態では後方側の動画データ)を特定する。これによっても、分割対象の動画データを自動的に特定することができ、ユーザーに分割対象とすべき動画を選択させることなく、特定の方向を撮影した動画データ(本実施形態では前方側の動画データ)を中心とする単一の動画を生成して表示することができる。
しかも、第1の動画データG1と第2の動画データG2とを解析することによって分割対象とすべき動画データを特定することから、処理対象の動画データが方向情報を有するものに限定されることがない。また、撮影前に撮像装置200aは前方側の動画データを、撮像装置200bは後方側の画像データを、夫々撮影するものとして通信経路を設定しておけば、上記の特定処理を行うことなく、特定の方向を撮影した動画データを中心とする単一の動画を生成して表示する合成することも可能である。
また、分割対象の動画データ(後方側の動画データG2)において、それから検出した動きベクトル群に基づき消失点VPを特定し、その消失点VPが存在する位置を分割対象の動画データのフレーム画像における分割位置とした。これにより、分割対象の動画データについて適切な位置で分割することができる。なお、これとは異なり、分割対象の動画データの分割位置は、例えば動きベクトル群によって示される動画データ内の複数ヶ所での被写体の移動方向が全体的に反転する位置とすることもできる。
ここで、本実施形態においては、主として画像処理装置100の処理対象が水平方向に180°の画角で撮影された動画である場合について説明したが、処理対象の動画の撮影時の画角はこれに限定されることはなく、任意の画角であって構わない。
また、画像処理装置100の処理対象が、異なる撮像装置200a,200bによって個別に撮影された2つの動画である場合について説明したが、処理対象の動画は、例えば単一の撮像装置によって撮影された2つの動画であっても構わない。
また、画像処理装置100は、撮像装置としての機能を備えた任意の電子機器によって実現することができ、その場合には、自機で撮影した動画と他の撮像装置から取得した動像とを処理対象として前述した処理を行ってもよい。また、画像処理装置100において表示部101は必須の構成ではなく、画像処理装置100は、第1の動画データG1と第2の動画データG2とから生成した、図5(c)や図6(c)に示した動画像を単に外部の表示機器に出力する構成であっても構わない。
また、本実施形態では、処理対象の第1の動画データG1及び第2の動画データG2が、移動体Mの移動中に前方側及び後方側を撮影した動画である場合について説明した。しかし、第1の動画データG1及び第2の動画データG2は、移動体Mの左方向及び右方向を撮影した動画であってもよい。その場合、第1の動画データG1及び第2の動画データG2が水平方向に180°の画角で撮影された動画データであれば、予め決められた方向(例えば左方向)を撮影した動画データを分割対象として、前述した第1モードの場合と同様の処理を行わせればよい。
また、以上の説明においては、画像処理装置100の処理対象が、第1の撮像装置200a及び第2の撮像装置200bにおいて予め撮影されて記憶されている動画データである場合について説明した。しかし、画像処理装置100には、第1の撮像装置200a及び第2の撮像装置200bにおいて逐次撮影されるフレーム画像を対象として本実施形態と同様の処理を行わせてもよい。すなわち画像処理装置100には、リアルタイムで図5(c)や図6(c)に示したようなフレーム画像を生成して表示する処理を行わせてもよい。
また、その場合には、例えば第1の撮像装置200aと第2の撮像装置200bとの移動速度(撮影地点の移動速度)を確認させ、その移動速度が所定の速度以下である間は、各々から取得したフレーム画像を2画面表示させるようにしてもよい。つまり、第1の撮像装置200aと第2の撮像装置200bとの移動に伴い各々の動画内において移動する被写体の移動速度が遅く、各々の動画を見るときのユーザーの負担が少ない間は、各々から取得したフレーム画像を2画面表示させるようにしてもよい。
なお、第1の撮像装置200aと第2の撮像装置200bとの双方又は一方からそれらの移動速度は、第1の撮像装置200aや第2の撮像装置200bから移動速度を示す速度情報を直接取得して確認してもよいし、相前後して取得した2フレーム分のフレーム画像の各部から動きベクトルを検出し、検出した動きベクトル群を、撮影地点の移動速度を示す速度情報として確認してもよい。
また、以上の説明においては、画像処理装置100の処理対象が動像である場合について説明したが、画像処理装置100には静止画を対象とした処理を行わせてもよい。但し、その場合、処理対象の静止画は、撮影方向情報が付加されているものに限定される。
以上、本発明の一実施形態、及びその変形例について説明したが、これらは本発明の作用効果が得られる範囲内であれば適宜変更が可能であり、変更後の実施形態も特許請求の範囲に記載された発明、及びその発明と均等の発明の範囲に含まれる。以下に、本出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
撮影タイミングが共通し、且つ、撮影方向が異なる2つの画像を取得する画像取得手段と、
前記画像取得手段により取得された前記2つの画像のうちで、その撮影方向が一方の画像の撮影方向に対して所定の関係にある他方の画像を第1の分割画像と第2の分割画像とに分割する分割手段と、
前記第1の分割画像と前記第2の分割画像とを、前記一方の画像の両端側にそれぞれ合成する合成手段と、
を備えたことを特徴とする画像処理装置。
(付記2)
前記合成手段は、前記第1の分割画像と前記第2の分割画像とを、前記他方の画像での位置関係を逆転させて、前記一方の画像の両端側にそれぞれ合成することを特徴とする付記1記載の画像処理装置。
(付記3)
前記他方の画像を鏡面変換する鏡面変換手段を更に備え、
前記分割手段は、前記鏡面変換手段による鏡面変換後の前記他方の画像を第1の分割画像と第2の分割画像とに分割し、
前記合成手段は、前記第1の分割画像と前記第2の分割画像とを前記一方の画像の両端側にそれぞれ合成する
ことを特徴とする付記1記載の画像処理装置。
(付記4)
前記撮影方向に基づいて、前記2つの画像の何れかを前記他方の画像として特定する第1の特定手段を更に備えたことを特徴とする付記1乃至3のいずれか1つに記載の画像処理装置。
(付記5)
前記2つの画像を解析することによって、これら2つの画像の何れかを前記他方の画像として特定する第2の特定手段を更に備えることを特徴とする付記1乃至3のいずれか1つに記載の画像処理装置。
(付記6)
前記2つの画像のそれぞれから動きベクトルを検出する第1の検出手段をさらに備え、
前記第2の特定手段は、前記第1の検出手段によって検出された動きベクトルに基づいて、前記2つの画像の何れかを前記他方の画像として特定することを特徴とする付記5記載の画像処理装置。
(付記7)
前記他方の画像から動きベクトルを検出する第2の検出手段と、
前記第2の検出手段によって検出された動きベクトルに基づいて、前記他方の画像の分割位置を決定する分割位置決定手段と、
をさらに備え、
前記分割手段は、前記分割位置決定手段により決定された分割位置で前記他方の画像を第1の分割画像と第2の分割画像とに分割する
ことを特徴とする付記1乃至6のいずれか1つに記載の画像処理装置。
(付記8)
前記分割位置決定手段は、前記他方の画像から前記検出手段によって検出された被写体の移動方向に基づいて、前記他方の画像の消失点を検出し、この検出された消失点が存在する位置を前記他方の画像の分割位置を決定することを特徴とする付記7記載の画像処理装置。
(付記9)
前記2つの画像は広角レンズに撮影された画像であり、
前記2つの画像を歪みのないパノラマ画像に補正する補正手段をさらに備え、
前記分割手段は、前記補正手段による補正後の前記他方の画像を第1の分割画像と第2の分割画像とに分割する
ことを特徴とする付記1乃至8のいずれか1つに記載の画像処理装置。
(付記10)
前記2つの画像は、動画像を含み、
前記分割手段は、他方の動画像の動画のフレーム画像を第1の分割画像と第2の分割画像とに分割することを特徴とする付記1乃至9のいずれか1つに記載の画像処理装置。
(付記11)
前記2つの動画像を撮像した装置、もしくは、当該装置が設置された移動体の、撮影時における移動速度を示す速度情報を取得する速度情報取得手段を更に備え、
前記合成手段は、前記速度情報取得手段により取得された速度情報により示される前記移動速度が所定の速度以上である時に撮像された動画像について、前記第1の分割画像と前記第2の分割画像とを、前記一方の画像の両端側にそれぞれ合成することを特徴とする付記10記載の画像処理装置。
(付記12)
撮影タイミングが共通し、且つ、撮影方向が異なる2つの画像を取得する画像取得ステップと、
前記画像取得ステップにて取得された前記2つの画像のうちで、その撮影方向が一方の画像の撮影方向に対して所定の関係にある他方の画像を第1の分割画像と第2の分割画像とに分割する分割ステップと、
前記第1の分割画像と前記第2の分割画像とを、前記一方の画像の両端側にそれぞれ合成する合成ステップと、
を含むことを特徴とする画像処理方法。
(付記13)
コンピュータを、
撮影タイミングが共通し、且つ、撮影方向が異なる2つの画像を取得する画像取得手段、
前記画像取得手段により取得された前記2つの画像のうちで、その撮影方向が一方の画像の撮影方向に対して所定の関係にある他方の画像を第1の分割画像と第2の分割画像とに分割する分割手段、
前記第1の分割画像と前記第2の分割画像とを、前記一方の画像の両端側にそれぞれ合成する合成手段、
として機能させることを特徴とするプログラム。
1 画像処理装置
100 画像処理装置
101 表示部
102 画像処理部
103 プログラムメモリ
104 無線通信部
105 制御部
106 操作部
107 画像メモリ
200a 第1の撮像装置
200b 第2の撮像装置
201 広角レンズ
202 撮像素子
203 画像処理部
204 プログラムメモリ
205 画像メモリ
206 制御部
207 操作部
208 センサモジュール
209 無線通信部
300 第2の撮像装置
M 移動体
VP 消失点
G1 第1の動画データ
G2 第2の動画データ
FG1,FG2,FG3,FG4 フレーム画像
FG2−L,FG2−R 分割画像
FG22−L,FG22−R 分割画像

Claims (8)

  1. 撮影タイミングが共通し、且つ、進行方向を撮影方向とした第1の画像と前記進行方向の逆方向を撮影方向とした第2の画像とを取得する画像取得手段と、
    前記画像取得手段により取得された前記第2の画像から動きベクトルを検出する検出手段と、
    前記検出手段によって検出された動きベクトルに基づいて、前記第2の画像の分割位置を決定し、前記画像取得手段により取得された前記第2の画像を決定した分割位置に基づいて第1の分割画像と第2の分割画像とに分割する分割手段と、
    前記第1の分割画像と前記第2の分割画像とを、前記第1の画像の両端側にそれぞれ合成する合成手段と、
    を備えたことを特徴とする画像処理装置。
  2. 前記分割手段は、前記第2の画像から前記検出手段によって検出された動きベクトルに基づいて、前記第2の画像の消失点を検出し、この検出された消失点が存在する位置を前記第2の画像の分割位置を決定することを特徴とする請求項1記載の画像処理装置。
  3. 前記画像取得手段によって取得された2つの画像は広角レンズにて撮影された画像であり、
    前記2つの画像を歪みのないパノラマ画像に補正する補正手段をさらに備え、
    前記分割手段は、前記補正手段による補正後の前記第2の画像を第1の分割画像と第2の分割画像とに分割する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記画像取得手段により取得された2つの画像は、動画像であり、
    前記分割手段は、前記進行方向の逆方向を撮影方向とした第2の画像のフレーム画像を第1の分割画像と第2の分割画像とに分割することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記画像取得手段により取得された2つの動画像を撮像した装置、もしくは、当該装置が設置された移動体の、撮影時における移動速度を示す速度情報を取得する速度情報取得手段を更に備え、
    前記合成手段は、前記速度情報取得手段により取得された速度情報により示される前記移動速度が所定の速度以上である時に撮像された動画像について、前記第1の分割画像と前記第2の分割画像とを、前記第1の画像である動画像の両端側にそれぞれ合成することを特徴とする
    請求項4記載の画像処理装置。
  6. 撮影タイミングが共通し、且つ、進行方向を撮影方向とした第1の画像と前記進行方向の逆方向を撮影方向とした第2の画像とを取得する画像取得手段と、
    前記第2の画像を鏡面変換する鏡面変換手段と、
    前記鏡面変換手段による鏡面変換後の第2の画像を第1の分割画像と第2の分割画像とに分割する分割手段と、
    前記第1の分割画像と前記第2の分割画像とを、前記第1の画像の両端側にそれぞれ合成する合成手段と
    を備えたことを特徴とする画像処理装置。
  7. 撮影タイミングが共通し、且つ、進行方向を撮影方向とした第1の画像と前記進行方向の逆方向を撮影方向とした第2の画像とを取得する画像取得ステップと、
    前記画像取得ステップにて取得された前記第2の画像から動きベクトルを検出する検出ステップと、
    前記検出ステップにて検出された動きベクトルに基づいて、前記第2の画像の分割位置を決定し、前記画像取得ステップにて取得された前記第2の画像を決定した分割位置に基づいて第1の分割画像と第2の分割画像とに分割する分割ステップと、
    前記第1の分割画像と前記第2の分割画像とを、前記第1の画像の両端側にそれぞれ合成する合成ステップと、
    を含むことを特徴とする画像処理方法。
  8. コンピュータを、
    撮影タイミングが共通し、且つ、進行方向を撮影方向とした第1の画像と前記進行方向の逆方向を撮影方向とした第2の画像とを取得する画像取得手段、
    前記画像取得手段により取得された前記第2の画像から動きベクトルを検出する検出手段、
    前記検出手段によって検出された動きベクトルに基づいて、前記第2の画像の分割位置を決定し、前記画像取得手段により取得された前記第2の画像を決定した分割位置に基づいて第1の分割画像と第2の分割画像とに分割する分割手段、
    前記第1の分割画像と前記第2の分割画像とを、前記第1の画像の両端側にそれぞれ合成する合成手段、
    として機能させることを特徴とするプログラム。
JP2016107130A 2016-05-30 2016-05-30 画像処理装置、画像処理方法、及びプログラム Active JP6674630B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016107130A JP6674630B2 (ja) 2016-05-30 2016-05-30 画像処理装置、画像処理方法、及びプログラム
US15/467,577 US10609306B2 (en) 2016-05-30 2017-03-23 Image processing apparatus, image processing method and storage medium
CN201710227086.5A CN107454307B (zh) 2016-05-30 2017-04-06 图像处理装置、图像处理方法以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016107130A JP6674630B2 (ja) 2016-05-30 2016-05-30 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2017216496A JP2017216496A (ja) 2017-12-07
JP2017216496A5 JP2017216496A5 (ja) 2018-12-27
JP6674630B2 true JP6674630B2 (ja) 2020-04-01

Family

ID=60418980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016107130A Active JP6674630B2 (ja) 2016-05-30 2016-05-30 画像処理装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US10609306B2 (ja)
JP (1) JP6674630B2 (ja)
CN (1) CN107454307B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10321037B2 (en) * 2016-10-27 2019-06-11 Raytheon Company Active pushbroom scanning system and method

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4703896B2 (ja) * 2001-06-27 2011-06-15 富士通テン株式会社 走行支援装置
JP4713033B2 (ja) * 2001-06-29 2011-06-29 本田技研工業株式会社 車両周辺環境表示装置
CN1985266B (zh) 2004-07-26 2010-05-05 奥普提克斯晶硅有限公司 全景视觉系统和方法
JP4762698B2 (ja) * 2005-11-30 2011-08-31 アルパイン株式会社 車両周辺画像表示装置
JP2008247277A (ja) * 2007-03-30 2008-10-16 Takata Corp 乗員拘束装置の制御方法及び乗員拘束装置
JP4325705B2 (ja) * 2007-06-15 2009-09-02 株式会社デンソー 表示システム及びプログラム
JP2009089910A (ja) * 2007-10-09 2009-04-30 Sharp Corp 撮像方向判別装置、撮像方向判別方法、撮像方向判別プログラム、及び撮像方向判別プログラムを記録したコンピュータ読み取り可能な記録媒体
CN101442618A (zh) * 2008-12-31 2009-05-27 葛晨阳 用于车辆辅助驾驶的360度环形视频合成方法
CN101521745B (zh) * 2009-04-14 2011-04-13 王广生 一组多镜头光心重合式全方位摄像装置及全景摄像、转播的方法
KR101219730B1 (ko) * 2010-10-29 2013-01-08 재단법인대구경북과학기술원 카메라를 이용한 운전 부주의 경보 방법 및 장치
WO2012086362A1 (ja) * 2010-12-22 2012-06-28 コニカミノルタホールディングス株式会社 画像処理装置、そのプログラム、および画像処理方法
US9930225B2 (en) * 2011-02-10 2018-03-27 Villmer Llc Omni-directional camera and related viewing software
JP5953824B2 (ja) * 2012-03-02 2016-07-20 日産自動車株式会社 車両用後方視界支援装置及び車両用後方視界支援方法
JP2014187610A (ja) * 2013-03-25 2014-10-02 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置
US10029621B2 (en) * 2013-05-16 2018-07-24 Ford Global Technologies, Llc Rear view camera system using rear view mirror location

Also Published As

Publication number Publication date
CN107454307B (zh) 2020-02-28
CN107454307A (zh) 2017-12-08
JP2017216496A (ja) 2017-12-07
US10609306B2 (en) 2020-03-31
US20170347024A1 (en) 2017-11-30

Similar Documents

Publication Publication Date Title
CN102739955B (zh) 能生成动态范围宽的全景图像的数据的摄像装置
JP5514959B2 (ja) パノラマ画像生成方法及び撮像装置
US20120105657A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
JP6754953B2 (ja) 撮像装置、電子機器及び撮像システム
JP5577931B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4759524B2 (ja) 電子式手振れ補正方法及びその装置並びに電子式手振れ補正プログラムと撮像装置
KR20090093817A (ko) 패닝화상을 촬상하기 위한 패닝모드를 구비한 촬상장치
JP7043219B2 (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP2015053741A (ja) 画像再生装置
JP2016105534A (ja) 撮像装置、及び撮像装置システム
JP5892060B2 (ja) 表示制御装置、表示制御システム、表示制御方法及びプログラム
JP6155471B2 (ja) 画像生成装置、撮像装置および画像生成方法
JP6312426B2 (ja) 撮像装置およびその制御方法
JP6674630B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US9438822B2 (en) Image processing device, display device, image processing method, and computer-readable recording medium
US10051203B2 (en) Composite image creating apparatus
JP2017085466A (ja) 撮像装置、及びその制御方法
JP6759039B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6762843B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2016036081A (ja) 画像処理装置、方法及びプログラム並びに記録媒体
JP5942844B2 (ja) 表示制御装置、表示制御システム、表示制御方法及びプログラム
JP5731087B1 (ja) 画像処理装置、表示装置、画像処理方法およびプログラム
JP6318547B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2019057885A (ja) 画像配置位置決定装置、画像処理装置、および画像処理方法
JP2006197312A (ja) ディジタルカメラ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200219

R150 Certificate of patent or registration of utility model

Ref document number: 6674630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150