JP6563694B2 - 画像処理装置、画像処理システム、画像合成装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理システム、画像合成装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6563694B2
JP6563694B2 JP2015110127A JP2015110127A JP6563694B2 JP 6563694 B2 JP6563694 B2 JP 6563694B2 JP 2015110127 A JP2015110127 A JP 2015110127A JP 2015110127 A JP2015110127 A JP 2015110127A JP 6563694 B2 JP6563694 B2 JP 6563694B2
Authority
JP
Japan
Prior art keywords
camera
image
vehicle
image processing
camera information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015110127A
Other languages
English (en)
Other versions
JP2016225805A (ja
Inventor
康嘉 澤田
康嘉 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015110127A priority Critical patent/JP6563694B2/ja
Publication of JP2016225805A publication Critical patent/JP2016225805A/ja
Application granted granted Critical
Publication of JP6563694B2 publication Critical patent/JP6563694B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に搭載されたカメラで得られた画像を処理する技術に関する。
従来より、自動車などの車両に搭載された複数のカメラで複数の撮影画像を取得し、これら複数の撮影画像を合成して仮想視点からみた車両の周辺を示す合成画像を生成する車載装置が知られている。このような合成画像を車両内で表示することで、車両のドライバは車両の周辺全体の様子を確認することができる。
また、車両で取得された複数の撮影画像を、車両に搭載された車載装置とは別の外部装置に送信し、この外部装置において合成画像を生成する技術も提案されている(例えば、特許文献1参照。)。
特開2013−191969号公報
上記のような車載装置とは別の外部装置において合成画像を生成する技術を応用し、車両から離れた位置にある外部装置(スマートフォンなど)が合成画像を生成して表示することが考えられる。これによれば、外部装置のユーザは、車両から離れた位置において車両の周辺全体の様子を確認することが可能となる。
ところで、合成画像を正しく生成するためには、合成画像の素材となる複数の撮影画像を取得した複数のカメラそれぞれの特質を示すカメラ情報が必要となる。このようなカメラ情報には、カメラ自体に関する特性パラメータ、及び、カメラの設置に関する設置パラメータ等が含まれる。正しいカメラ情報を用いずに合成画像を生成すると、生成される合成画像において、撮影画像同士の境界で被写体の像が分断されるなどの不具合が生じる。
このようなカメラ情報を、合成画像を生成する外部装置が予め記憶しておくことも考えられる。しかしながら、この場合は、合成画像の素材となる複数の撮影画像が取得された車両が変更されると、該複数の撮影画像を取得した複数のカメラと予め記憶したカメラ情報とが対応せず、合成画像を正しく生成することができなくなる。
本発明は、上記課題に鑑みてなされたものであり、複数の撮影画像を用いて合成画像を生成する場合に合成画像を正しく生成できる技術を提供することを目的とする。
上記課題を解決するため、請求項1の発明は、車両で用いられる画像処理装置であって、仮想視点からみた合成画像の生成に用いられる、前記車両に設けられた複数のカメラで得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを併せて他の通信装置に送信する送信手段と、を備え、前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む。
また、請求項2の発明は、請求項1に記載の画像処理装置において、前記複数の撮影画像を含む映像データの一部に、前記カメラ情報を付加する付加手段、をさらに備え、前記送信手段は、前記カメラ情報を含む前記映像データを送信する。
また、請求項3の発明は、請求項2に記載の画像処理装置において、前記付加手段は、前記複数の撮影画像に電子透かし技術を用いて前記カメラ情報を付加する。
また、請求項4の発明は、請求項2に記載の画像処理装置において、前記付加手段は、前記複数の撮影画像における前記合成画像の生成に用いない領域に、前記カメラ情報を付加する。
また、請求項5の発明は、請求項2ないし4のいずれかに記載の画像処理装置において、前記複数のカメラで得られた複数の撮影画像を一つの結合画像に結合する結合手段、をさらに備え、前記映像データは、前記結合画像を含み、前記付加手段は、前記結合画像に含まれる前記複数の撮影画像のそれぞれに、当該撮影画像を取得した前記カメラの前記カメラ情報を付加する。
また、請求項6の発明は、請求項2に記載の画像処理装置において、前記付加手段は、前記映像データの前記複数の撮影画像以外の部分に、前記カメラ情報を付加する。
また、請求項7の発明は、請求項2に記載の画像処理装置において、前記付加手段は、前記映像データのフレームの相互間に、前記カメラ情報を付加する。
また、請求項8の発明は、請求項7に記載の画像処理装置において、前記映像データは、前記複数のカメラそれぞれの撮影画像を順次に前記フレームとして直列的に含み、前記フレームそれぞれの前記撮影画像は、2次元圧縮された圧縮画像である。
また、請求項9の発明は、サーバ装置と車両で用いられる画像処理装置とを含む画像処理システムであって、前記画像処理装置は、仮想視点からみた合成画像の生成に用いられる、前記車両に設けられた複数のカメラで得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを併せて前記サーバ装置に送信する送信手段と、を備え、前記サーバ装置は、前記複数の撮影画像と前記カメラ情報とを併せて記憶する記憶手段、を備え、前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む。
また、請求項10の発明は、画像合成装置であって、車両に設けられた複数のカメラで得られた複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを含む映像データを受信する受信手段と、前記受信手段が受信した前記映像データに含まれる前記複数の撮影画像と前記カメラ情報とを用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する生成手段と、を備え、前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む。
また、請求項11の発明は、画像処理方法であって、(a)仮想視点からみた合成画像の生成に用いられる、車両に設けられた複数のカメラで得られた複数の撮影画像を取得する工程と、(b)前記複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを併せて他の通信装置に送信する工程と、を備え、前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む
また、請求項12の発明は、画像処理方法であって、(a)車両に設けられた複数のカメラで得られた複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを含む映像データを受信する工程と、(b)前記工程(a)で受信した前記映像データに含まれる前記複数の撮影画像と前記カメラ情報とを用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する工程と、を備え、前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む。
ている。
また、請求項13の発明は、コンピュータにより実行可能なプログラムであって、前記プログラムは、(a)仮想視点からみた合成画像の生成に用いられる、車両に設けられた複数のカメラで得られた複数の撮影画像を取得する工程と、(b)前記複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを併せて他の通信装置に送信する工程と、を前記コンピュータに実行させ、前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む
また、請求項14の発明は、コンピュータにより実行可能なプログラムであって、前記プログラムは、(a)車両に設けられた複数のカメラで得られた複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを含む映像データを受信する工程と、(b)前記工程(a)で受信した前記映像データに含まれる前記複数の撮影画像と前記カメラ情報とを用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する工程と、を前記コンピュータに実行させ、前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む。
請求項1から9、11及び13の発明によれば、複数の撮影画像とカメラ情報とを併せて送信することで、複数の撮影画像を用いて合成画像を生成する場合に合成画像を正しく生成することができる。
また、特に請求項2の発明によれば、映像データの一部にカメラ情報が付加されるため、複数の撮影画像とカメラ情報とを一体的に扱うことができ、カメラ情報の管理が容易となる。
また、特に請求項3の発明によれば、電子透かし技術を用いることで、撮影画像の内容に影響を与えることなく、映像データの一部にカメラ情報を付加することができる。
また、特に請求項4の発明によれば、合成画像の生成に用いない領域にカメラ情報を付加するため、合成画像の生成に影響を与えることなく映像データの一部にカメラ情報を付加することができる。
また、特に請求項5の発明によれば、結合画像に含まれる複数の撮影画像のそれぞれにカメラ情報が付加されるため、撮影画像と当該撮影画像を取得したカメラのカメラ情報との対応関係を明確にすることができる。
また、特に請求項6の発明によれば、複数の撮影画像以外の部分にカメラ情報を付加するため、撮影画像の内容に影響を与えることなく映像データの一部にカメラ情報を付加することができる。
また、特に請求項7の発明によれば、フレームの相互間にカメラ情報を付加するため、撮影画像の内容に影響を与えることなく映像データの一部にカメラ情報を付加することができる。
また、特に請求項8の発明によれば、映像データは複数のカメラそれぞれの撮影画像を順次にフレームとして直列的に含み、フレームそれぞれの撮影画像は2次元圧縮された圧縮画像であるため、映像データのデータ量を低減できる。
また、特に請求項9の発明によれば、複数の撮影画像とカメラ情報とを併せて記録することで、複数の撮影画像を用いて合成画像を生成する場合に合成画像を正しく生成することができる。
また、請求項10、12及び14の発明によれば、映像データに含まれる複数の撮影画像を用いて合成画像を生成する際に同一の映像データに含まれるカメラ情報を用いるため、正しいカメラ情報を容易に取得でき、合成画像を正しく生成することができる。
図1は、画像処理システムの概要を示す図である。 図2は、車載装置の構成を示す図である。 図3は、カメラが撮影する方向を示す図である。 図4は、サーバ装置の構成を示す図である。 図5は、可搬性装置の構成を示す図である。 図6は、車載装置が映像データを送信する処理の流れを示す図である。 図7は、結合画像を生成する手法を説明する図である。 図8は、カメラ情報が付加された結合画像を示す図である。 図9は、可搬性装置が合成画像を生成する処理の流れを示す図である。 図10は、合成画像を生成する手法を説明する図である。 図11は、撮影画像の一例を示す図である。 図12は、可搬性装置が合成画像を表示した様子を示す図である。 図13は、第2の実施の形態の撮影画像を示す図である。 図14は、第3の実施の形態の映像データのフレームを示す図である。 図15は、第4の実施の形態の映像データを示す図である。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.第1の実施の形態>
<1−1.システムの概要>
図1は、第1の実施の形態の画像処理システム100の概要を示す図である。画像処理システム100は、自動車などの車両9に搭載される車載装置1と、所定のデータセンタなどに設けられるサーバ装置2と、任意の位置で用いられる可搬性装置3とを備えている。可搬性装置3は、通常、車両9から離れた位置において用いられるが、車両9の内部において用いることも可能である。
車載装置1、サーバ装置2、及び、可搬性装置3はそれぞれ、無線または有線でインターネットなどのネットワーク8に接続し、ネットワーク8を介して他の装置と通信を行う通信機能を有している。これにより、車載装置1、サーバ装置2、及び、可搬性装置3は、相互にデータを送受信することが可能となっている。
車載装置1は、車両9に搭載された複数のカメラ5で得られた撮影画像を処理する画像処理装置である。車載装置1は、複数のカメラ5で得られた複数の撮影画像を取得し、取得した複数の撮影画像を含む映像データをネットワーク8を介してサーバ装置2に送信する。
サーバ装置2は、映像データを蓄積する蓄積装置である。サーバ装置2は、車載装置1からネットワーク8を介して映像データを受信し、受信した映像データを記憶する。これにより、サーバ装置2には、車載装置1で取得された映像データが蓄積される。
可搬性装置3は、複数の撮影画像を合成して、仮想視点からみた車両9の周辺を示す合成画像を生成する画像合成装置である。可搬性装置3は、サーバ装置2から映像データを取得し、取得した映像データに含まれる複数の撮影画像を用いて合成画像を生成し、生成した合成画像を表示する。
なお、図中では、一つの車両9のみを示しているが、画像処理システム100に関連して複数の車両9が存在してよい。複数の車両9にはそれぞれ、車載装置1が設けられる。また、図中では、一つの可搬性装置3のみを示しているが、画像処理システム100に関連して複数の可搬性装置3が存在してよい。各可搬性装置3は、画像処理システム100に係る複数の車両9のうちの一部と対応付けられる。一つの可搬性装置3が、複数の車両9と対応付けられる場合もある。
車載装置1は、例えば、車両9に係る異常を検出する機能を有している。車載装置1は、異常を検出した場合は、一定期間、複数の撮影画像を時間的に連続して取得する。そして、車載装置1は、取得した複数の撮影画像を含む映像データをサーバ装置2に送信する。
サーバ装置2は、車載装置1から映像データを受信すると、受信した映像データを内部に記憶する。これとともに、サーバ装置2は、車両9に異常が発生した旨を示す異常通知を、当該車両9に対応付けられた可搬性装置3に送信する。
異常通知を受信した可搬性装置3は、サーバ装置2から映像データを取得する。可搬性装置3は、取得した映像データに含まれる複数の撮影画像を合成して、合成画像を生成して表示する。これにより、可搬性装置3のユーザは、車両9から離れた位置において、異常の発生時における車両9の周辺の様子を確認できるようになっている。以下、このような画像処理システム100について詳細に説明する。
<1−2.車載装置の構成>
まず、車載装置1の構成について説明する。図2は、主に車載装置1の構成を示す図である。車載装置1は、前述した車両9に設けられる複数のカメラ5と接続されている。
複数のカメラ5はそれぞれ、レンズと撮像素子とを備えており、車両9の周辺を撮影して撮影画像を取得する。各カメラ5は、車両9の周辺を示す撮影画像を電子的に取得し、取得した撮影画像を車載装置1に入力する。複数のカメラ5は、フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rを含んでいる。これら4つのカメラ5F,5B,5L,5Rは、車両9において互いに異なる位置に配置され、車両9の周辺の異なる方向を撮影する。
図3は、4つのカメラ5がそれぞれ撮影する方向を示す図である。フロントカメラ5Fは、車両9の前端に設けられ、その光軸5Faは車両9の前後方向に沿って前方に向けられる。リアカメラ5Bは、車両9の後端に設けられ、その光軸5Baは車両9の前後方向に沿って後方に向けられる。左サイドカメラ5Lは、左側のサイドミラー93Lに設けられ、その光軸5Laは車両9の左右方向に沿って左方に向けられる。また、右サイドカメラ5Rは、右側のサイドミラー93Rに設けられ、その光軸5Raは車両9の左右方向に沿って右方に向けられる。
これらのカメラ5のレンズには魚眼レンズが採用され、各カメラ5は180度以上の画角θを有している。このため、4つのカメラ5を利用することで、車両9の全周囲を撮影することが可能となっている。
図2に戻り、車載装置1は、これら4つのカメラ5で得られた撮影画像を処理する処理部として、画像取得部12、画像処理部13及びデータ通信部14を備えている。
画像取得部12は、4つのカメラ5で得られた4つの撮影画像を取得する。画像取得部12は、4つのカメラ5のそれぞれから撮影画像を取得する。画像取得部12は、取得した撮影画像を画像処理部13に入力する。
画像処理部13は、4つのカメラ5で得られた4つの撮影画像の全ての内容を含む結合画像を生成する。画像処理部13は、画像取得部12が取得した4つの撮影画像を一つに結合して結合画像を生成する。画像処理部13は、一つのフレームに一つの結合画像を含む映像データを生成する。
データ通信部14は、ネットワーク8を介して他の通信装置と通信する。データ通信部14は、例えば、3GやLTEなどの規格に準拠した無線通信機能を有している。これにより、データ通信部14は、サーバ装置2及び可搬性装置3とデータの送受信が可能である。データ通信部14は、画像処理部13が生成した映像データをサーバ装置2に送信する。
また、車載装置1は、操作部15、異常検出部16、記憶部17、及び、制御部11を備えている。
操作部15は、ユーザの操作を受け付ける部材であり、例えば、タッチパネル及び操作ボタンなどである。ユーザが操作部15を操作した場合は、その操作内容を示す信号が制御部11に入力される。
異常検出部16は、車両9に係る異常を検出する。異常検出部16は、例えば、加速度センサを備えており、車両9の車体に所定以上の加速度が生じた場合に車両9に異常が生じたと判断する。これにより、例えば、車両9の盗難や車両9への侵入等を試みようとする人物が車両9に振動を与えた場合などに、異常検出部16は異常を検出する。なお、異常検出部16は、カメラ5で得られた撮影画像を利用するなど他の手法によって車両9に係る異常を検出するものであってもよい。
記憶部17は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部17は、カメラ情報51及びプログラム17aを記憶している。プログラム17aは、記録媒体からの読み出し、あるいは、ネットワーク8を介したダウンロードなどにより取得される。
カメラ情報51は、車両9に設けられるカメラ5の特質を示している。カメラ情報51は、ディストーション特性(歪曲収差特性)などのカメラ5自体に関する特性パラメータ、並びに、パン角、チルト角、ロール角及び光軸の向きなどのカメラ5の設置に関する設置パラメータ等を含む。カメラ情報51は、4つのカメラ5のそれぞれに関して個別に導出されて記憶されている。このようなカメラ情報51は、カメラ5の設置時においてキャリブレーション処理を行うことで導出される。
また、制御部11は、CPU、RAM及びROMなどを備え、車載装置1の全体を統括的に制御するマイクロコンピュータである。制御部11が記憶部17に記憶されたプログラム17aを実行する(プログラム17aに従った演算処理を行う)ことにより、制御部11の各種機能が実現される。図2に示す画像制御部11a及び情報付加部11bは、プログラム17aの実行により実現される機能である。
画像制御部11aは、画像取得部12、画像処理部13及びデータ通信部14の処理を制御する。画像制御部11aの制御により、画像処理部13は結合画像を生成し、データ通信部14は映像データをサーバ装置2に送信する。
情報付加部11bは、画像処理部13が生成した映像データの一部に、記憶部17が記憶するカメラ情報51を付加する。情報付加部11bは、映像データに含まれる撮影画像の内容に影響を与えることがないように、映像データの一部にカメラ情報を付加する(詳細は後述。)。
<1−3.サーバ装置の構成>
次に、サーバ装置2の構成について説明する。図4は、サーバ装置2の構成を示す図である。サーバ装置2は、制御部21と、データ通信部22と、記憶部23とを備えている。
データ通信部22は、ネットワーク8を介して他の通信装置と通信する。データ通信部22は、通信ケーブル等を介してネットワーク8に接続される。これにより、データ通信部22は、車載装置1及び可搬性装置3とデータの送受信が可能である。
記憶部23は、例えば、ハードディスクなどの不揮発性の記憶装置であり、各種の情報を記憶する。記憶部23は、プログラム23aを記憶している。プログラム23aは、ネットワーク8を介したダウンロードなどにより取得される。
また、制御部21は、CPU、RAM及びROMなどを備えたコンピュータである。制御部21が記憶部23に記憶されたプログラム23aを実行する(プログラム23aに従った演算処理を行う)ことにより、制御部21の各種機能が実現される。図4に示すデータ管理部21a及び異常通知部21bは、プログラム23aの実行により実現される機能である。
データ管理部21aは、映像データを管理する処理を行う。データ管理部21aは、車載装置1からデータ通信部22が受信した映像データを記憶部23に記憶させる。これにより、記憶部23には、複数の映像データ70が蓄積される。また、データ管理部21aは、可搬性装置3が送信する要求信号に応答し、データ通信部22を利用して記憶部23に記憶された映像データ70の一部を可搬性装置3に送信する。
また、異常通知部21bは、車両9に異常が発生した旨を示す異常通知を可搬性装置3に送信する。異常通知部21bは、車載装置1からデータ通信部22が映像データを受信した場合に、データ通信部22を利用して異常通知を可搬性装置3に送信する。
<1−4.可搬性装置の構成>
次に、可搬性装置3の構成について説明する。図5は、可搬性装置3の構成を示す図である。可搬性装置3は、制御部31と、マイク32と、スピーカ33と、音声通信部34と、操作部35と、ディスプレイ36と、データ通信部37と、記憶部38とを備えている。
マイク32は、周辺の音を電気信号に変換する。マイク32は、例えば、通話中のユーザが発した音声を電気信号に変換する。スピーカ33は、電気信号に基づいて各種の音を出力する。スピーカ33は、例えば、通話相手が発した音声を出力する。音声通信部34は、通話にかかる音声の電気信号を、基地局との間で送受信する。これらマイク32、スピーカ33及び音声通信部34により、可搬性装置3の通話機能が実現される。
操作部35は、ユーザの操作を受け付ける操作部材であり、例えば、タッチパネル及び操作ボタンなどである。ユーザが操作部35を操作した場合は、その操作内容を示す信号が制御部31に入力される。
ディスプレイ36は、例えば、液晶パネルを備えており各種の画像を表示する。操作部35のタッチパネルは、ディスプレイ36の画面に重ねて配置される。
データ通信部37は、ネットワーク8を介して他の通信装置と通信する。データ通信部37は、例えば、3GやLTEなどの規格に準拠した無線通信機能を有している。これにより、データ通信部37は、車載装置1及びサーバ装置2とデータの送受信が可能である。
記憶部38は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部38は、プログラム38aを記憶している。プログラム38aは、例えば、アプリケーションとして提供され、ネットワーク8を介したダウンロードなどにより取得される。
また、制御部31は、CPU、RAM及びROMなどを備え、可搬性装置3の全体を統括的に制御するマイクロコンピュータである。制御部31が記憶部38に記憶されたプログラム38aを実行する(プログラム38aに従った演算処理を行う)ことにより、制御部31の各種機能が実現される。図5に示すデータ取得部31a及び合成画像生成部31bは、プログラム38aの実行により実現される機能である。
データ取得部31aは、サーバ装置2から映像データを取得する。データ取得部31aは、データ通信部37を利用して、映像データを要求する要求信号をサーバ装置2に送信し、該要求信号に応答してサーバ装置2から送信される映像データを取得する。
合成画像生成部31bは、仮想視点からみた車両9の周辺を示す合成画像を生成する。合成画像生成部31bは、データ取得部31aが取得した映像データに含まれる4つの撮影画像を用いて合成画像を生成する。
<1−5.映像データの送信>
次に、画像処理システム100の処理について説明する。画像処理システム100の処理は、車載装置1が映像データを送信する処理と、可搬性装置3が映像データを用いて合成画像を生成する処理とに大別される。
まず、車載装置1が映像データを送信する処理について説明する。図6は、この処理の流れを示す図である。図6の左側は車載装置1の処理の流れを示し、図6の右側はサーバ装置2の処理の流れを示している。図6に示す処理は、車載装置1の異常検出部16が車両9に係る異常を検出した場合に実行される。
まず、車載装置1の画像取得部12が、4つのカメラ5で得られる4つの撮影画像を取得する(ステップS11)。図7に示すように、車両9の4つのカメラ5F,5B,5L,5Rのそれぞれにおいて車両9の周辺が撮影されると、車両9の前方、後方、左方及び右方をそれぞれ示す4つの撮影画像7F,7B,7L,7Rが取得される。これら4つの撮影画像7F,7B,7L,7Rには、車両9の全周囲の様子を示す情報が含まれている。画像取得部12は、4つのカメラ5F,5B,5L,5Rから、このような4つの撮影画像7F,7B,7L,7Rを取得する。
次に、画像処理部13が、画像取得部12が取得した4つの撮影画像7F,7B,7L,7Rを一つに結合して結合画像71を生成する(ステップS12)。図7に示すように、結合画像71は、4つの撮影画像7F,7B,7L,7Rを、横2×縦2に配列して含んでいる。したがって、一つの結合画像71には、車両9の全周囲の様子を示す情報が含まれている。そして、画像処理部13は、生成した結合画像71を用いて映像データを生成する。映像データは、一つの結合画像71を一つのフレームとして含む。
次に、情報付加部11bが、画像処理部13が生成した映像データに、記憶部17に記憶されたカメラ情報51を付加する(ステップS13)。情報付加部11bは、映像データに含まれる結合画像71にカメラ情報を付加する。
図8は、カメラ情報51が付加された結合画像71を示す図である。情報付加部11bは、結合画像71に含まれる4つの撮影画像7F,7B,7L,7Rのそれぞれに、当該撮影画像を取得したカメラ5のカメラ情報51を付加する。
情報付加部11bは、フロントカメラ5Fが取得した撮影画像7Fに、フロントカメラ5Fのカメラ情報51Fを付加する。また、情報付加部11bは、リアカメラ5Bが取得した撮影画像7Bに、リアカメラ5Bのカメラ情報51Bを付加する。さらに、情報付加部11bは、左サイドカメラ5Lが取得した撮影画像7Lに左サイドカメラ5Lのカメラ情報51Lを付加し、右サイドカメラ5Rが取得した撮影画像7Rに右サイドカメラ5Rのカメラ情報51Rを付加する。これにより、撮影画像と、当該撮影画像を取得したカメラ5の特質を示すカメラ情報51とが対応付けられる。
情報付加部11bは、デジタルコンテンツに他の情報を隠して埋め込む技術である電子透かし技術を用いて、撮影画像にカメラ情報51を付加する。これにより、情報付加部11bは、撮影画像の内容にほぼ影響を与えること無く、撮影画像にカメラ情報51を付加することができる。電子透かし技術としては、周知の技術を用いることができ、例えば、スペクトル拡散法、パッチワーク法及び量子化法など、加工に対して高い耐性を有するロバスト電子透かし技術(rubust watermark)を用いることが望ましい。ロバスト電子透かし技術を用いることで、映像データにMPEGなどの非可逆圧縮を行ったとしても、撮影画像に埋め込んだカメラ情報51の抽出が可能となる。
このようなステップS11〜S13の処理は、異常検出部16が異常を検出した時点から一定期間(例えば、5分間)が経過するまで(図6のステップS14にてNo)、所定の周期(例えば、1/30秒周期)で繰り返される。これにより、異常の発生時における一定期間の車両9の全周囲の様子を示す映像データが生成される。この映像データは、所定の周期で生成された複数の結合画像71をそれぞれフレームとして含んでいる。映像データに含まれる複数の結合画像71のそれぞれには、カメラ情報51が付加されている。生成された映像データは、MPEGなどの所定の圧縮方式で圧縮されることが望ましい。
異常検出部16が異常を検出した時点から一定期間が経過すると(ステップS14にてYes)、生成された映像データを、データ通信部14がサーバ装置2へ送信する(ステップS15)。これにより、データ通信部14は、4つのカメラ5で得られた4つの撮影画像と、4つのカメラ5のカメラ情報51とを併せてサーバ装置2に送信することになる。
サーバ装置2のデータ通信部22は、車載装置1から送信された映像データを受信する(ステップS21)。
データ通信部22が映像データを受信すると、データ管理部21aが、受信した映像データを記憶部23に記憶させる(ステップS22)。これにより、記憶部23は、4つのカメラ5で得られた4つの撮影画像と、4つのカメラ5のカメラ情報51とを併せて記憶することになる。データ管理部21aは、受信した映像データを、当該映像データを送信した車載装置1の車両9の識別情報、及び、異常の発生時刻を示す時刻情報などと関連付けて記憶部23に記憶させる。
次に、異常通知部21bが、データ通信部22を利用して、車両9に異常が発生した旨を示す異常通知を可搬性装置3に送信する(ステップS23)。異常通知部21bは、受信した映像データを送信した車載装置1の車両9に対応付けられた可搬性装置3を特定し、該可搬性装置3に対して異常通知を送信する。この異常通知は、可搬性装置3において受信され、可搬性装置3のディスプレイ36に表示される。
<1−6.合成画像の生成>
次に、可搬性装置3が映像データを用いて合成画像を生成する処理について説明する。図9は、この処理の流れを示す図である。図9の左側はサーバ装置2の処理の流れを示し、図9の右側は可搬性装置3の処理の流れを示している。図9に示す処理は、可搬性装置3のユーザが、ディスプレイ36に表示された異常通知の確認後に、可搬性装置3の操作部35に対して所定の操作を行った場合に実行される。
まず、可搬性装置3のデータ取得部31aが、データ通信部37を利用して、映像データを要求する要求信号をサーバ装置2に送信する(ステップS31)。要求信号には、車両9の識別情報及び時刻情報など、要求する映像データを特定する情報が含まれる。
サーバ装置2のデータ通信部22は、可搬性装置3から送信された要求信号を受信する(ステップS41)。
データ通信部22が要求信号を受信すると、この要求信号に応答してデータ管理部21aが映像データを可搬性装置3に送信する(ステップS42)。データ管理部21aは、要求信号に含まれる情報に基づいて、記憶部23に記憶された映像データのうちから要求信号が要求する映像データを選択する。データ管理部21aは、選択した映像データを、データ通信部22を利用して可搬性装置3に送信する。
可搬性装置3のデータ通信部37は、サーバ装置2から送信された映像データを受信する(ステップS32)。
データ通信部37が映像データを受信すると、合成画像生成部31bは、受信した映像データを用いて仮想視点からみた車両9の周辺を示す合成画像を生成する(ステップS33)。合成画像生成部31bは、映像データにフレームとして含まれる結合画像71から合成画像を生成する。合成画像生成部31bは、一つの結合画像71に含まれる4つの撮影画像と、4つのカメラ5のカメラ情報51とを用いて一つの合成画像を生成する。
図10は、合成画像生成部31bが、結合画像71から合成画像を生成する手法を説明する図である。合成画像生成部31bは、合成画像の生成に仮想の立体的な曲面である投影面TSを用いることで、現実に近い臨場感のある合成画像を生成する。
前述のように、結合画像71には、車両9の前方、後方、左方及び右方をそれぞれ示す4つの撮影画像7F,7B,7L,7Rが含まれている。合成画像生成部31bは、これら4つの撮影画像7F,7B,7L,7Rのデータ(画素の値)を、仮想的な三次元空間における投影面TSに投影する。
投影面TSは、例えば、略半球状(お椀形状)をしており、その中心領域(お椀の底部分)は車両9の位置として定められている。また、投影面TSにおける車両9の位置の外側は、車両9の周辺の領域に相当する。合成画像生成部31bは、投影面TSにおける車両9の位置の外側に、4つの撮影画像7F,7B,7L,7Rのデータを投影する。
合成画像生成部31bは、投影面TSにおいて車両9の前方に相当する部分に、フロントカメラ5Fの撮影画像7Fのデータを投影する。また、合成画像生成部31bは、投影面TSにおいて車両9の後方に相当する部分に、リアカメラ5Bの撮影画像7Bのデータを投影する。さらに、合成画像生成部31bは、投影面TSにおいて車両9の左方に相当する部分に左サイドカメラ5Lの撮影画像7Lのデータを投影し、投影面TSにおいて車両9の右方に相当する部分に右サイドカメラ5Rの撮影画像7Rのデータを投影する。
このように投影面TSに撮影画像7F,7B,7L,7Rのデータを投影すると、次に、合成画像生成部31bは、車両9の三次元形状を示すポリゴンのモデルを仮想的に構成する。この車両9のモデルは、仮想的な三次元空間における車両9の位置である投影面TSの中心領域に配置される。
次に、合成画像生成部31bは、三次元空間に対して仮想視点VPを設定する。この仮想視点VPは、位置と視線の向きとで規定される。合成画像生成部31bは、任意の位置、かつ、任意の視線の向きの仮想視点VPを3次元空間に設定できる。通常、位置を車両9の直上とし視線を下方に向けた仮想視点VPが設定されるが、ユーザの操作等に応じて任意の位置及び視線の向きの仮想視点VPが設定されてよい。
次に、合成画像生成部31bは、設定した仮想視点VPに応じた投影面TSの一部の領域を用いて合成画像CPを生成する。すなわち、合成画像生成部31bは、投影面TSのうち仮想視点VPからみて所定の視野角に含まれる領域のデータを画像として切り出す。切り出した画像は、車両9の周辺に存在する被写体の像を含んでいる。
これとともに、合成画像生成部31bは、設定した仮想視点VPに応じて車両9のモデルに関してレンダリングを行い、その結果となる二次元の車両像90を、切り出した画像に対して重畳する。車両像90は、仮想視点VPからみた車両9の車体の形状を示す。これにより、合成画像生成部31bは、仮想視点VPからみた車両9の周辺と車両9の車体とを示す合成画像CPを生成する。
例えば、図10に示すように、位置を車両9の直上とし視線を下方に向けた仮想視点VPaを設定した場合には、車両9の周辺と車両9の車体とを俯瞰する合成画像(俯瞰画像)CPaを生成できる。また、位置を車両9の左後方とし視線を車両9の中心に向けた仮想視点VPbを設定した場合には、車両9の左後方からみた車両9の周辺と車両9の車体とを示す合成画像CPbを生成できる。
このような合成画像CPの生成において投影面TSに撮影画像のデータを投影する場合に、合成画像生成部31bは、当撮影画像を取得したカメラ5のカメラ情報51を用いる。
図11は、合成画像CPの生成に用いられる撮影画像7の一例を示す図である。カメラ5のレンズは魚眼レンズであるため、図に示すように、撮影画像7に含まれる被写体の像は歪んでいる。このような被写体の像の歪みは、撮影画像7を取得したカメラ5のディストーションに主に起因する。このため、合成画像生成部31bは、撮影画像7に含まれる被写体の像の歪みを、撮影画像7を取得したカメラ5のカメラ情報51に含まれる特性パラメータ(ディストーション特性)を用いて補正する。合成画像生成部31bは、投影面TSへの投影前に被写体の像の歪みを補正する。
また、撮影画像7において、投影面TSに投影すべきデータを含む領域は、当該撮影画像7を取得したカメラ5の設置上の誤差に応じて変化する。このため、合成画像生成部31bは、撮影画像7を取得したカメラ5のカメラ情報51に含まれる設置パラメータ(パン角、チルト角及びロール角等)を用いて、撮影画像7における投影面TSに投影する領域を修正する。
仮に図11に示す撮影画像7を取得したカメラ5に関して設置上の誤差がないとした場合は、投影面TSに投影すべきデータを含む領域はデフォルトの領域R1となる。通常はカメラ5には設置上の誤差が存在することから、合成画像生成部31bは、当該カメラ5のカメラ情報51に含まれる設置パラメータに基づいて、投影面TSに投影する領域を領域R1から領域R2に修正する。そして、合成画像生成部31bは、この領域R2に含まれるデータを投影面TSに投影する。
このように、合成画像生成部31bは、合成画像CPを生成する際に、撮影画像7を取得したカメラ5のカメラ情報51を用いることで、合成画像CPを正しく生成することができる。
前述のように結合画像71に含まれる4つの撮影画像のそれぞれには、当該撮影画像を取得したカメラ5のカメラ情報51が付加されている(図8参照。)。このため、撮影画像と、撮影画像を取得したカメラ5のカメラ情報51との対応関係が明確であるため、合成画像生成部31bは用いるべきカメラ情報51を容易に取得できる。合成画像生成部31bは、撮影画像に埋め込まれたカメラ情報51に用いられた電子透かし技術を用いて抽出することで、カメラ情報51を取得できる。
合成画像生成部31bは、このようにして合成画像CPを生成すると、生成した合成画像CPをディスプレイ36に出力する。これにより、図12に示すように、可搬性装置3のディスプレイ36において合成画像CPが表示される(ステップS34)。
このようなステップS33,S34の処理は、映像データに含まれる全てのフレーム(結合画像71)に関して行われる(ステップS35)。その結果、時間的に連続して生成された複数の合成画像CPからなる動画がディスプレイ36において表示される。これにより、可搬性装置3のユーザは、車両9から離れた位置において、異常の発生時における仮想視点からみた車両9の周辺の様子を確認できることになる。
以上のように、本実施の形態の車載装置1においては、画像取得部12が、仮想視点からみた合成画像CPの生成に用いられる、車両9に設けられた複数のカメラ5で得られた複数の撮影画像を取得する。そして、データ通信部14は、複数の撮影画像と、複数のカメラ5それぞれの特質を示すカメラ情報51とを併せてサーバ装置2に送信する。このように、複数の撮影画像とカメラ情報51とを併せて送信することで、可搬性装置3は複数の撮影画像とカメラ情報51とを併せて取得でき、合成画像CPを正しく生成することができる。このため、複数の撮影画像が取得された車両9が変更された場合であっても、可搬性装置3は合成画像CPを正しく生成することができる。
また、情報付加部11bは、複数の撮影画像を含む映像データの一部にカメラ情報51を付加する。そして、データ通信部14は、複数の撮影画像とカメラ情報51とを含む映像データを送信する。映像データの一部にカメラ情報51が付加されるため、複数の撮影画像とカメラ情報51とを一体的に扱うことができ、カメラ情報51の管理が容易となる。
また、情報付加部11bは、映像データに含まれる複数の撮影画像に電子透かし技術を用いてカメラ情報51を付加する。このため、撮影画像の内容に影響を与えることなく、映像データの一部にカメラ情報51を付加することができる。
また、画像処理部13は、複数のカメラ5で得られた複数の撮影画像を一つの結合画像71に結合する。情報付加部11bは、結合画像71に含まれる複数の撮影画像のそれぞれに、当該撮影画像を取得したカメラ5のカメラ情報51を付加する。このため、撮影画像と当該撮影画像を取得したカメラ5のカメラ情報51との対応関係を明確にすることができる。
また、サーバ装置2においては、記憶部23が、映像データを記憶することで、複数のカメラ5で得られた複数の撮影画像と、複数のカメラ5のカメラ情報51とを併せて記憶する。このため、複数の撮影画像を用いて合成画像CPを生成する場合に合成画像CPを正しく生成することができる。
また、可搬性装置3においては、データ通信部37が、車両9に設けられた複数のカメラ5で得られた複数の撮影画像と、複数のカメラ5それぞれの特質を示すカメラ情報51とを含む映像データを受信する。そして、合成画像生成部31bは、データ通信部37が受信した映像データに含まれる複数の撮影画像とカメラ情報51とを用いて、仮想視点からみた車両9の周辺を示す合成画像を生成する。合成画像生成部31bは、映像データに含まれる複数の撮影画像を用いて合成画像を生成する際に、同一の映像データに含まれるカメラ情報51を用いるため、正しいカメラ情報を容易に取得できる。その結果、合成画像を正しく生成することができる。
<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態の画像処理システム100の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
第1の実施の形態では、映像データに含まれる撮影画像においてカメラ情報51を付加する領域は特定されなかった。これに対して、第2の実施の形態では、情報付加部11bは、映像データに含まれる撮影画像における特定の領域にカメラ情報51を付加するようになっている。
図13は、本実施の形態の映像データに含まれる撮影画像7の一例を示す図である。図に示すように、撮影画像7には、車両9の周辺の地表に存在する被写体の像とともに、空(地表より上部に広がる空間)の像、あるいは、車両9の車体の像などが含まれている。
合成画像生成部31bは、合成画像CPを生成する際には、撮影画像7のうち、車両9の周辺の地表に存在する被写体の像が含まれる中央領域Rを用いる。これに対して、合成画像生成部31bは、撮影画像7のうち、中央領域Rより外側となる、空の像、あるいは、車両9の車体の像などが含まれる領域は、合成画像CPの生成に用いない。
このため、本実施の形態の情報付加部11bは、図13に示すように、撮影画像7における合成画像CPの生成に用いない領域(中央領域Rより外側の領域)に対して、カメラ情報51を付加する。これにより、合成画像CPの生成に影響を与えることなく、映像データの一部にカメラ情報51を付加することができる。なお、本実施の形態では、カメラ情報51を付加する際に合成画像CPの生成に用いる中央領域Rの改変を行わないため、電子透かし技術を用いずに撮影画像7にカメラ情報51を付加してもよい。
<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態の画像処理システム100の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
第1の実施の形態では、映像データに含まれる複数の撮影画像それぞれに対してカメラ情報51を付加していた。これに対して、第3の実施の形態では、情報付加部11bは、映像データに含まれる複数の撮影画像以外の部分に、カメラ情報51を付加するようになっている。
図14は、本実施の形態の映像データの一つのフレーム72を示す図である。本実施の形態の映像データは、例えば、フルハイビジョン(Full HD)規格に準拠しており、各フレーム72のサイズは横1920画素×縦1080画素となっている。
一方、撮影画像7F,7B,7L,7Rはそれぞれ、例えば、VGAの画像データであり、そのサイズは横640画素×縦480画素となっている。したがって、これら4つの撮影画像7F,7B,7L,7Rを結合した結合画像71のサイズは、横1280画素×縦960画素となる。その結果、映像データのフレーム72においては、結合画像71の外側に画像データが存在しない領域がある。
このため、本実施の形態の情報付加部11bは、図14に示すように、映像データのフレーム72における結合画像71の外側の領域に対して、カメラ情報51を付加する。これにより、撮影画像の内容に影響を与えることなく、映像データの一部にカメラ情報51を付加することができる。なお、本実施の形態では、撮影画像にカメラ情報を付加しないため、カメラ情報に撮影画像の識別情報を含めるなどにより撮影画像とカメラ情報との対応関係を明確にすることが望ましい。
<4.第4の実施の形態>
次に、第4の実施の形態について説明する。第4の実施の形態の画像処理システム100の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
第1の実施の形態では、映像データの一つのフレームは4つの撮影画像を結合した一つの結合画像71を含んでいた。これに対して、第4の実施の形態では、通信速度が比較的低速であっても映像データを送信できるように、映像データの一つのフレームは一つの撮影画像のみを含んでいる。
図15は、第4の実施の形態の映像データを示す図である。図に示すように、第4の実施の形態の映像データは、4つのカメラ5F,5B,5L,5Rそれぞれの撮影画像7F,7B,7L,7Rを、順次にフレームとして直列的に含んでいる。具体的には、映像データは、フロントカメラ5Fの撮影画像7F、リアカメラ5Bの撮影画像7B、左サイドカメラ5Lの撮影画像7L、及び、右サイドカメラ5Rの撮影画像7Rを、それぞれフレームとして順次に含んでいる。
映像データは、例えば、Motion−JPEG形式となっており、映像データのフレームそれぞれの撮影画像はJPEG方式で2次元圧縮された圧縮画像となっている。本実施の形態の映像データでは隣接するフレームの相互間での被写体が異なるため、映像データに対して時間軸方向を含めた圧縮(3次元圧縮)を行うことは難しい。しかし、このように映像データのフレームそれぞれの撮影画像を2次元圧縮した圧縮画像とすることで、映像データのデータ量を有効に低減できる。
また、本実施の形態の情報付加部11bは、図15に示すように、映像データのフレームの相互間にカメラ情報51を付加する。情報付加部11bは、フロントカメラ5Fの撮影画像7Fの後に、フロントカメラ5Fのカメラ情報51Fを付加する。また、情報付加部11bは、リアカメラ5Bの撮影画像7Bの後にリアカメラ5Bのカメラ情報51Bを付加する。さらに、情報付加部11bは、左サイドカメラ5Lの撮影画像7Lの後に左サイドカメラ5Lのカメラ情報51Lを付加し、右サイドカメラ5Rの撮影画像7Rの後に右サイドカメラ5Rのカメラ情報51Rを付加する。このように、情報付加部11bが、映像データのフレームの相互間にカメラ情報51を付加するため、撮影画像の内容に影響を与えることなく映像データの一部にカメラ情報51を付加することができる。
本実施の形態の可搬性装置3は、受信した映像データの連続する4つのフレームに含まれる4つの撮影画像7F,7B,7L,7Rを用いて一つの合成画像CPを生成すればよい。
なお、上記では、映像データのフレームそれぞれの撮影画像はJPEG方式で2次元圧縮されると説明したが、GIF方式、PNG方式などの他の方式で2次元圧縮してもよい。また、上記では、情報付加部11bは、映像データのフレームの相互間にカメラ情報51を付加していたが、フレームの撮影画像に対してカメラ情報51を付加してもよい。この場合においても、上記第1ないし第3の実施の形態において説明した技術と同様の技術を採用することで、合成画像CPの生成に影響を与えることなくカメラ情報51を付加することができる。
<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
上記実施の形態では、映像データは、車載装置1からサーバ装置2を経由して可搬性装置3に送信されていたが、車載装置1から可搬性装置3に直接的に送信されてもよい。また、この場合は、ストリーミング技術などを利用して映像データを送信することで、車載装置1が取得した撮影画像(結合画像)が、ほぼリアルタイムに可搬性装置3に送信されるようにしてもよい。可搬性装置3が受信した撮影画像を用いて合成画像を表示するようにすれば、可搬性装置3のユーザは車両9から離れた位置において車両9の周辺の様子をほぼリアルタイムに確認できる。また、Bluetooth(登録商標)やWiFi(登録商標)などの規格に準拠した比較的近距離での無線通信技術を利用して、車載装置1から可搬性装置3に映像データを送信してもよい。
また、上記実施の形態では、合成画像を生成する画像合成装置は可搬性装置3であるとして説明を行ったが、一般的なパーソナルコンピュータなど可搬性の装置でなくてもよい。
また、上記実施の形態では、車載装置1は、映像データを車両9の外部の装置に送信していたが、ナビゲーション装置など、車両9の内部に設けられた他の装置に送信するものであってもよい。
また、上記実施の形態において一つのブロックとして説明した機能は必ずしも単一の物理的要素によって実現される必要はなく、分散した物理的要素によって実現されてよい。また、上記実施の形態で複数のブロックとして説明した機能は単一の物理的要素によって実現されてもよい。また、車両内の装置と車両外の装置とに任意の一つの機能に係る処理を分担させ、これら装置間において通信によって情報の交換を行うことで、全体として当該一つの機能が実現されてもよい。
また、上記実施の形態においてプログラムの実行によってソフトウェア的に実現されると説明した機能の全部又は一部は電気的なハードウェア回路により実現されてもよく、ハードウェア回路によって実現されると説明した機能の全部又は一部はソフトウェア的に実現されてもよい。また、上記実施の形態において一つのブロックとして説明した機能が、ソフトウェアとハードウェアとの協働によって実現されてもよい。
1 車載装置
2 サーバ装置
3 可搬性装置
5 カメラ
7 撮影画像
11a 情報付加部
31b 合成画像生成部
36 ディスプレイ
51 カメラ情報
71 結合画像

Claims (14)

  1. 車両で用いられる画像処理装置であって、
    仮想視点からみた合成画像の生成に用いられる、前記車両に設けられた複数のカメラで得られた複数の撮影画像を取得する取得手段と、
    前記複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを併せて他の通信装置に送信する送信手段と、
    を備え
    前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む
    ことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記複数の撮影画像を含む映像データの一部に、前記カメラ情報を付加する付加手段、
    をさらに備え、
    前記送信手段は、前記カメラ情報を含む前記映像データを送信することを特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置において、
    前記付加手段は、前記複数の撮影画像に電子透かし技術を用いて前記カメラ情報を付加することを特徴とする画像処理装置。
  4. 請求項2に記載の画像処理装置において、
    前記付加手段は、前記複数の撮影画像における前記合成画像の生成に用いない領域に、前記カメラ情報を付加することを特徴とする画像処理装置。
  5. 請求項2ないし4のいずれかに記載の画像処理装置において、
    前記複数のカメラで得られた複数の撮影画像を一つの結合画像に結合する結合手段、
    をさらに備え、
    前記映像データは、前記結合画像を含み、
    前記付加手段は、前記結合画像に含まれる前記複数の撮影画像のそれぞれに、当該撮影画像を取得した前記カメラの前記カメラ情報を付加することを特徴とする画像処理装置。
  6. 請求項2に記載の画像処理装置において、
    前記付加手段は、前記映像データの前記複数の撮影画像以外の部分に、前記カメラ情報を付加することを特徴とする画像処理装置。
  7. 請求項2に記載の画像処理装置において、
    前記付加手段は、前記映像データのフレームの相互間に、前記カメラ情報を付加することを特徴とする画像処理装置。
  8. 請求項7に記載の画像処理装置において、
    前記映像データは、前記複数のカメラそれぞれの撮影画像を順次に前記フレームとして直列的に含み、
    前記フレームそれぞれの前記撮影画像は、2次元圧縮された圧縮画像であることを特徴とする画像処理装置。
  9. サーバ装置と車両で用いられる画像処理装置とを含む画像処理システムであって、
    前記画像処理装置は、
    仮想視点からみた合成画像の生成に用いられる、前記車両に設けられた複数のカメラで得られた複数の撮影画像を取得する取得手段と、
    前記複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを併せて前記サーバ装置に送信する送信手段と、
    を備え、
    前記サーバ装置は、
    前記複数の撮影画像と前記カメラ情報とを併せて記憶する記憶手段、
    を備え
    前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む
    ことを特徴とする画像処理システム。
  10. 画像合成装置であって、
    車両に設けられた複数のカメラで得られた複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを含む映像データを受信する受信手段と、
    前記受信手段が受信した前記映像データに含まれる前記複数の撮影画像と前記カメラ情報とを用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する生成手段と、
    を備え
    前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む
    ことを特徴とする画像合成装置。
  11. 画像処理方法であって、
    (a)仮想視点からみた合成画像の生成に用いられる、車両に設けられた複数のカメラで得られた複数の撮影画像を取得する工程と、
    (b)前記複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを併せて他の通信装置に送信する工程と、
    を備え
    前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む
    ことを特徴とする画像処理方法。
  12. 画像処理方法であって、
    (a)車両に設けられた複数のカメラで得られた複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを含む映像データを受信する工程と、
    (b)前記工程(a)で受信した前記映像データに含まれる前記複数の撮影画像と前記カメラ情報とを用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する工程と、
    を備え
    前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む
    ことを特徴とする画像処理方法。
  13. コンピュータにより実行可能なプログラムであって、
    前記プログラムは、
    (a)仮想視点からみた合成画像の生成に用いられる、車両に設けられた複数のカメラで得られた複数の撮影画像を取得する工程と、
    (b)前記複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを併せて他の通信装置に送信する工程と、
    を前記コンピュータに実行させ
    前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む
    ことを特徴とするプログラム。
  14. コンピュータにより実行可能なプログラムであって、
    前記プログラムは、
    (a)車両に設けられた複数のカメラで得られた複数の撮影画像と、前記複数のカメラそれぞれの特質を示すカメラ情報とを含む映像データを受信する工程と、
    (b)前記工程(a)で受信した前記映像データに含まれる前記複数の撮影画像と前記カメラ情報とを用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する工程と、
    を前記コンピュータに実行させ
    前記カメラ情報は、ディストーション特性を含む前記カメラ自体に関する特性パラメータと、パン角、チルト角、ロール角及び光軸の向きを含むカメラの設置に関する設置パラメータとを含む
    ことを特徴とするプログラム。
JP2015110127A 2015-05-29 2015-05-29 画像処理装置、画像処理システム、画像合成装置、画像処理方法及びプログラム Active JP6563694B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015110127A JP6563694B2 (ja) 2015-05-29 2015-05-29 画像処理装置、画像処理システム、画像合成装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015110127A JP6563694B2 (ja) 2015-05-29 2015-05-29 画像処理装置、画像処理システム、画像合成装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016225805A JP2016225805A (ja) 2016-12-28
JP6563694B2 true JP6563694B2 (ja) 2019-08-21

Family

ID=57748058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015110127A Active JP6563694B2 (ja) 2015-05-29 2015-05-29 画像処理装置、画像処理システム、画像合成装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6563694B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106576145B (zh) 2015-07-10 2021-04-30 松下知识产权经营株式会社 摄像装置
EP3576400B1 (en) 2017-01-25 2024-05-29 Panasonic Intellectual Property Management Co., Ltd. Operation control system and operation control method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069454A (ja) * 1999-08-27 2001-03-16 Casio Comput Co Ltd 電子カメラ及び画像データへの情報付加方法
JP4447799B2 (ja) * 2000-04-26 2010-04-07 キヤノン株式会社 撮像装置及びその制御方法
JP2006054504A (ja) * 2004-08-09 2006-02-23 Olympus Corp 画像生成方法および装置
DE102011102744A1 (de) * 2011-05-28 2012-11-29 Connaught Electronics Ltd. Verfahren zum Betreiben eines Kamerasystems eines Kraftfahrzeugs, Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer separaten Recheneinrichtung
JP5829851B2 (ja) * 2011-07-11 2015-12-09 富士通テン株式会社 画像処理システム、車両用装置、画像処理装置、プログラム、及び、画像表示方法
JP6030317B2 (ja) * 2012-03-13 2016-11-24 富士通テン株式会社 画像処理装置、画像表示システム、表示装置、画像処理方法及びプログラム
JP6260174B2 (ja) * 2013-09-27 2018-01-17 日産自動車株式会社 監視画像提示システム
JP6347934B2 (ja) * 2013-10-11 2018-06-27 株式会社デンソーテン 画像表示装置、画像表示システム、画像表示方法、及び、プログラム

Also Published As

Publication number Publication date
JP2016225805A (ja) 2016-12-28

Similar Documents

Publication Publication Date Title
US11659282B2 (en) Image processing system and image processing method
CN110933275B (zh) 拍照方法及相关设备
US9294741B2 (en) Imaging apparatus, imaging method, imaging system, and program product
KR101663321B1 (ko) 파노라마 사진 촬영 방법
US8514273B2 (en) 3D image display apparatus and 3D image display method
KR20130112574A (ko) 확대된 영상의 화질을 개선하기 위한 장치 및 방법
JP7282798B2 (ja) 撮影装置、画像処理方法、及び、プログラム
KR20150060885A (ko) 촬영 방법, 장치 및 단말
WO2014155623A1 (ja) 携帯端末装置、表示制御方法およびプログラム
US20140055494A1 (en) Image display device capable of displaying image in a desired orientation, method of controlling the same, and storage medium
US20150288949A1 (en) Image generating apparatus, imaging apparatus, and image generating method
JP6563694B2 (ja) 画像処理装置、画像処理システム、画像合成装置、画像処理方法及びプログラム
US9532034B2 (en) Three-dimensional imaging apparatus and three-dimensional image display method
KR20190014959A (ko) 움직임 정보에 기반하여 동영상을 재생하기 위한 장치 및 그의 동작 방법
KR20130117991A (ko) 영상통신장치, 영상통신서버 및 영상통신을 위한 영상처리방법
CN108476290B (zh) 用于提供全景图像的电子装置及其控制方法
JP6261191B2 (ja) 表示制御装置、表示制御方法、プログラム
CN110087023B (zh) 视频图像发送装置、信息处理装置、系统、方法及介质
JP6148896B2 (ja) 画像生成装置及び画像生成方法
KR101407119B1 (ko) 초광각 카메라를 이용한 카메라 시스템
JP4887461B2 (ja) 3次元画像撮像装置及び3次元画像表示方法
KR101763938B1 (ko) 위치정보 기반의 영상데이터의 처리 방법 및 장치
JP2010147523A (ja) 車両周囲の俯瞰画像生成装置
JP6762843B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6674630B2 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190725

R150 Certificate of patent or registration of utility model

Ref document number: 6563694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250