JP6056664B2 - Image processing apparatus and imaging system - Google Patents
Image processing apparatus and imaging system Download PDFInfo
- Publication number
- JP6056664B2 JP6056664B2 JP2013117923A JP2013117923A JP6056664B2 JP 6056664 B2 JP6056664 B2 JP 6056664B2 JP 2013117923 A JP2013117923 A JP 2013117923A JP 2013117923 A JP2013117923 A JP 2013117923A JP 6056664 B2 JP6056664 B2 JP 6056664B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- imaging device
- data
- unit
- information terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置および撮像システムに関する。 The present invention relates to an image processing apparatus and an imaging system.
従来、別個の機器で同時に撮像された静止画像データと動画像データとを関連付ける技術が知られている(特許文献1参照。)。このような技術により、静止画像データを動画像データのインデックスとして利用したり、動画像データの特定の場面を静止画像データで鑑賞させたりすることができる。 Conventionally, a technique for associating still image data and moving image data simultaneously captured by different devices is known (see Patent Document 1). With such a technique, still image data can be used as an index of moving image data, or a specific scene of moving image data can be viewed with still image data.
ところで、近年、スポーツ中の競技者自身またはその競技者が操作する車等に撮像装置を取り付けて、動画像データを撮像する場合がある。このように撮像された動画像データは、通常の撮影方法とは視点が異なるので、映像内容から一見して撮影状況が理解できない場合がある。また、このような別個の機器で同時に撮影された静止画像データを動画像データのインデックスとして用いても、鑑賞者には動画像データの視点と静止画像データの視点との関係が理解できないので、動画像データの撮影状況を理解することは困難である。 Incidentally, in recent years, there are cases where moving image data is captured by attaching an imaging device to the athlete himself / herself during the sport or to a car or the like operated by the athlete. The moving image data picked up in this way has a different viewpoint from the normal shooting method, and therefore the shooting situation may not be understood at a glance from the video content. In addition, even if still image data captured simultaneously with such separate devices is used as an index of moving image data, the viewer cannot understand the relationship between the viewpoint of moving image data and the viewpoint of still image data. It is difficult to understand the shooting situation of moving image data.
本発明は、上記に鑑みてなされたものであって、同時に撮像された2つの撮像データの視点の位置関係を示して、撮影状況を容易に理解させることができる画像処理装置および撮像システムを提供することを目的とする。 The present invention has been made in view of the above, and provides an image processing apparatus and an imaging system that show the positional relationship between the viewpoints of two imaged data that have been imaged at the same time so that the imaging situation can be easily understood. The purpose is to do.
上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置および撮像システムは、第1撮像装置により撮像された第1撮像データおよび第2撮像装置により撮像された第2撮像データを取得する画像取得部と、前記第1撮像データの撮像時における前記第1撮像装置の位置と前記第2撮像データの撮像時における前記第2撮像装置の位置とを取得して、前記第1撮像装置に対する前記第2撮像装置の相対位置を算出する相対位置算出部と、前記第2撮像データの撮像時における前記第1撮像装置の撮像方向と前記第2撮像装置の撮像方向とを取得して、前記第1撮像装置の撮像方向と前記第2撮像装置の撮像方向との角度差を算出する角度差算出部と、前記第1撮像装置に対する前記第2撮像装置の相対位置および前記第2撮像データの撮像時における前記第2撮像装置の撮像方向に基づき、前記第2撮像装置の撮像視野に前記第1撮像装置を基準とした予め設定された領域が含まれるかを判定する判定部と、前記第2撮像装置の撮像視野に前記第1撮像装置を基準位置とした予め設定された領域が含まれると前記判定部が判定した場合に、前記第1撮像データの画面上における前記角度差に対応する位置に、前記第2撮像データを合成する合成部と、を備える。前記画像取得部は、同一期間に撮像された前記第1撮像データおよび前記第2撮像データを取得する。 In order to solve the above-described problems and achieve the object, an image processing apparatus and an imaging system according to the present invention include first imaging data captured by a first imaging apparatus and second imaging captured by a second imaging apparatus. An image acquisition unit for acquiring data; a position of the first imaging device at the time of imaging the first imaging data; and a position of the second imaging device at the time of imaging the second imaging data; A relative position calculation unit that calculates a relative position of the second imaging device with respect to one imaging device, and an imaging direction of the first imaging device and an imaging direction of the second imaging device at the time of imaging of the second imaging data are acquired. Then, an angle difference calculation unit that calculates an angle difference between the imaging direction of the first imaging device and the imaging direction of the second imaging device, a relative position of the second imaging device with respect to the first imaging device, and the first 2 A determination unit configured to determine whether a pre-set region based on the first imaging device is included in an imaging field of view of the second imaging device based on an imaging direction of the second imaging device at the time of imaging image data; The angle difference on the screen of the first imaging data when the determination unit determines that the imaging field of view of the second imaging device includes a preset area with the first imaging device as a reference position. And a synthesizing unit that synthesizes the second imaging data at a position corresponding to. The image acquisition unit acquires the first imaging data and the second imaging data captured in the same period.
本発明によれば、同時に撮像された2つの撮像データの視点の位置関係を示して、撮影状況を容易に理解させることができる。 According to the present invention, it is possible to easily understand the photographing situation by showing the positional relationship between the viewpoints of two pieces of image data that are simultaneously imaged.
以下に、本発明の実施形態を詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of the present invention will be described in detail. In addition, this invention is not limited by this embodiment.
図1は、実施形態に係る撮像システム10の外観を示す図である。本実施形態に係る撮像システム10は、カメラ装置20と、情報端末30とを備える。
FIG. 1 is a diagram illustrating an appearance of an
カメラ装置20は、第1撮像装置の一例であって、被写体を撮像して動画像データ(第1撮像データ)を記録する。カメラ装置20は、一例として、スポーツ中の競技者自身またはその競技者が操作する車等に取り付けられ、競技中に競技者の視点から被写体を撮像する。
The
情報端末30は、第1撮像装置とは別体の第2撮像装置の一例であって、被写体を撮像して静止画像データ(第2撮像データ)を記録する。情報端末30は、一例として、スマートフォンまたは携帯電話機等の撮像機能を有する小型情報機器である。
The
情報端末30は、一例として、競技者とは異なる人物である操作者により保持されて操作される。情報端末30は、操作者による操作に応じて、被写体を撮像する。
For example, the
情報端末30は、カメラ装置20と、Wi−Fi(登録商標)等の無線通信により接続される。情報端末30は、カメラ装置20の動作を無線通信を介して制御することができる。従って、カメラ装置20は、情報端末30を介した操作者による操作に応じて、撮像の開始および停止をする。
The
図2は、実施形態に係る撮像システム10の構成を示す図である。カメラ装置20は、第1撮像部41と、第1時刻検出部42と、第1位置検出部43と、第1方向検出部44と、第1無線通信部45と、第1記憶部46と、第1制御部47とを有する。
FIG. 2 is a diagram illustrating a configuration of the
第1撮像部41は、被写体を撮像して動画像データを出力する。第1時刻検出部42は、第1撮像部41の撮像時における時刻を示す撮像時刻情報を、動画像データに対応させて出力する。
The
第1位置検出部43は、第1撮像部41の撮像時における、カメラ装置20の位置を示す位置情報を、動画像データに対応させて出力する。第1位置検出部43は、一例として、GPS(Global Positioning System)を利用した位置検出装置であって、位置情報として、緯度情報および経度情報をリアルタイムで出力する。
The first
第1方向検出部44は、第1撮像部41の撮像時における撮像方向を示す撮像方向情報を、動画像データに対応させて出力する。第1方向検出部44は、一例として、地球の地磁気を検出する電子コンパスであって、第1撮像部41の対物レンズの光軸の向いている方位、すなわち、カメラ装置20から被写体へ向かう方位を、撮像方向情報としてリアルタイムで出力する。
The first direction detection unit 44 outputs imaging direction information indicating an imaging direction at the time of imaging by the
第1無線通信部45は、情報端末30と無線通信で情報を送受信する。第1無線通信部45は、一例として、Wi−Fi(登録商標)により情報端末30と情報を送受信する。
The first
第1記憶部46は、第1撮像部41から出力された動画像データを記録する。また、第1記憶部46は、動画像データに対応付けて、第1時刻検出部42から出力された時刻情報、第1位置検出部43から出力された位置情報、および、第1方向検出部44から出力された撮像方向情報を記憶する。
The
第1制御部47は、例えばCPU(Central Processing Unit)であって、カメラ装置20の全体を制御する。第1制御部47は、一例として、第1撮像部41の撮像動作を制御する。また、第1制御部47は、一例として、第1撮像部41、第1時刻検出部42、第1位置検出部43および第1方向検出部44から出力された各データおよび情報の第1記憶部46に対する書き込みおよび読み出しを制御する。また、第1制御部47は、第1無線通信部45を制御して、情報端末30との間の情報の送受信を制御する。
The
さらに、第1制御部47は、画像処理部48を含む。画像処理部48は、例えば、CPUがプログラムを実行することにより実現される画像処理装置の一例である。画像処理部48は、第1撮像部41により撮像された動画像データの画面上に、情報端末30により撮像された静止画像データの縮小画像を合成する。画像処理部48の構成については、図3を参照して詳細に説明する。
Further, the
一方、情報端末30は、第2撮像部51と、第2時刻検出部52と、第2位置検出部53と、第2方向検出部54と、第2無線通信部55と、第2記憶部56と、表示入力部57と、第2制御部58とを有する。
On the other hand, the
第2撮像部51は、被写体を撮像して静止画像データを出力する。第2時刻検出部52は、第2撮像部51による静止画像データの撮像時における時刻を示す撮像時刻情報を出力する。
The
第2位置検出部53は、第2撮像部51による静止画像データの撮像時における情報端末30の位置を示す位置情報を出力する。第2位置検出部53は、一例として、GPSを利用した位置検出装置であって、位置情報として、緯度情報および経度情報を出力する。
The second position detection unit 53 outputs position information indicating the position of the
第2方向検出部54は、第2撮像部51による静止画像データの撮像時における撮像方向を示す撮像方向情報を出力する。第2方向検出部54は、一例として、電子コンパスであって、第2撮像部51の対物レンズの光軸の向いている方位、すなわち、情報端末30から被写体へ向かう方位を、撮像方向情報として出力する。
The second
第2無線通信部55は、カメラ装置20と無線通信で情報を送受信する。第2無線通信部55は、一例として、Wi−Fi(登録商標)によりカメラ装置20と情報を送受信する。
The second
第2記憶部56は、第2撮像部51から出力された静止画像データを記録する。また、第2記憶部56は、静止画像データに対応付けて、第2時刻検出部52から出力された時刻情報、第2位置検出部53から出力された位置情報、および、第2方向検出部54から出力された撮像方向情報を記憶する。
The
表示入力部57は、例えばタッチパネルであって、操作者に対して情報を表示するとともに、操作者から情報を入力する。
The
第2制御部58は、例えばCPUであって、情報端末30の全体を制御する。また、第2制御部58は、一例として、第2撮像部51の撮像動作を制御する。また、第2制御部58は、一例として、第2撮像部51、第2時刻検出部52、第2位置検出部53および第2方向検出部54から出力された各データおよび情報の第2記憶部56に対する書き込みおよび読み出しを制御する。また、第2制御部58は、第2無線通信部55を制御して、カメラ装置20との間の情報の送受信を制御する。
The
図3は、画像処理部48の構成を示す図である。画像処理部48は、第1の画像取得部61と、時刻取得部62と、第2の画像取得部63と、相対位置算出部64と、角度差算出部65と、判定部66と、デコード部67と、合成部68と、エンコード部69とを含む。
FIG. 3 is a diagram illustrating a configuration of the
第1の画像取得部61は、情報端末30により撮像された静止画像データを、情報端末30から取得する。時刻取得部62は、第1の画像取得部61が取得した静止画像データの撮像時刻情報を、情報端末30から取得する。
The first
第2の画像取得部63は、第1の画像取得部61が取得した静止画像データと、同一期間に撮像された動画像データを第1記憶部46から取得する。より具体的には、第2の画像取得部63は、一例として、時刻取得部62が取得した撮像時刻情報に示された時刻を含む一定の期間の動画像データを取得する。すなわち、第2の画像取得部63は、取得した静止画像データを撮像した時刻を含む一定期間にカメラ装置20により撮像された動画像データを、第1記憶部46から取得する。
The second
相対位置算出部64は、第1の画像取得部61が取得した静止画像データの撮像時における情報端末30の位置を示す位置情報を、情報端末30から取得する。また、相対位置算出部64は、第2の画像取得部63が取得した動画像データの撮像時におけるカメラ装置20の位置を示す位置情報を第1記憶部46から取得する。
The relative
そして、相対位置算出部64は、第1の画像取得部61が取得した静止画像データの撮像時における、カメラ装置20に対する情報端末30の相対位置を算出する。相対位置算出部64は、一例として、カメラ装置20の緯度および経度と、情報端末30の緯度および経度から、カメラ装置20を基準位置とした場合の情報端末30の距離および方位を算出する。例えば、図4のAの場合であれば、相対位置算出部64は、カメラ装置20と情報端末30との間の距離がxメートルの位置にあり、且つ、情報端末30がカメラ装置20の東の方位に位置することを算出する。
Then, the relative
角度差算出部65は、第1の画像取得部61が取得した静止画像データの撮像時における情報端末30の撮像方向を示す撮像方向情報を、情報端末30から取得する。また、角度差算出部65は、第1の画像取得部61が取得した静止画像データの撮像時におけるカメラ装置20の撮像方向を示す撮像方向情報を第1記憶部46から取得する。
The angle
そして、角度差算出部65は、第1の画像取得部61が取得した静止画像データの撮像時における、カメラ装置20の撮像方向と情報端末30の撮像方向との角度差を算出する。角度差算出部65は、一例として、カメラ装置20の対物レンズの向いている方位と、情報端末30の対物レンズの向いている方位との角度差を算出する。例えば、図4のAの場合であれば、カメラ装置20の対物レンズが北を向いていて、情報端末30の対物レンズが西を向いているので、角度差算出部65は、+90°の角度差を算出する。また、例えば、図4のBの場合であれば、カメラ装置20の対物レンズが北を向いていて、情報端末30の対物レンズが南を向いているので、角度差算出部65は、+180°の角度差を算出する。また、例えば、図4のCの場合であれば、カメラ装置20の対物レンズが北を向いていて、情報端末30の対物レンズが南東を向いているので、角度差算出部65は、+225°の角度差を算出する。
Then, the angle
判定部66は、相対位置算出部64により算出されたカメラ装置20に対する情報端末30の相対位置を示す情報、および、静止画像データの撮像時における情報端末30の撮像方向を取得する。そして、判定部66は、これらの情報に基づき、情報端末30の撮像視野にカメラ装置20を基準位置とした予め設定された領域が含まれるかを判定する。例えば、判定部66は、情報端末30の撮像視野に、カメラ装置20を保持する被写体(例えば、競技者自身または競技者が搭乗する車)が含まれるかを判定する。
The
例えば、図4に示すように、カメラ装置20と情報端末30との相対位置および情報端末30の撮像方向によって、情報端末30の撮像視野に、カメラ装置20またはカメラ装置20を保持する被写体が含まれるかどうかが変わる。例えば、図4のA、B、Cのように、情報端末30の撮像方向がカメラ装置20側に向いており、カメラ装置20と情報端末30との相対位置がカメラ装置20の撮影可能距離内であれば、情報端末30の撮像視野にカメラ装置20を保持する被写体等が含まれる。
For example, as shown in FIG. 4, depending on the relative position between the
しかしながら、図4のDの場合のように、情報端末30の撮像方向がカメラ装置20とは反対側に向いている場合には、情報端末30の撮像視野に、カメラ装置20またはカメラ装置20を保持する被写体が含まれない。また、カメラ装置20と情報端末30との相対位置がカメラ装置20の倍率を最大としても撮像できないような撮影可能距離以上である場合には、情報端末30の撮像視野にカメラ装置20を保持する被写体等が含まれない。
However, when the imaging direction of the
そこで、判定部66は、カメラ装置20と情報端末30との相対位置および情報端末30の撮像方向によって、情報端末30の撮像視野に、カメラ装置20またはカメラ装置20を保持する被写体が含まれるかを判定する。つまり、判定部66は、カメラ装置20と情報端末30との相対位置および情報端末30の撮像方向によって、情報端末30が撮像した静止画像データにカメラ装置20またはカメラ装置20を保持する被写体が含まれるかどうかを判断する。
Therefore, whether the
デコード部67は、第1の画像取得部61により取得された静止画像データ、および、第2の画像取得部63により取得された動画像データのそれぞれを、合成可能なデータ形式にデコードする。
The
合成部68は、判定部66が、情報端末30の撮像視野にカメラ装置20を基準位置とした予め設定された領域が含まれると判定した場合に、デコードされた動画像データの画面上に、デコードした静止画像データを合成する。
When the
この場合において、合成部68は、動画像データにおける静止画像データの撮像時刻に対応する時間位置に、静止画像データを合成する。例えば、合成部68は、静止画像データの撮像時刻における、前後の予め定められた期間(10秒間等)に、静止画像データを合成する。
In this case, the synthesizing
さらに、この場合において、合成部68は、動画像データの画面周縁における、角度差算出部65により算出された角度差に応じた位置に、動画像データより小さい画面サイズの静止画像データを合成する。
Further, in this case, the synthesizing
例えば、図5に示すように、合成部68は、動画像の画面71の周縁のそれぞれの位置に、予め角度を割り当てる。例えば、合成部68は、動画像の画面71の下辺側の中央に0°、右辺側の中央に+90°、上辺側の中央に+180°、左辺側の中央に+270°といったように、予め角度を割り当てる。
For example, as illustrated in FIG. 5, the
そして、合成部68は、予め割り当てた角度に対応する位置上に、静止画像データの縮小画像72を合成する。例えば、合成部68は、角度差が+90°の場合には、図6に示すように、動画像の画面71上の右辺側略中央に縮小画像72を表示する。また、例えば、合成部68は、角度差が+180°の場合には、図7に示すように、動画像の画面71上の上辺側略中央に縮小画像72を表示する。例えば、合成部68は、角度差が+225°の場合には、図8に示すように、動画像の画面71上の左上の角に縮小画像72を表示する。
Then, the combining
合成部68は、このように静止画像データを合成した動画像データを、エンコード部69に出力する。なお、合成部68は、情報端末30の撮像視野にカメラ装置20を基準位置とした予め設定された領域が含まれないと判定した場合には、静止画像データを合成せずに、動画像データをエンコード部69に出力する。
The synthesizing
エンコード部69は、合成部68から受け取った動画像データを、予め定められたデータ形式にエンコードする。エンコード部69は、一例として、情報端末30で再生が可能なビットレートの低いデータ形式に動画像データをエンコードする。そして、エンコード部69は、エンコードした動画像データを情報端末30に無線通信により送信する。
The
図9は、撮像時のカメラ装置20および情報端末30の処理フローを示す図である。まず、ステップS11において、情報端末30は、ユーザの操作に応じて、カメラ装置20に対して動画像の撮像の開始指示を無線通信を介して送信する。続いて、ステップS12において、カメラ装置20は、撮像の開始指示を受信すると、動画像の撮像を開始する。
FIG. 9 is a diagram illustrating a processing flow of the
カメラ装置20は、動画像の撮像を開始すると、生成した動画像データを第1記憶部46に記録する。これとともに、カメラ装置20は、時刻情報、撮像位置を示す位置情報および方位を示す撮像方向情報を動画像データに対応させて第1記憶部46に記録する。
When the
続いて、情報端末30は、ユーザのシャッタボタンの操作タイミングにおいて(ステップS13−1、S13−2、…S13−N)、静止画像を撮像する。情報端末30は、静止画像を撮像すると、生成した静止画像データを第2記憶部56に記録する。これとともに、情報端末30は、静止画像の撮像時刻を示す時刻情報、静止画像の撮像時における撮像位置を示す位置情報および静止画像の撮像時における方位を示す撮像方向情報を、静止画像データに対応させて第2記憶部56に記録する。
Subsequently, the
続いて、ステップS14において、情報端末30は、ユーザの操作に応じて、カメラ装置20に対して動画像の撮像の終了指示を無線通信を介して送信する。続いて、ステップS15において、カメラ装置20は、撮像の終了指示を受信すると、動画像の撮像を終了する。
Subsequently, in step S <b> 14, the
続いて、ステップS16において、カメラ装置20は、記録した動画像データを特定するためのパス情報を、情報端末30に無線通信を介して送信する。カメラ装置20は、一例として、動画像データのファイル名および格納アドレス等をパス情報として情報端末30に送信する。
Subsequently, in step S <b> 16, the
続いて、ステップS17において、情報端末30は、パス情報を受信すると、撮像の開始指示(ステップS11)を送信してから、撮像の終了指示(ステップS14)を送信するまでに記録したそれぞれの静止画像データに関連付けて、パス情報を記憶する。情報端末30は、一例として、パス情報と、それぞれの静止画像データのファイル名および格納アドレス等とを対応付けて記憶する。
Subsequently, in step S17, when the
図10は、合成時のカメラ装置20および情報端末30の処理フローを示す図である。まず、ステップS21において、情報端末30は、上述のステップS11からステップS17までの処理で撮像した静止画像データを集めて1つの画面に表示したインデックス画面を表示する。操作者は、インデックス画面に表示されたそれぞれの静止画像を選択することができる。
FIG. 10 is a diagram illustrating a processing flow of the
ステップS22において、情報端末30は、インデックス画面に対する操作者による静止画像の選択を受け付ける。続いて、ステップS23において、情報端末30は、選択された静止画像に対応するパス情報、静止画像データ、時刻情報、位置情報および撮像方向情報をカメラ装置20に無線通信を介して送信する。この場合において、情報端末30は、縮小してデータサイズを小さくした静止画像データを送信してもよい。
In step S22, the
続いて、ステップS24において、カメラ装置20は、パス情報等を受信すると、パス情報により特定される動画像データを抽出する。この場合において、カメラ装置20は、受信した時刻情報に基づき、静止画像の撮像時を含む一定期間(例えば、静止画像の撮像時の前後の1分の期間等)の動画像データを抽出する。
Subsequently, in step S24, when receiving the path information or the like, the
続いて、ステップS25において、カメラ装置20は、静止画像の撮像時の情報端末30の位置情報および撮像方向情報、並びに、静止画像の撮像時のカメラ装置20の位置情報に基づき、動画像データに静止画像データを合成するか否かを判定する。具体的には、判定部66は、これらの情報に基づき、静止画像の撮像時における情報端末30の撮像視野に、カメラ装置20を保持する被写体(例えば、競技者自身または競技者が搭乗する車)が含まれるかを判定する。例えば、カメラ装置20は、静止画像の撮像時における、カメラ装置20と情報端末30との位置が一定の距離以下であり、且つ、情報端末30の撮像方向がカメラ装置20側を向いている場合には、動画像データに静止画像データを合成すると判定する。
Subsequently, in step S25, the
動画像データに静止画像データを合成しないと判定した場合(ステップS25のFalse)、カメラ装置20は、ステップS26において、動画像データを情報端末30での再生に適したデータ形式にトランスコードする(デコードして、エンコードする)。情報端末30は、一例として、AVCHD(Advanced Video Codec High Definition)の形式から、MP4形式またはMOV形式等に変換する。また、情報端末30は、単にデータレートの変換等をしてもよい。
When it is determined that still image data is not combined with moving image data (false in step S25), the
動画像データに静止画像データを合成すると判定した場合(ステップS25のTrue)、情報端末30は、ステップS27において、静止画像の撮像時における、カメラ装置20の撮像方向と情報端末30の撮像方向との角度差を算出する。
When it is determined that still image data is to be combined with moving image data (True in step S25), the
続いて、ステップS28において、情報端末30は、動画像データを情報端末30での再生に適したデータ形式にトランスコードするとともに、動画像データの画面周縁における角度差に応じた位置に、縮小した静止画像データを合成する。
Subsequently, in step S28, the
ステップS26またはステップS28の処理を終えると、続いて、ステップS29において、カメラ装置20は、トランスコードした後の動画像データを、情報端末30に無線通信により送信する。そして、ステップS30において、情報端末30は、受信した動画像データを再生する。
When the process of step S26 or step S28 is finished, subsequently, in step S29, the
このような撮像システム10によれば、他の機器で同一タイミングで撮像した静止画像が合成された動画像データを再生することができる。そして、静止画像が、動画像の撮像方向と静止画像と撮像方向の角度差に応じた位置に合成される。
According to such an
例えば、カメラ装置20の右側から情報端末30が静止画像を撮像していた場合には、画面の右側に静止画像が合成される。また、カメラ装置20の前側から情報端末30が静止画像を撮像していた場合には、画面の上側に静止画像が合成される。また、例えば、カメラ装置20の左側から情報端末30が静止画像を撮像していた場合には、画面の左側に静止画像が合成される。
For example, when the
これにより、撮像システム10によれば、同時に撮像された動画像データおよび静止画像データの視点の位置関係が理解できるように、静止画像データを動画像データに合成することができる。従って、撮像システム10によれば、例えば、スポーツ中の競技者自身またはその競技者が操作する車等に撮像装置を取り付けて撮像された動画像の撮影状況を、一見して理解させることができる動画像データを生成することができる。
Thereby, according to the
図11は、縮小画像72の表示方法の第1変形例を示す図である。画像処理部48の合成部68は、カメラ装置20と情報端末30との間の距離に応じて、動画像の画面71に合成する静止画像データの縮小画像72の画面サイズを変更してもよい。
FIG. 11 is a diagram illustrating a first modification of the display method of the reduced
例えば、合成部68は、カメラ装置20と情報端末30との間の距離が遠い場合には、静止画像データの縮小画像72のサイズを小さくする。そして、合成部68は、カメラ装置20と情報端末30との間の距離が近い場合には、静止画像データの縮小画像72のサイズを大きくする。これにより、合成部68は、カメラ装置20と情報端末30との間の距離を視覚的に理解させることができる。
For example, the
また、合成部68は、カメラ装置20と情報端末30との間の距離に応じて、動画像の画面71上における縮小画像72の表示位置を変更してもよい。例えば、合成部68は、カメラ装置20と情報端末30との間の距離が遠い場合には、動画像の画面71の縁に近い位置に縮小画像72を表示し、距離が近い場合には動画像の画面71の中央により近い位置に縮小画像72を表示する。このようにしても、合成部68は、カメラ装置20と情報端末30との間の距離を視覚的に理解させることができる。
The combining
図12は、縮小画像72の表示方法の第2変形例を示す図である。画像処理部48の合成部68は、図12に示されるように、静止画像データの縮小画像72を、動画像の画面71の外部から内部へと徐々に入ってくるようなエフェクトをかけて合成してもよい。
FIG. 12 is a diagram illustrating a second modification example of the display method of the reduced
また、画像処理部48の合成部68は、縮小画像72が動画像の画面71の内部から外部へと徐々に出て行くようなエフェクトをかけて合成してもよい。このようなエフェクトをかけることにより、合成部68は、静止画像の撮像時を視覚的に理解させることができる。
Further, the combining
図13は、カメラ装置20と情報端末30とが同一の被写体80を撮像する場合の撮像位置の一例を示す図である。カメラ装置20と情報端末30とが同一の被写体80を同時に撮像していてもよい。このような場合、画像処理部48は、静止画像の撮像時における情報端末30の位置情報および撮像方向情報並びにカメラ装置20の位置情報および撮像方向情報に基づき、静止画像の撮像時における情報端末30の撮像視野に、カメラ装置20が撮像している被写体80が含まれるかを判定する。
FIG. 13 is a diagram illustrating an example of an imaging position when the
例えば、カメラ装置20は、静止画像の撮像時における、カメラ装置20と情報端末30との位置が一定の距離以下であり、且つ、情報端末30の撮像方向がカメラ装置20が撮像している被写体80側を向いている場合に、情報端末30の撮像視野に、カメラ装置20が撮像している被写体80が含まれると判定する。
For example, the
図14は、カメラ装置20と情報端末30とが同一の被写体80を撮像する場合の合成例を示す図である。図13に示されるようにカメラ装置20と情報端末30とが同一の被写体80を同時に撮像している場合、情報端末30がカメラ装置20を保持する競技者等を撮像している場合とは、情報端末30の撮像方向が異なる。このため、カメラ装置20と情報端末30との相対位置が同一位置であっても、図14に示されるように、動画像の画面71に対する縮小画像72の合成位置は変化する。
FIG. 14 is a diagram illustrating a synthesis example in the case where the
なお、以上の本実施形態では、動画像データに静止画像データを合成する例を示した。しかしながら、撮像システム10では、動画像データに対して、同時に撮像された他の動画像データを合成してもよい。この場合、時間とともにそれぞれの撮像装置の位置および撮像方向が変化するので、撮像システム10は、合成を時間とともに変化させてもよい。
In the above embodiment, an example in which still image data is combined with moving image data has been described. However, the
また、本実施形態では、合成処理を行う画像処理部48がカメラ装置20の内部に備えられる例を示した。しかしながら、画像処理部48は、情報端末30内に備えられてもよい。また、カメラ装置20および情報端末30とは別の装置に備えられてもよい。また、本実施形態では、別個の装置により撮像された静止画像データおよび動画像データを無線通信により送信する例を示した。しかしながら、メモリカード等の記録媒体を介して静止画像データまたは動画像データを機器間で受け渡してもよい。
Further, in the present embodiment, an example in which the
10 撮像システム
20 カメラ装置
30 情報端末
41 第1撮像部
42 第1時刻検出部
43 第1位置検出部
44 第1方向検出部
45 第1無線通信部
46 第1記憶部
47 第1制御部
48 画像処理部
51 第2撮像部
52 第2時刻検出部
53 第2位置検出部
54 第2方向検出部
55 第2無線通信部
56 第2記憶部
57 表示入力部
58 第2制御部
61 第1の画像取得部
62 時刻取得部
63 第2の画像取得部
64 相対位置算出部
65 角度差算出部
66 判定部
67 デコード部
68 合成部
69 エンコード部
71 動画像の画面
72 縮小画像
80 被写体
DESCRIPTION OF
Claims (6)
前記第1撮像データの撮像時における前記第1撮像装置の位置と前記第2撮像データの撮像時における前記第2撮像装置の位置とを取得して、前記第1撮像装置に対する前記第2撮像装置の相対位置を算出する相対位置算出部と、
前記第2撮像データの撮像時における前記第1撮像装置の撮像方向と前記第2撮像装置の撮像方向とを取得して、前記第1撮像装置の撮像方向と前記第2撮像装置の撮像方向との角度差を算出する角度差算出部と、
前記第1撮像装置に対する前記第2撮像装置の相対位置および前記第2撮像データの撮像時における前記第2撮像装置の撮像方向に基づき、前記第2撮像装置の撮像視野に前記第1撮像装置を基準とした予め設定された領域が含まれるかを判定する判定部と、
前記第2撮像装置の撮像視野に前記第1撮像装置を基準位置とした予め設定された領域が含まれると前記判定部が判定した場合に、前記第1撮像データの画面上における前記角度差に対応する位置に、前記第2撮像データを合成する合成部と、
を備え、
前記画像取得部は、同一期間に撮像された前記第1撮像データおよび前記第2撮像データを取得する
画像処理装置。 An image acquisition unit that acquires first imaging data captured by the first imaging device and second imaging data captured by the second imaging device;
The second imaging device with respect to the first imaging device is obtained by acquiring the position of the first imaging device when imaging the first imaging data and the position of the second imaging device when imaging the second imaging data. A relative position calculation unit for calculating the relative position of
The imaging direction of the first imaging device and the imaging direction of the second imaging device are acquired at the time of imaging the second imaging data, and the imaging direction of the first imaging device and the imaging direction of the second imaging device are obtained. An angle difference calculation unit for calculating the angle difference of
Based on the relative position of the second imaging device with respect to the first imaging device and the imaging direction of the second imaging device during imaging of the second imaging data, the first imaging device is placed in the imaging field of view of the second imaging device. A determination unit for determining whether or not a preset region as a reference is included;
When the determination unit determines that a preset region with the first imaging device as a reference position is included in the imaging field of view of the second imaging device, the angle difference on the screen of the first imaging data is determined. A combining unit that combines the second imaging data at a corresponding position;
Equipped with a,
The image acquisition unit acquires the first imaging data and the second imaging data captured in the same period.
Image processing device.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the determination unit determines whether a subject holding the first imaging device is included in an imaging field of view of the second imaging device.
前記第2撮像データは、静止画像データであり、
前記合成部は、前記第1撮像データにおける前記第2撮像データの撮像時刻に対応する時間位置に、前記第2撮像データを合成する
請求項1に記載の画像処理装置。 The first imaging data is moving image data,
The second imaging data is still image data,
The combining unit, the corresponding time position in the imaging time of the second imaging data in said first imaging data, the image processing apparatus according to claim 1 for synthesizing the second image pickup data.
請求項1から3の何れか一項に記載の画像処理装置。 The combining unit, the to a position corresponding to the angular difference in the screen periphery of the first imaging data, any one of claims 1 to 3, combining the second image pickup data of the first smaller screen size than the imaging data The image processing apparatus according to item.
前記合成部は、前記距離に応じて前記第2撮像データの画面サイズを変更する
請求項1から4の何れか一項に記載の画像処理装置。 The relative position calculation unit calculates a distance between the first imaging device and the second imaging device based on a relative position of the second imaging device with respect to the first imaging device;
The image processing apparatus according to any one of claims 1 to 4 , wherein the combining unit changes a screen size of the second imaging data according to the distance.
前記画像処理装置は、
前記第1撮像装置により撮像された第1撮像データおよび前記第2撮像装置により撮像された第2撮像データを取得する画像取得部と、
前記第1撮像データの撮像時における前記第1撮像装置の位置と前記第2撮像データの撮像時における前記第2撮像装置の位置とを取得して、前記第1撮像装置に対する前記第2撮像装置の相対位置を算出する相対位置算出部と、
前記第1撮像データの撮像時における前記第1撮像装置の撮像方向と前記第2撮像データの撮像時における前記第2撮像装置の撮像方向とを取得して、前記第1撮像装置の撮像方向と前記第2撮像装置の撮像方向との角度差を算出する角度差算出部と、
前記第1撮像装置に対する前記第2撮像装置の相対位置および前記第2撮像データの撮像時における前記第2撮像装置の撮像方向に基づき、前記第2撮像装置の撮像視野に前記第1撮像装置を基準とした予め設定された領域が含まれるかを判定する判定部と、
前記第2撮像装置の撮像視野に前記第1撮像装置を基準位置とした予め設定された領域が含まれると前記判定部が判定した場合に、前記第1撮像データの画面上における前記角度差に対応する位置に、前記第2撮像データを合成する合成部と、
を有し、
前記画像取得部は、同一期間に撮像された前記第1撮像データおよび前記第2撮像データを取得する
撮像システム。 A first imaging device, a second imaging device, and an image processing device provided in either the first imaging device or the second imaging device,
The image processing apparatus includes:
An image acquisition unit that acquires first imaging data imaged by the first imaging device and second imaging data imaged by the second imaging device;
The second imaging device with respect to the first imaging device is obtained by acquiring the position of the first imaging device when imaging the first imaging data and the position of the second imaging device when imaging the second imaging data. A relative position calculation unit for calculating the relative position of
An imaging direction of the first imaging device at the time of imaging the first imaging data and an imaging direction of the second imaging device at the time of imaging of the second imaging data are acquired, and the imaging direction of the first imaging device is obtained. An angle difference calculation unit for calculating an angle difference with an imaging direction of the second imaging device;
Based on the relative position of the second imaging device with respect to the first imaging device and the imaging direction of the second imaging device during imaging of the second imaging data, the first imaging device is placed in the imaging field of view of the second imaging device. A determination unit for determining whether or not a preset region as a reference is included;
When the determination unit determines that a preset region with the first imaging device as a reference position is included in the imaging field of view of the second imaging device, the angle difference on the screen of the first imaging data is determined. A combining unit that combines the second imaging data at a corresponding position;
I have a,
The image acquisition unit acquires the first imaging data and the second imaging data captured in the same period.
Imaging system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013117923A JP6056664B2 (en) | 2013-06-04 | 2013-06-04 | Image processing apparatus and imaging system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013117923A JP6056664B2 (en) | 2013-06-04 | 2013-06-04 | Image processing apparatus and imaging system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014236426A JP2014236426A (en) | 2014-12-15 |
JP6056664B2 true JP6056664B2 (en) | 2017-01-11 |
Family
ID=52138818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013117923A Active JP6056664B2 (en) | 2013-06-04 | 2013-06-04 | Image processing apparatus and imaging system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6056664B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016125956A (en) * | 2015-01-07 | 2016-07-11 | ソニー株式会社 | Information processor, information processing method and information processing system |
JP2016174253A (en) * | 2015-03-16 | 2016-09-29 | パイオニア株式会社 | Determination device, determination method, and determination program |
JP2019220991A (en) * | 2019-09-10 | 2019-12-26 | パイオニア株式会社 | Determination device, determination method, and determination program |
WO2021124750A1 (en) * | 2019-12-20 | 2021-06-24 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2023188938A1 (en) * | 2022-03-30 | 2023-10-05 | 富士フイルム株式会社 | Information processing device and information processing method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4940041B2 (en) * | 2006-07-25 | 2012-05-30 | キヤノン株式会社 | IMAGING DEVICE, INFORMATION PROCESSING DEVICE, COMMUNICATION SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM |
JP5245257B2 (en) * | 2006-11-22 | 2013-07-24 | ソニー株式会社 | Image display system, display device, and display method |
WO2008087974A1 (en) * | 2007-01-16 | 2008-07-24 | Panasonic Corporation | Data processing apparatus and method, and recording medium |
JP4371170B2 (en) * | 2008-04-25 | 2009-11-25 | ソニー株式会社 | Imaging apparatus, image recording apparatus, and image recording method |
JP2011124898A (en) * | 2009-12-14 | 2011-06-23 | Brother Industries Ltd | Head-mounted display |
JP5771508B2 (en) * | 2011-11-10 | 2015-09-02 | オリンパス株式会社 | Display device, imaging device, and video display system |
-
2013
- 2013-06-04 JP JP2013117923A patent/JP6056664B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014236426A (en) | 2014-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10778951B2 (en) | Camerawork generating method and video processing device | |
US10944955B2 (en) | Multiple viewpoint image capturing system, three-dimensional space reconstructing system, and three-dimensional space recognition system | |
US8773589B2 (en) | Audio/video methods and systems | |
US10334162B2 (en) | Video processing apparatus for generating panoramic video and method thereof | |
US9438806B2 (en) | Photographing apparatus and photographing method for displaying combined avatar and map information related to a subject | |
US10277832B2 (en) | Image processing method and image processing system | |
JP6056664B2 (en) | Image processing apparatus and imaging system | |
US20130040700A1 (en) | Image capture device and image capture method | |
CN103916605B (en) | Mobile computing device with shadow real-time broadcast ability in shadow | |
US11490199B2 (en) | Sound recording apparatus, sound system, sound recording method, and carrier means | |
JP2010199971A (en) | Image pickup apparatus, imaging method, and program | |
US20060158520A1 (en) | Image capturing system, image capturing method and program | |
CN110463226B (en) | Sound recording device, sound system, sound recording method and carrier device | |
JP6412400B2 (en) | Image composition apparatus and image composition program | |
WO2017022296A1 (en) | Information management device, information management method, image reproduction device and image reproduction method | |
WO2018027067A1 (en) | Methods and systems for panoramic video with collaborative live streaming | |
JP2008277959A (en) | Imaging apparatus, reproducing device, and recording file creation method | |
KR20140111079A (en) | Method and System for Controlling Camera | |
JP2008152374A (en) | Image system, photographing direction specifying device, photographing direction specifying method and program | |
JP5969062B2 (en) | Image processing apparatus and image processing method | |
JP5680358B2 (en) | Imaging apparatus and imaging method | |
JP6318196B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5774731B2 (en) | Digital camera and composite image display method of digital camera | |
JP2009027376A (en) | Video camera | |
JP2006203872A (en) | Imaging system, imaging method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151029 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6056664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |