JP2018157255A - 画像表示制御装置、画像表示制御方法、及びプログラム - Google Patents
画像表示制御装置、画像表示制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2018157255A JP2018157255A JP2017050035A JP2017050035A JP2018157255A JP 2018157255 A JP2018157255 A JP 2018157255A JP 2017050035 A JP2017050035 A JP 2017050035A JP 2017050035 A JP2017050035 A JP 2017050035A JP 2018157255 A JP2018157255 A JP 2018157255A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- photographer
- display control
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Studio Circuits (AREA)
- Studio Devices (AREA)
Abstract
【課題】状況を記録した画像を、より簡易な方法で管理する画像表示制御装置、画像表示制御方法、及びプログラムを提供する。【解決手段】画像表示制御装置は、第1カメラの撮影に基づいて生成された第1画像と、第2カメラの撮影に基づいて生成され、前記第1画像の撮影者又は前記第1カメラが映り込んでいる第2画像と、前記第2画像に対応する背景画像であって、前記第1画像の撮影者又は前記第1カメラが映り込んでいない背景画像と、を取得する取得部と、少なくとも1つの前記第2画像に基づいて、前記第1画像の撮影者又は前記第1カメラの位置を抽出する位置抽出部と、前記抽出された位置に関連付けて、前記第1画像を前記背景画像上に表示するように制御する制御部とを備える。【選択図】図8
Description
本発明は、画像表示制御装置、画像表示制御方法、及びプログラムに関する。
従来、建物等の施設において、その施設の現在の状況をカメラ等で撮影して、その画像を画像管理装置により管理する画像管理方法が知られている。このような画像管理方法では、複数の画像を台帳に収めて管理することがある。この台帳を参照することにより、例えば、工事の施工記録や現地調査の記録等の施設の状況を収めた画像を参照することができる。そのような用途で利用される台帳には、画像の他、その画像の説明資料等が含まれることがある。画像の説明資料には、例えば、撮影者がその画像を撮影した地点等を記録に残すように、その周辺を示す平面図等が含まれており、その平面図中にはその画像の識別番号、その画像を撮影した地点等が記載されることがある。
また、1回の撮影操作で、撮影地点の周囲の状況を1つの全周囲画像に収める技術が知られている(例えば、特許文献1参照。)。
しかしながら、撮影の現場では、撮影の都度、平面図等に撮影の記録としてのメモを残しながら目的の作業を行い、また、現場を引き上げてから、上記のような台帳を作成することがある。このように撮影中の作業も台帳を作成する作業も、撮影した画像の数量の増加に伴い増大し、煩雑になることがある。
また、全周囲画像では、撮影地点から目的の対象物(被写体)までの距離が遠くなると、その対象物の状況を、必要とされる解像度で記録することができないことがある。これに対し、必要とされる解像度の画像が得られるように目的の対象物に接近して撮影することにすると、全周囲画像としての特徴を有効に利用することができずに画像の数量が増えてしまい、個別の画像を複数撮影する場合と同様に煩雑になることがある。
また、全周囲画像では、撮影地点から目的の対象物(被写体)までの距離が遠くなると、その対象物の状況を、必要とされる解像度で記録することができないことがある。これに対し、必要とされる解像度の画像が得られるように目的の対象物に接近して撮影することにすると、全周囲画像としての特徴を有効に利用することができずに画像の数量が増えてしまい、個別の画像を複数撮影する場合と同様に煩雑になることがある。
本発明が解決しようとする課題は、状況を記録した画像を、より簡易な方法で管理する画像表示制御装置、画像表示制御方法、及びプログラムを提供することにある。
(1)本発明の一態様の画像表示制御装置は、第1カメラの撮影に基づいて生成された第1画像と、第2カメラの撮影に基づいて生成され、前記第1画像の撮影者又は前記第1カメラが映り込んでいる第2画像と、前記第2画像から生成された背景画像と、を記憶部から取得する取得部と、前記第2画像に基づいて、前記第1画像の撮影者又は前記第1カメラの位置情報を抽出し、前記第2画像から抽出した位置情報に基づいて、前記背景画像上に、前記第1画像の撮影者に対応するオブジェクトを表示するように制御する制御部とを備える画像表示制御装置である。
(2)また、上記の画像表示制御装置における前記制御部は、前記第1画像を撮影した際の前記第1画像の撮影者又は前記第1カメラの姿勢に基づいて、前記背景画像上に、前記第1画像を表示する位置を決定する。
(3)また、上記の画像表示制御装置における前記制御部は、前記第1画像の撮影者に対応するオブジェクトを、前記第1画像の撮影者の像に基づいて生成する。
(4)また、上記の画像表示制御装置における前記制御部は、前記第1画像の撮影者又は前記第1カメラの像に基づいて、前記第1画像の撮影者又は前記第1カメラの姿勢を推定する。
(5)また、上記の画像表示制御装置における前記制御部は、前記第1カメラの姿勢を、前記第1カメラが備えるセンサによる検出結果により決定する。
(6)また、本発明の一態様の画像表示制御方法は、第1カメラの撮影に基づいて生成された第1画像と、第2カメラの撮影に基づいて生成され、前記第1画像の撮影者又は前記第1カメラが映り込んでいる第2画像と、前記第2画像から生成された背景画像と、を記憶部から取得するステップと、前記第2画像に基づいて、前記第1画像の撮影者又は前記第1カメラの位置情報を抽出し、前記第2画像から抽出した位置情報に基づいて、前記背景画像上に、前記第1画像の撮影者に対応するオブジェクトを表示するように制御するステップを含む画像表示制御方法である。
(7)また、本発明の一態様のプログラムは、第1カメラの撮影に基づいて生成された第1画像と、第2カメラの撮影に基づいて生成され、前記第1画像の撮影者又は前記第1カメラが映り込んでいる第2画像と、前記第2画像から生成された背景画像と、を記憶部から取得するステップと、前記第2画像に基づいて、前記第1画像の撮影者又は前記第1カメラの位置情報を抽出し、前記第2画像から抽出した位置情報に基づいて、前記背景画像上に、前記第1画像の撮影者に対応するオブジェクトを表示するように制御するステップをコンピュータに実行させるためのプログラムである。
(2)また、上記の画像表示制御装置における前記制御部は、前記第1画像を撮影した際の前記第1画像の撮影者又は前記第1カメラの姿勢に基づいて、前記背景画像上に、前記第1画像を表示する位置を決定する。
(3)また、上記の画像表示制御装置における前記制御部は、前記第1画像の撮影者に対応するオブジェクトを、前記第1画像の撮影者の像に基づいて生成する。
(4)また、上記の画像表示制御装置における前記制御部は、前記第1画像の撮影者又は前記第1カメラの像に基づいて、前記第1画像の撮影者又は前記第1カメラの姿勢を推定する。
(5)また、上記の画像表示制御装置における前記制御部は、前記第1カメラの姿勢を、前記第1カメラが備えるセンサによる検出結果により決定する。
(6)また、本発明の一態様の画像表示制御方法は、第1カメラの撮影に基づいて生成された第1画像と、第2カメラの撮影に基づいて生成され、前記第1画像の撮影者又は前記第1カメラが映り込んでいる第2画像と、前記第2画像から生成された背景画像と、を記憶部から取得するステップと、前記第2画像に基づいて、前記第1画像の撮影者又は前記第1カメラの位置情報を抽出し、前記第2画像から抽出した位置情報に基づいて、前記背景画像上に、前記第1画像の撮影者に対応するオブジェクトを表示するように制御するステップを含む画像表示制御方法である。
(7)また、本発明の一態様のプログラムは、第1カメラの撮影に基づいて生成された第1画像と、第2カメラの撮影に基づいて生成され、前記第1画像の撮影者又は前記第1カメラが映り込んでいる第2画像と、前記第2画像から生成された背景画像と、を記憶部から取得するステップと、前記第2画像に基づいて、前記第1画像の撮影者又は前記第1カメラの位置情報を抽出し、前記第2画像から抽出した位置情報に基づいて、前記背景画像上に、前記第1画像の撮影者に対応するオブジェクトを表示するように制御するステップをコンピュータに実行させるためのプログラムである。
本発明によれば、状況を記録した画像を、より簡易な方法で管理する画像表示制御装置、画像表示制御方法、及びプログラムを提供できる。
以下、本発明の実施形態の画像表示制御装置、画像表示制御方法、及びプログラムについて、添付図面を参照して説明する。
(第1の実施形態)
図1は、本発明の実施形態に係る画像管理システムの概要を説明するための図である。
図1に示す画像管理システム1は、第1カメラ110と、第2カメラ120と、画像表示制御装置200とを含む。例えば、撮影者U1が施設2内の対象領域10においてその状況を記録することを例示して、本実施形態について説明する。
図1は、本発明の実施形態に係る画像管理システムの概要を説明するための図である。
図1に示す画像管理システム1は、第1カメラ110と、第2カメラ120と、画像表示制御装置200とを含む。例えば、撮影者U1が施設2内の対象領域10においてその状況を記録することを例示して、本実施形態について説明する。
第1カメラ110は、図1に示していない撮像素子、光学系、信号処理部、記憶部、通信部等を含めて構成される。第1カメラ110は、光学系を経て届いた光を撮像素子が検出し、信号処理部の処理を経て第1画像を生成する。その第1画像は、静止画像又は動画像の何れでもよい。例えば、第1カメラ110は、比較的高精細な画像を撮影することを可能とするものである。このような第1カメラ110は、所謂デジタルカメラ、スマートフォン等の携帯型の装置として構成されていてもよい。第1カメラ110は、撮影して得た第1画像を、通信部を介して送信してもよく、それを記憶媒体に書き込み、外部の装置に提供可能にしてもよい。
実施形態の第1カメラ110は、例えば撮影者U1によって携行され、撮影者U1の操作等により撮影して第1画像を生成する。例えば、カメラで撮影する一般的な要領と同様の方法で、撮影者U1は、第1カメラ110を手で支持して撮影する。つまり、第1カメラ110が撮影する方向は、撮影者U1により決定され、第1画像には、撮影者U1が決定した方向の撮影可能画角の範囲内に位置する被写体が撮影される。
第2カメラ120は、図1に示していない撮像素子、光学系、信号処理部、記憶部、通信部等を含めて構成される。第2カメラ120は、光学系を経て届いた光を撮像素子が検出し、信号処理部の処理を経て第2画像を生成する。その第2画像は、静止画像又は動画像の何れでもよい。
第2カメラ120は、例えば、第1カメラ110を用いて撮影する撮影者U1の位置の近傍に、当該第2カメラ120の位置を固定又は半固定にして配置され、配置された位置の周囲の画像を撮影して第2画像を生成する。例えば、第2カメラ120は、少なくとも撮影者U1又は第1カメラ110の移動に伴って移動しないポール、三脚、雲台等により支持された状態で、その所定の期間に渡って撮影する。上記の所定の期間は、撮影者U1が第1カメラ110を用いて、撮影する行為を1又は複数回実施する期間、1又は複数の静止画像を撮影する期間、連続性のある1又は複数の動画像を撮影する期間等の内の少なくとも何れかを含むように決定される。このようにして、第2カメラ120は、その位置を固定又は半固定にした状態で撮影することができる。なお、第2カメラ120は、その撮影後に移動することが制限されることはなく、例えば、走行等の方法で移動する移動手段を備えるものであれば、第2カメラ120が移動手段により移動してもよい。
上記のように第2カメラ120の撮影方向、画角、配置される位置等の撮影条件は、第1画像の撮影者U1又は第1カメラ110が映り込むように決定され、第1画像の水平画角が第2画像の水平画角より狭くなるように調整されている。第2カメラ120は、少なくとも第1カメラ110から第1画像の撮影実施の通知を受けて、その撮影に同期して静止画像を撮影するか、第1カメラ110の撮影前に録画開始の通知などに応じて動画像を記録するように、撮影条件が制限される。
例えば、第2カメラ120は、比較的広い画角で撮影することを可能とする光学系を有し、所謂パノラマ画像、全周囲画像、正距円筒図法による画像(以下、正距円筒画像という。)等の撮影を可能とするものである。なお、第2カメラ120は、複数の撮像素子を有していて、それぞれの撮像素子により撮影された画像を合成して、上記のような画像(第2画像)を生成してもよい。このような第2カメラ120は、所謂デジタルカメラ、スマートフォン等の携帯型の装置として構成されていてもよい。第2カメラ120は、撮影して得た第2画像等を、通信部を介して送信してもよく、それを記憶媒体に書き込み、外部の装置に提供可能にしてもよい。
図2は、実施形態に係る第2画像の一例について説明するための図である。
この図2に示す画像は、正距円筒画像の一例であり、図2(a)と図2(b)にそれぞれ示す第2画像(PIC2)は、互いに異なる時刻で撮影されたものの一例である。この図2に示すように、撮影者U1が、第1カメラ110を携帯して、第2カメラ120の近傍を移動して、第1カメラ110を用いて目的の第1画像を撮影したことが、各第2画像に記録されている。
この図2に示す画像は、正距円筒画像の一例であり、図2(a)と図2(b)にそれぞれ示す第2画像(PIC2)は、互いに異なる時刻で撮影されたものの一例である。この図2に示すように、撮影者U1が、第1カメラ110を携帯して、第2カメラ120の近傍を移動して、第1カメラ110を用いて目的の第1画像を撮影したことが、各第2画像に記録されている。
図3は、実施形態に係る画像表示制御装置の構成図である。画像表示制御装置200は、例えば、CPU200Aと、RAM(Random Access Memory)200Bと、不揮発性記憶装置200Cと、可搬型記憶媒体収納部200Dと、入出力装置200Eと、通信インターフェース200Fとを備える。画像表示制御装置200は、CPU200Aに代えて、任意の形態のプロセッサを備えてもよいし、図2に示した各構成要素のうち一部を省略してもよい。
CPU200Aは、不揮発性記憶装置200Cに格納されたプログラム、又は可搬型記憶媒体収納部200Dに装着された可搬型記憶媒体に格納されたデータをRAM200Bに展開して実行することで、以下に説明する種々の処理を行う。RAM200Bは、CPU200Aによってワーキングエリアとして使用される。不揮発性記憶装置200Cは、例えば、HDDやフラッシュメモリ、ROM(Read Only Memory)などである。可搬型記憶媒体収納部200Dには、SDカード又はSIMカードなどの可搬型記憶媒体が装着される。入出力装置200Eは、例えば、タッチパネル、表示装置などを含む。通信インターフェース200Fは、ネットワークNWに接続され、画像表示制御装置200における通信を制御する。
図4を参照して、実施形態に係る画像表示制御装置の機能構成について説明する。図4は、実施形態に係る画像表示制御装置200の機能構成を示す図である。画像表示制御装置200は、記憶部210と、制御部220とを備える。
記憶部210は、取得した第1画像(PIC1)と第2画像(PIC2)が関連付けられて格納される撮影画像DB211、第2画像に対応する背景画像(PICBG)が格納される背景画像DB212、表示画像に係るデータが格納される表示画像DB213等を格納する。
制御部220は、受付処理部221と、画像取得部222(取得部)と、位置抽出部223と、表示制御部224と、通信処理部225と,撮影方向推定部226とを備える。これらの機能部は、例えば、CPU200Aがプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。
受付処理部221は、入出力装置200Eによって検出された撮影者U1などのユーザの操作を受け付ける。例えば、受付処理部221は、入出力装置200Eにより表示された画像上のボタンなどを選択する操作を検出して、ユーザの操作として受け付ける。受付処理部221は、検出したユーザの操作に基づいた処理を、制御部220における各部に実行させる。
画像取得部222は、第1カメラ110から第1画像を取得し、第2カメラ120から第2画像を取得して撮影画像DB211に格納する。なお、実施形態の画像取得部222は、第2カメラ120から背景画像を取得して背景画像DB212に格納する。図5は、実施形態の背景画像の一例について説明するための図である。
位置抽出部223は、撮影画像DB211に格納された少なくとも1つの第2画像に基づいて、第1画像の撮影者U1又は第1カメラ110の位置を抽出する。
本実施形態の位置抽出部223は、第2画像に基づいて、第1画像の撮影者U1又は第1カメラ110の位置を抽出する。
表示制御部224は、第1画像等を、位置抽出部223によって抽出された位置に関連付けて、背景画像上に表示するように制御する。その詳細については後述する。
通信処理部225は、ネットワークに接続され、第1カメラ110、第2カメラ120、端末装置等と通信を制御する。
撮影方向推定部226は、第1カメラ110が撮影して第1画像を生成する際の、第1カメラ110の光学系112の光軸が向けられている方向を推定する。推定方法の詳細については後述する。
図6と図7を参照して、実施形態に係る画像形成の手順について説明する。
図6は、実施形態に係る画像形成の手順を示すフローチャートである。図7は、実施形態に係る画像形成の処理の概要を説明するための図である。
図6は、実施形態に係る画像形成の手順を示すフローチャートである。図7は、実施形態に係る画像形成の処理の概要を説明するための図である。
まず、撮影者U1等により、所望の位置に第2カメラ120が配置される(ステップSA10)。
次に、第1カメラ110と第2カメラ120とが、第1画像と第2画像とを対応付けるように撮影する(ステップSA20)。例えば、第1カメラ110は、撮影して第1画像を生成する際に、撮影時刻を示す時刻情報を合わせて記録する。第2カメラ120は、撮影して第2画像を生成する際に、撮影時刻を示す時刻情報を合わせて記録する。第1画像に関する時刻情報と第2画像に関する時刻情報とに基づいて、それぞれに対応付けることを可能にする。なお、第1カメラ110は、撮影時に第2カメラ120に対して、静止画像の撮影指示を送り、第2カメラ120に撮影させてもよい。
次に、第1カメラ110と第2カメラ120とが、第1画像と第2画像とを対応付けるように撮影する(ステップSA20)。例えば、第1カメラ110は、撮影して第1画像を生成する際に、撮影時刻を示す時刻情報を合わせて記録する。第2カメラ120は、撮影して第2画像を生成する際に、撮影時刻を示す時刻情報を合わせて記録する。第1画像に関する時刻情報と第2画像に関する時刻情報とに基づいて、それぞれに対応付けることを可能にする。なお、第1カメラ110は、撮影時に第2カメラ120に対して、静止画像の撮影指示を送り、第2カメラ120に撮影させてもよい。
次に、画像取得部222は、第1画像、第2画像をそれぞれのカメラから取得して(ステップSA30)、それぞれを記憶部210に格納する。
次に、位置抽出部223は、第2画像から撮影者U1又は前記第1カメラの位置を特定し、前記第1画像の撮影者又は前記第1カメラの位置情報を抽出する(ステップSA40)。例えば、位置抽出部223は、撮影者U1の頭部の位置又は第1カメラの位置を特定して、撮影者U1の位置としてもよい。位置抽出部223は、撮影者U1の頭部の位置を、第2画像上の撮影者U1の頭部の像の範囲の重心に対応付けてもよい。又は、位置抽出部223は、第1カメラの位置を、第2画像上の第1カメラの像の範囲の重心に対応付けてもよい。
次に、表示制御部224は、背景画像の有無について判定する(ステップSA42)。ステップSA42において、背景画像が有る場合には、表示制御部224は、処理をステップS50に進める。ステップSA42において、背景画像が無い場合には、表示制御部224は、第2画像に基づいて背景画像を生成する(ステップSA44)。
ステップS44の処理を終えた後、又は、ステップSA42において背景画像が有ると判定された後に、表示制御部224は、第2画像から抽出した位置情報に基づいて、背景画像上に、第1画像の撮影者U1に対応するオブジェクトを表示するように制御する。例えば、上記のオブジェクトは、第1画像の縮小版である所謂サムネイル画像であってもよい。これにより、表示制御部224は、第1画像を、上記の位置に関連付けて背景画像上に表示する(ステップSA50)。
次に、表示制御部224は、第1画像の位置の変更する要求の有無について判定する(ステップSA60)。第1画像の位置の変更する要求が有る場合、第1画像の位置の変更する指示を受け付けて、その指示に従い背景画像上の第1画像の位置を変更する(ステップSA70)。
ステップSA60において第1画像の位置の変更する要求が無いと判定された場合、又は、ステップSA70の処理を終えた後に、図6に示す一連の処理を終える。なお、上記の手順は一例を示すものであり、上記の手順に従い順に処理を実施することの他、一部の処理の順序を替えて実施してもよく、並行して実施してもよい。
ステップSA60において第1画像の位置の変更する要求が無いと判定された場合、又は、ステップSA70の処理を終えた後に、図6に示す一連の処理を終える。なお、上記の手順は一例を示すものであり、上記の手順に従い順に処理を実施することの他、一部の処理の順序を替えて実施してもよく、並行して実施してもよい。
なお、表示制御部224は、背景画像、第1画像、撮影者U1の像等を、互いに異なるレイヤにそれぞれ割り付けて、各レイヤに割り付けた像を表示するか表示しないかの処理を、上記のレイヤ単位に実施するようにしてもよい。
図8と図9は、実施形態の表示画像DB213の一例について説明するための図である。
図8と図9は、実施形態の表示画像DB213の一例について説明するための図である。
図8に示すように、画像は、例えば、複数のレイヤで構成される。各レイヤには、背景画像のレイヤLBG、第1画像のレイヤLPIC1−1、撮影者U1の像のレイヤLU1−1等が含まれる。背景画像上に表示する第1画像に対応する、第1画像のレイヤLPIC1−1と、撮影者U1の像のレイヤLU1−1は組にして管理される。
なお、第1画像のレイヤLPIC1−1と、撮影者U1の像のレイヤLU1−1と、上記の矢印AR1−1を含むレイヤLA1は、撮影者U1に対応付けて設けられていてもよく、各撮影者に共通するように設けられていてもよい。前者の場合、第1画像のレイヤLPIC1−1と、撮影者U1の像のレイヤLU1−1と、上記の矢印AR1−1を含むレイヤLA1を含む組が撮影者ごとに設けられることにより、少なくとも撮影者の人数分の組数以上用意するとよい。後者の場合、第1画像のレイヤLPIC1−1と、撮影者U1の像のレイヤLU1−1と、上記の矢印AR1−1を含むレイヤLA1を含む組を、少なくとも1組用意するとよい。
なお、第1画像のレイヤLPIC1−1と、撮影者U1の像のレイヤLU1−1と、上記の矢印AR1−1を含むレイヤLA1は、撮影者U1に対応付けて設けられていてもよく、各撮影者に共通するように設けられていてもよい。前者の場合、第1画像のレイヤLPIC1−1と、撮影者U1の像のレイヤLU1−1と、上記の矢印AR1−1を含むレイヤLA1を含む組が撮影者ごとに設けられることにより、少なくとも撮影者の人数分の組数以上用意するとよい。後者の場合、第1画像のレイヤLPIC1−1と、撮影者U1の像のレイヤLU1−1と、上記の矢印AR1−1を含むレイヤLA1を含む組を、少なくとも1組用意するとよい。
図9に示すように表示画像DB213には、背景画像、第1画像、撮影者U1の像等の像を対応付けるためのデータと、背景画像PICBGにおける第1画像PIC1−1、撮影者U1の像等の位置を示すデータとが対応付けられて、表示画像に係るデータとして格納される。
図10を参照して、実施形態に係る背景画像の形成に関する処理の手順について説明する。図10は、実施形態に係る背景画像の形成に関する処理の手順を示すフローチャートである。
まず、表示制御部224は、撮影者U1等の移動する被写体が存在する状況か否かを問わずに、撮影時刻が異なるように所定の時間間隔を空けて複数の第2画像を撮影する(ステップSA442)。この複数の第2画像とは、複数の静止画像であってもよく、一連の動画像の内の異なる時刻の画像であってもよい。以下、これらを纏めて「複数の第2画像」と呼ぶ。なお、下記の背景画像を生成する処理に適した複数の第2画像が既に格納されている場合には、このステップの処理を省略することができる。背景画像を生成する処理に適した複数の第2画像とは、動体の像の範囲が互いに重ならない画像であることを必要条件とするものである。
次に、表示制御部224は、複数の第2画像に基づいて、背景差分等の手法により動体を検出して、その動体の像を画像から削除するとともに、その削除した範囲を移動しない被写体の像で補うように画像を合成する画像処理の手法により背景画像を生成し(ステップSA444)、背景画像DBに格納する。
続いて、上記の「第2画像から撮影者U1の位置を特定する処理」(ステップSA40)と、「第1画像を撮影者U1の位置に関連付けて背景画像上に表示する処理」(ステップSA50)と、「背景画像上の第1画像の位置を変更する処理」(ステップSA70)とに関するより具体的な事例について説明する。
[第2画像から撮影者U1の位置を特定する処理]
位置抽出部223は、撮影者U1の位置を、下記の何れかの方法で特定する。
位置抽出部223は、撮影者U1の位置を、下記の何れかの方法で特定する。
・第2画像と背景画像に基づく処理
位置抽出部223は、第2画像と背景画像に基づき、第2画像と背景画像の差を取り、その差があった位置に動体が存在すると推定し、推定した動体に対して識別情報(動体ID)を付与する。なお、位置抽出部223は、検出した動体を人として特定してもよく、予め定められた条件を満たす場合に、その動体を人として特定してもよい。
位置抽出部223は、第2画像と背景画像に基づき、第2画像と背景画像の差を取り、その差があった位置に動体が存在すると推定し、推定した動体に対して識別情報(動体ID)を付与する。なお、位置抽出部223は、検出した動体を人として特定してもよく、予め定められた条件を満たす場合に、その動体を人として特定してもよい。
・撮影時刻が互いに異なる複数の第2画像に基づく処理
位置抽出部223は、撮影時刻が互いに異なる複数の第2画像に基づき、互いの画像の差を取り、その差があった位置に動体が存在すると推定し、特定した動体に対して識別情報(動体ID)を付与する。なお、位置抽出部223は、検出した動体を人として特定してもよく、予め定められた条件を満たす場合に、その動体を人として特定してもよい。
位置抽出部223は、撮影時刻が互いに異なる複数の第2画像に基づき、互いの画像の差を取り、その差があった位置に動体が存在すると推定し、特定した動体に対して識別情報(動体ID)を付与する。なお、位置抽出部223は、検出した動体を人として特定してもよく、予め定められた条件を満たす場合に、その動体を人として特定してもよい。
例えば、上記の何れかの方法に基づいて特定した動体に対してそれを代表する代表点を予め定める。位置抽出部223は、その代表点の位置を検出する。位置抽出部223は、上記の識別情報(動体ID)と、代表点の位置とを関連付けて、それらを撮影者U1の位置を示す情報として扱う。
[第1画像を撮影者U1の位置に関連付けて背景画像上に表示する処理]
実施形態の撮影方向推定部226は、第1カメラ110が撮影した際の撮影方向を、下記の何れかの方法で推定し、その結果に基づいて第1画像を配置する。
・第1カメラ110に内蔵されたセンサを利用する方法
・第2カメラ120によって撮像された第1カメラ110の画像に基づいて推定する方法
実施形態の撮影方向推定部226は、第1カメラ110が撮影した際の撮影方向を、下記の何れかの方法で推定し、その結果に基づいて第1画像を配置する。
・第1カメラ110に内蔵されたセンサを利用する方法
・第2カメラ120によって撮像された第1カメラ110の画像に基づいて推定する方法
なお、第1カメラ110が撮影した際の撮影方向は、例えば、撮影者U1が第1カメラ110を利用して撮影した際の撮影方向であってもよい。以下の説明では、上記の撮影方向を、第1カメラ110の光学系の光軸の方向に一致するものとして説明する。
(第1カメラ110に内蔵されたセンサを利用して、撮影方向を推定する方法)
本実施形態では、第1カメラ110に内蔵されたセンサを利用して、撮影方向を推定する方法について説明する。
この方法は、少なくとも撮影時の第1カメラ110の姿勢と、第2画像に基づいて抽出される撮影者U1又は第1カメラ110の位置とに基づいて、撮影方向を推定するものである。
本実施形態では、第1カメラ110に内蔵されたセンサを利用して、撮影方向を推定する方法について説明する。
この方法は、少なくとも撮影時の第1カメラ110の姿勢と、第2画像に基づいて抽出される撮影者U1又は第1カメラ110の位置とに基づいて、撮影方向を推定するものである。
図11は、実施形態の撮影方向の推定処理の手順を示すフローチャートである。
まず、撮影方向推定部226は、撮影時の第1カメラ110の姿勢を、第1カメラ110が備える各種センサにより検出する(ステップSA52)。
例えば、第1カメラ110は、自装置の姿勢を検出可能とする各種センサを備えるものである。その各種センサは、第1カメラ110の姿勢の変化に応じて変化する物理量を検出して出力する。第1カメラ110は、上記の各種センサが検出した物理量の検出値に基づくセンサデータを、第1画像の属性データに、第1画像を撮影する際に追加する。センサデータとは、検出値そのものであってもよく、検出値に基づいてそれを変換して生成されたものであってもよい。
例えば、第1カメラ110は、自装置の姿勢を検出可能とする各種センサを備えるものである。その各種センサは、第1カメラ110の姿勢の変化に応じて変化する物理量を検出して出力する。第1カメラ110は、上記の各種センサが検出した物理量の検出値に基づくセンサデータを、第1画像の属性データに、第1画像を撮影する際に追加する。センサデータとは、検出値そのものであってもよく、検出値に基づいてそれを変換して生成されたものであってもよい。
次に、撮影方向推定部226は、画像表示制御装置200が第1カメラ110から取得する第1画像には、属性情報が付与されており、その属性情報には上記のようなセンサデータが含まれる。画像表示制御装置200の表示制御部224は、第1カメラ110から取得したデータから、第1画像を撮影する時の第1カメラ110の姿勢を推定し(ステップSA54)、図に示す一連の処理を終える。
上記の手順により、撮影方向推定部226は、撮影方向を推定する。
なお、撮影方向推定部226は、第1カメラ110が備えているセンサの種類により、下記のように処理をしてもよい。
例えば、第1カメラ110が3次元加速度センサを備えている場合には、表示制御部224は、3次元加速度センサに関するセンサデータd1から、第1カメラ110本体の3次元空間における姿勢を推定してもよい。なお、この3次元加速度センサに関するセンサデータd1に基づいた推定では、鉛直方向(Z軸方向)を基準にした傾きが導出される。
また、第1カメラ110が磁気センサを備えている場合には、表示制御部224は、磁気センサに関するセンサデータd2から、第1カメラ110本体の周囲環境の磁気に対する第1カメラ110本体の方向を推定してもよい。例えば、第1カメラ110本体の周囲環境の磁気を地磁気によるものとすれば、絶対方位に対する方向を推定することができる。
なお、上記の他、第1カメラ110が光センサ115(図14)等を備えている場合には、表示制御部224は、光センサ115に関するセンサデータd3から、第1カメラ110本体の周囲環境の明るさを基準にして第1カメラ110本体の方向を推定してもよい。例えば、天井に照明が有ると仮定すれば、検出した天井と床の明るさのバランスから、第1カメラ110本体の傾きを検出することができる。
更に、撮影方向推定部226は、3次元加速度センサ、磁気センサなどの複数種類(n種類)のセンサを組み合わせて、例えば、下記に示すような方法で第1カメラ110の姿勢を推定してもよい。
各種センサからのセンサデータ(d1、d2、・・・dn)を変数にとる関数Fを用いることにより、第1カメラ110の姿勢を式(1)のように表すことができる。d1、d2、・・・dnの各変数は、それぞれが、3次元方向のデータを持つベクトルであると仮定する。
VCy=F(d1、d2、・・・dn) ・・・(1)
上記の式(1)において、VCyは、XYZ軸を用いて規定される実空間におけるベクトルであって、第1カメラ110の光軸の方向に関する推定値である。例えば、関数Fは、上記のセンサデータd1が示す第1カメラ110の傾きと、基準の方向とZ軸周りに転回した上記のセンサデータd2が示す方向とが為す角度(例えば、方位)とを変数にとる場合、これらに基づいて上記の推定値VCyを導出するものである。
VCy=(xce、yce、zce)T ・・・(2)
なお、上記の式(2)におけるxce、yce、zceは、3次元座標系におけるXYZ方向の各成分である。添え字の「T」は、転置ベクトルを示す。
この第1カメラ110の光軸の方向に関する推定値VCyを、第3画像を成す面に射影して、撮影者U1の視線の方向に関する推定値VLSyを得る。推定値VLSyは、式(3)により導出してもよい。
VLSy=(xLSe、zLSe)T ・・・(3)
上記の式(3)において、xLSe、zLSeは、例えば、第3画像を平面に射影した面の2次元座標系におけるxz方向の各成分である。
撮影方向推定部226は、上記の図9に示す一連の処理を終える。
[表示]
図12を参照して、実施形態の第1画像を撮影者U1の位置に関連付けて背景画像上に表示する処理について説明する。図12は、実施形態の第1画像を撮影者U1の位置に関連付けて背景画像上に表示する処理により生成される表示の一例を示す図である。
符号PICBGは、背景画像として表示する画像の範囲を示す。この画像は、上記第2画像に対応する背景画像に基づくものであり、例えば、正距円筒画像である。以下に示す各画像は、位置抽出部223が抽出した第1画像の撮影者U1又は前記第1カメラ110の位置に基づいて、表示制御部224によって、背景画像上に前記第1画像を重ねて表示するための処理が実行されて生成される。
図12を参照して、実施形態の第1画像を撮影者U1の位置に関連付けて背景画像上に表示する処理について説明する。図12は、実施形態の第1画像を撮影者U1の位置に関連付けて背景画像上に表示する処理により生成される表示の一例を示す図である。
符号PICBGは、背景画像として表示する画像の範囲を示す。この画像は、上記第2画像に対応する背景画像に基づくものであり、例えば、正距円筒画像である。以下に示す各画像は、位置抽出部223が抽出した第1画像の撮影者U1又は前記第1カメラ110の位置に基づいて、表示制御部224によって、背景画像上に前記第1画像を重ねて表示するための処理が実行されて生成される。
図12(a)における画像PICBG上の一部に、第1画像を示すオブジェクト(PIC1)と撮影者U1等の像とが配置されている。例えば、この第1画像を示すオブジェクト(PIC1−1)は、第1画像を縮小した画像、所謂サムネイル画像である。なお、このオブジェクトを上記のサムネイル画像に代えて、第1画像を示すアイコンにしてもよい。また、この撮影者U1等の像は、第2画像から抽出された撮影者U1等の像に基づくものであり、撮影者U1が撮影した位置に対応する位置を画像PICBG上に示すものである。
例えば、表示制御部224は、撮影方向推定部226による推定の結果に基づいて、画像PICBGにおけるオブジェクト(PIC1)を配置する。表示制御部224は、オブジェクト(PIC1)の位置を、上記の推定の結果である撮影者U1等の像の位置を基準にして決定する。表示制御部224は、オブジェクト(PIC1)の位置を、撮影者U1が第1カメラ110の光学系の光軸を向けて撮影した方向に対応する方向に決定する。さらに、オブジェクト(PIC1)が、撮影者U1の視点の位置から離れた位置にあることにより、表示制御部224は、オブジェクト(PIC1)と撮影者U1の像と間を繋ぐように、線RL1−1を描画してもよい。図に示す線RL1−1は、オブジェクト(PIC1)の中心(画像上の重心)と撮影者U1が支持する第1カメラ110の像との間を結ぶ線を一例として示したものである。このようにして、画像PICBG上にオブジェクト(PIC1)を配置する位置を決定することにより、撮影者U1が第1カメラ110を利用して撮影する被写体に近づけて、上記のオブジェクト(PIC1)を表示することができる。
なお、この撮影者U1等の像は、操作により当該画像内に表示させてもよく、表示を消したりすることができる。
図12(b)における画像PICBG上の一部に、第1画像を示すオブジェクトと撮影者U1等の像を半透明化した象が配置されている。
例えば、図12(a)に示したように、撮影者U1等の像の表示を、表示又は非表示を切り替えることの他に、半透明化して表示してもよい。なお、半透明化して表示することに代えて、撮影者U1等の像の輪郭(シルエット)を表示するようにしてもよい。
例えば、図12(a)に示したように、撮影者U1等の像の表示を、表示又は非表示を切り替えることの他に、半透明化して表示してもよい。なお、半透明化して表示することに代えて、撮影者U1等の像の輪郭(シルエット)を表示するようにしてもよい。
なお、画像表示制御装置200は、上記の各画像の表示の種類を、ユーザの操作等に基づいて予め択一的に選択することができ、又は、複数の種類をユーザの操作等に基づいて選択し、切り替えて表示することができる。
[背景画像上の第1画像の位置を変更する処理]
図13を参照して、実施形態の背景画像上の第1画像の位置を変更する処理について説明する。図13は、実施形態の背景画像上の第1画像の位置を変更する処理により生成される表示の一例を示す図である。
図13を参照して、実施形態の背景画像上の第1画像の位置を変更する処理について説明する。図13は、実施形態の背景画像上の第1画像の位置を変更する処理により生成される表示の一例を示す図である。
前述の図12(a)のように、第1画像は、背景画像(画像PICBG)上の所望の位置に配置されている。所望の位置とは、撮影者U1の像の位置に関連付けて、撮影者U1が撮影する方向に背景画像(画像PICBG)上に表示するように決定された位置である。ここで、第1画像の位置を変更することが必要な場合には、画像表示制御装置200は、それを操作する撮影者U1等のユーザの操作に基づいて、画像PICBG内の他の位置に移動させて表示してもよい。その結果、図13に示すように第1画像は、背景画像上の位置を変更する処理によって決定された位置に改めて配置される。
なお、撮影者U1の像を表示したり、非表示にしたりすることは、図12の場合と同様に適宜切り替えることができる。
上記の実施形態によれば、画像表示制御装置200は、第1カメラ110の撮影に基づいて生成された第1画像と、第2カメラ120の撮影に基づいて生成され、第1画像の撮影者U1又は第1カメラが映り込んでいる第2画像と、第2画像から生成された背景画像と、を記憶部210から取得し、第2画像に基づいて、第1画像の撮影者又は前記第1カメラの位置情報を抽出し、第2画像から抽出した位置情報に基づいて、背景画像上に、第1画像の撮影者に対応するオブジェクトを表示するように制御部220が制御することにより、状況を記録した画像を、より簡易な方法で管理することができる。
また、制御部220は、第1画像PIC1を撮影した際の第1画像PIC1の撮影者U1又は第1カメラ110の姿勢に基づいて、背景画像PICBG上に、第1画像PIC1を表示する位置を決定することにより、撮影者U1が撮影する仕草、又は、第1カメラ110の光軸が向けられた方向に併せて、背景画像PICBG上における第1画像PIC1を表示する位置を決定できる。
また、制御部220は、第1画像PIC1の撮影者U1に対応するオブジェクトを、第1画像PIC1の撮影者U1の像に基づいて生成することにより、撮影者U1の像の位置に合うように第1画像PIC1の撮影者U1に対応するオブジェクトを表示させることができる。
また、制御部220は、第1カメラ110の姿勢を、第1カメラ110が備えるセンサによる検出結果により決定することで、撮影時の第1カメラ110の向きを検出することができる。
(第2の実施形態)
第2の実施形態について説明する。第1の実施形態では、第1カメラ110に内蔵されたセンサを利用して、撮影方向を推定する事例について説明した。本実施形態では、これに代えて、第2カメラによって撮像された画像に基づいて、撮影方向を推定する事例について説明する。
第2の実施形態について説明する。第1の実施形態では、第1カメラ110に内蔵されたセンサを利用して、撮影方向を推定する事例について説明した。本実施形態では、これに代えて、第2カメラによって撮像された画像に基づいて、撮影方向を推定する事例について説明する。
本実施形態では、画像表示制御装置200が、少なくとも撮影時の第1画像の撮影者U1又は第1カメラ110の像を第2画像から抽出し、第2画像に基づいて抽出される像の位置と、その像に基づいて推定される第1カメラ110の姿勢の推定結果とに基づいて、撮影方向を推定する事例を挙げて説明する。
例えば、第2カメラによって撮像された第2画像には、第1画像の撮影者U1又は第1カメラ110が映り込んでいる。前述の撮影者U1は、動体として特定される。第2画像における動体の位置の近傍の画像を対象範囲に含む。画像表示制御装置200の撮影方向推定部226は、対象範囲の画像から、撮影者U1又は第1カメラ110の像を抽出し、それぞれの姿勢から、第1カメラ110の姿勢を推定する。第1カメラ110には、様々な形状を有するものがある。
図14は、実施形態の第1カメラ110の代表的な事例を説明するための図である。
図14(a)に、第1カメラ110の本体111から突出する鏡筒113を有するタイプの一例を示し、図14(b)に第1カメラ110が鏡筒を有していないタイプの一例を示す。鏡筒113に、光学系112が収納される。
図14(a)に、第1カメラ110の本体111から突出する鏡筒113を有するタイプの一例を示し、図14(b)に第1カメラ110が鏡筒を有していないタイプの一例を示す。鏡筒113に、光学系112が収納される。
このような第1カメラ110は、図14(a)のように鏡筒113を有するタイプのものであってもよく、鏡筒113と同様の鏡筒を有していない図14(b)のようなタイプのものであってもよい。撮影方向推定部226は、第1カメラ110のタイプに合せて下記のような処理をするとよい。第1カメラ110のタイプは、予め決定されていてもよく、撮影方向推定部226が、第1画像の付加情報、又は、第2画像から抽出した結果に基づいて決定してもよい。
例えば、図14(a)に示すように鏡筒113を有するタイプのものであれば、鏡筒113の軸を光学系112の光軸CLとみなして、その方向を撮影方向とする。
また、例えば、図14(b)に示すように鏡筒を有していないタイプのものであれば、撮影者U1に支持された第1カメラ110の本体111を直方体RECとみなして近似するとよい。撮影方向推定部226は、直方体RECを形成する各面の内から、面の法線Nが撮影者U1の頭部から遠ざかる方向に向いた面FSを選択し、その面の法線Nの方向を光学系112の光軸CLの方向とみなす。このタイプに属する第1カメラ110は、上記の光学系112の光軸CLは、上記のとおり面FSの法線Nの方向に一致することが多いことから、撮影方向推定部226は、その法線Nの方向を撮影方向として扱うことができる。
また、第1カメラ110の本体111(直方体REC)を挟み、面FSに対する面BSには、図14(c)に示すように画像をモニタする表示部114が設けられており、撮影者U1は、その表示部114に表示されたモニタ画像を確認しながら撮影方向を調整することが多い。
撮影方向推定部226は、上記のような撮影者U1が撮影時にとる姿勢の特徴を抽出することにより、撮影方向を検出する。
上記の実施形態によれば、第1の実施形態と同様の効果を奏することの他、制御部220は、第1画像PIC1の撮影者U1又は第1カメラ110の像に基づいて、第1画像PIC1の撮影者U1又は第1カメラ110の姿勢を推定することにより、第2カメラ120によって撮像された画像に基づいて、撮影方向を推定することができる。
(第3の実施形態)
第3の実施形態について説明する。第1の実施形態と第2の実施形態の各実施形態では、互いに異なる1通りの方法を利用する事例について説明した。これに代えて、本実施形態では、複数の種類の推定方法を組み合わせる場合について例示する。
第3の実施形態について説明する。第1の実施形態と第2の実施形態の各実施形態では、互いに異なる1通りの方法を利用する事例について説明した。これに代えて、本実施形態では、複数の種類の推定方法を組み合わせる場合について例示する。
例えば、第1の組み合わせ方として、上記の複数種類の方法による撮影方向の推定処理の結果に基づいて、予め定められた判定基準に従った判定により、当該複数種類の方法の内から択一的に選択し、選択された処理の結果を推定処理の結果としてもよい。
また、第2の組み合わせ方として、上記の複数種類の方法による撮影方向の推定処理の結果に基づいて、それらを算術的に組み合わせる処理の結果を推定処理の結果としてもよい。
図15は、実施形態の撮影方向の推定処理の手順を示すフローチャートである。
まず、撮影方向推定部226は、第1カメラ110に内蔵された各種センサに基づいて撮影方向を推定し、第1推定値を導出する(ステップSB2)。
まず、撮影方向推定部226は、第1カメラ110に内蔵された各種センサに基づいて撮影方向を推定し、第1推定値を導出する(ステップSB2)。
次に、撮影方向推定部226は、第2カメラ120によって撮像された第2画像PIC2に基づいて撮影方向を推定し、第2推定値を導出する(ステップSB4)。
次に、撮影方向推定部226は、第1の推定による撮影方向(第1推定値)の第1信頼度と、第2の推定による撮影方向(第2推定値)の第2信頼度を推定する(ステップSB6)。
次に、撮影方向推定部226は、第1信頼度について判定し、第2信頼度について判定し、それぞれの結果を組み合わせて判定の結果を評価する(ステップSB8)。
次に、撮影方向推定部226は、評価の結果に従い、画像を表示する位置を決定するための条件を選択し(ステップSB10)、図に示す処理を終える。
図16を参照して、上記の第1信頼度の判定の結果と、第2信頼度の判定の結果とを組み合わせた判定に基づいた選択基準の一例について説明する。例えば、第1の信頼度と第2の信頼度のそれぞれについて、それぞれの期待値を基準に判定して、その判定結果を組み合わせて評価することにより、次に示すような選択処理を実施してもよい。図16は、実施形態の判定結果の論理的な組み合わせについて説明するための図である。
第1の事象として、第1信頼度と第2信頼度の双方が期待値以上の場合には、第1推定値と第2推定値との組み合わせを選択する。
第2の事象として、第1信頼度が期待値以上であるが、第2信頼度が期待値を満たさない又は第2推定値を導出できない場合には、第1カメラ110に内蔵された各種センサに基づいた第1推定値を選択する。
第3の事象として、第2信頼度が期待値以上であるが、第1信頼度が期待値を満たさない又は第1推定値を導出できない場合には、第2カメラ120によって撮像された第2画像PIC2に基づいた第2推定値を選択する。
第4の事象として、第1信頼度と第2信頼度の双方が期待値を満たさない場合、又は、双方の推定値を導出できない場合には、第1カメラ110の方向の推定値によらずに、予め定められた処理をする。例えば、この場合、人の位置(代表点の位置)に合わせて表示するようにしてもよい。
なお、上記の論理的な組み合わせの判定の結果から、上記の第1の事象であると判定された場合、つまり、第1信頼度と第2信頼度の双方が期待値以上の場合に、第1推定値と第2推定値とについての重みづけ処理(演算処理)により、総合的な評価に基づいた推定値Vyを導出してもよい。
第1推定値VCyと第2推定値VPyとの算術的な組み合わせの一例について説明する。例えば、総合的な評価に基づいた推定値Vyを、式(4)を用いて導出してもよい。
Vy=aVCy+(1−a)VPy ・・・(4)
上記の式(4)において、aは、係数であり、0から1までの値をとる。
上記の手順により、撮影方向の推定処理を実施することができる。
上記の実施形態によれば、第1実施形態と同様の効果を奏することの他、撮影方向の推定処理を複数の方法で実施することができる。
少なくとも上記の実施形態によれば、画像表示制御装置200は、第1カメラ110の撮影に基づいて生成された第1画像PIC1と、第2カメラ120の撮影に基づいて生成され、第1画像PIC1の撮影者U1又は第1カメラ110が映り込んでいる第2画像PIC2と、第2画像PIC2から生成された背景画像PICBGと、を記憶部210から取得する画像取得部222と、第2画像PIC2に基づいて、第1画像PIC1の撮影者U1又は第1カメラ110の位置情報を抽出し、第2画像PIC2から抽出した位置情報に基づいて、背景画像PICBG上に、第1画像PIC1の撮影者に対応するオブジェクトを表示するように制御する制御部220とを備えることにより、状況を記録した画像を、より簡易な方法で管理することができる。
なお、画像表示制御装置200を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより建物2等において撮影された画像を管理するための処理動作を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、ネットワークや通信回線のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…画像管理システム、2…建物、100…カメラ、110…第1カメラ、120…第2カメラ、200…画像表示制御装置、210…記憶部、220…制御部、221…受付処理部、222…画像取得部(取得部)、223…位置抽出部、224…表示制御部、225…通信処理部、226…撮影方向推定部
Claims (7)
- 第1カメラの撮影に基づいて生成された第1画像と、
第2カメラの撮影に基づいて生成され、前記第1画像の撮影者又は前記第1カメラが映り込んでいる第2画像と、
前記第2画像から生成された背景画像と、を記憶部から取得する取得部と、
前記第2画像に基づいて、前記第1画像の撮影者又は前記第1カメラの位置情報を抽出し、
前記第2画像から抽出した位置情報に基づいて、前記背景画像上に、前記第1画像の撮影者に対応するオブジェクトを表示するように制御する制御部と
を備える画像表示制御装置。 - 前記制御部は、
前記第1画像を撮影した際の前記第1画像の撮影者又は前記第1カメラの姿勢に基づいて、前記背景画像上に、前記第1画像を表示する位置を決定する、
請求項1に記載の画像表示制御装置。 - 前記制御部は、
前記第1画像の撮影者に対応するオブジェクトを、前記第1画像の撮影者の像に基づいて生成する、
請求項1又は請求項2に記載の画像表示制御装置。 - 前記制御部は、
前記第1画像の撮影者又は前記第1カメラの像に基づいて、前記第1画像の撮影者又は前記第1カメラの姿勢を推定する、
請求項1から請求項3の何れか1項に記載の画像表示制御装置。 - 前記制御部は、
前記第1カメラの姿勢を、前記第1カメラが備えるセンサによる検出結果により決定する、
請求項1から請求項3の何れか1項に記載の画像表示制御装置。 - 第1カメラの撮影に基づいて生成された第1画像と、
第2カメラの撮影に基づいて生成され、前記第1画像の撮影者又は前記第1カメラが映り込んでいる第2画像と、
前記第2画像から生成された背景画像と、を記憶部から取得するステップと、
前記第2画像に基づいて、前記第1画像の撮影者又は前記第1カメラの位置情報を抽出し、
前記第2画像から抽出した位置情報に基づいて、前記背景画像上に、前記第1画像の撮影者に対応するオブジェクトを表示するように制御するステップ
を含む画像表示制御方法。 - 第1カメラの撮影に基づいて生成された第1画像と、
第2カメラの撮影に基づいて生成され、前記第1画像の撮影者又は前記第1カメラが映り込んでいる第2画像と、
前記第2画像から生成された背景画像と、を記憶部から取得するステップと、
前記第2画像に基づいて、前記第1画像の撮影者又は前記第1カメラの位置情報を抽出し、
前記第2画像から抽出した位置情報に基づいて、前記背景画像上に、前記第1画像の撮影者に対応するオブジェクトを表示するように制御するステップ
をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017050035A JP2018157255A (ja) | 2017-03-15 | 2017-03-15 | 画像表示制御装置、画像表示制御方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017050035A JP2018157255A (ja) | 2017-03-15 | 2017-03-15 | 画像表示制御装置、画像表示制御方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018157255A true JP2018157255A (ja) | 2018-10-04 |
Family
ID=63718391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017050035A Pending JP2018157255A (ja) | 2017-03-15 | 2017-03-15 | 画像表示制御装置、画像表示制御方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018157255A (ja) |
-
2017
- 2017-03-15 JP JP2017050035A patent/JP2018157255A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10699481B2 (en) | Augmentation of captured 3D scenes with contextual information | |
JPWO2020072985A5 (ja) | ||
JP2021520584A (ja) | 住宅のデータ収集およびモデル生成方法 | |
JP6497965B2 (ja) | 画像処理装置及び画像処理方法 | |
JP2013162487A (ja) | 画像表示装置及び撮像装置 | |
US20160321833A1 (en) | Method and apparatus for generating moving photograph based on moving effect | |
JP6544996B2 (ja) | 制御装置及び制御方法 | |
WO2016023642A1 (en) | Panoramic video | |
CN110049246A (zh) | 电子设备的视频防抖方法、装置和电子设备 | |
JP2017120650A (ja) | 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム | |
JP6720778B2 (ja) | 画像管理システム、画像管理方法、及びプログラム | |
JP6635573B2 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
JP6617547B2 (ja) | 画像管理システム、画像管理方法、プログラム | |
JP2016194784A (ja) | 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム | |
JP6719945B2 (ja) | 情報処理装置、情報処理方法、情報処理システム及びプログラム | |
JP2016103248A (ja) | 画像提供システムおよび画像提供方法 | |
JP2018157255A (ja) | 画像表示制御装置、画像表示制御方法、及びプログラム | |
JP2019144958A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2018157256A (ja) | 画像表示制御装置、画像表示制御方法、及びプログラム | |
JP2018157254A (ja) | 画像管理装置、画像管理方法、及びプログラム | |
JP6346476B2 (ja) | 表示制御装置、制御方法、プログラム及び記録媒体 | |
JP6679784B2 (ja) | 画像処理装置及び画像処理方法 | |
JP6841977B2 (ja) | 撮影支援装置、撮影支援方法、及び撮影支援プログラム | |
JP2019125058A (ja) | 画像処理装置、撮影装置、画像処理方法、およびプログラム | |
JP2019054406A (ja) | 撮像装置、撮影方法、撮影システム、撮影補助サーバ |