JP2024017224A - 情報処理装置、入出力装置、情報処理システム、情報処理方法、入出力方法、およびプログラム - Google Patents

情報処理装置、入出力装置、情報処理システム、情報処理方法、入出力方法、およびプログラム Download PDF

Info

Publication number
JP2024017224A
JP2024017224A JP2022119725A JP2022119725A JP2024017224A JP 2024017224 A JP2024017224 A JP 2024017224A JP 2022119725 A JP2022119725 A JP 2022119725A JP 2022119725 A JP2022119725 A JP 2022119725A JP 2024017224 A JP2024017224 A JP 2024017224A
Authority
JP
Japan
Prior art keywords
image
photographing
input
map
respect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022119725A
Other languages
English (en)
Inventor
佳和 形部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022119725A priority Critical patent/JP2024017224A/ja
Priority to EP23184016.6A priority patent/EP4312432A1/en
Priority to US18/224,073 priority patent/US20240036791A1/en
Priority to CN202310920058.7A priority patent/CN117479022A/zh
Publication of JP2024017224A publication Critical patent/JP2024017224A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

【課題】マップに対する撮影位置の位置合わせを正確かつ容易に行うこと。【解決手段】サーバ50は、マップ211と、マップ211に対して位置決めされた第1の撮影位置を示す第1の位置画像213と、マップ211に対して位置決めされておらず第1の撮影位置に対する位置が仮決めされた静止画撮影位置を示す静止画撮影位置画像214と、を重畳して表示するとともに、第1の撮影位置画像213に対する静止画撮影位置画像214の相対位置を変更する位置変更操作を受け付ける入出力画面200を生成する生成部54を備える。【選択図】図23

Description

本開示内容は、情報処理装置、入出力装置、情報処理システム、情報処理方法、入出力方法、およびプログラムに関する。
特許文献1には、複数の視聴場所から視覚データをキャプチャすること、複数の視聴場所をリンクするデータをキャプチャすること、各視聴場所の視覚データを分析してその視聴場所からパノラマ画像を作成すること、リンクデータを分析することを含み、少なくともいくつかの表示位置間の相対位置/方向を決定し、そのような決定された位置/方向に基づいてパノラマ内に1つまたは複数の他のパノラマのそれぞれへのパノラマ間リンクを作成し、内部を表すために複数のリンクされたパノラマ画像を表示することが記載されている。
特許文献2には、複数の視聴場所からビデオデータをキャプチャすること、および複数の視聴場所をリンクするデータをキャプチャすること、各視聴場所のパノラマ画像を作成し、リンク情報を分析してユーザの移動経路をモデル化し、少なくともいくつかの視聴場所間の相対的な位置/方向を決定し、決定された位置/方向に基づいて、パノラマ内に1つまたは複数の他のパノラマのそれぞれへのパノラマ間リンクを作成し、内部を表すために複数のリンクされたパノラマ画像を表示することが記載されている。
特許文献3には、図面に基づいて、該図面における方位を示す第1方位情報を取得する第1取得手段と、前記図面上で示される場所にて撮影された撮影画像に基づいて、該撮影画像における方位を示す第2方位情報を取得する第2取得手段と、前記第1方位情報と、前記第2方位情報とに基づいて、前記図面における方位と前記撮影画像における方位とを紐付ける紐付け手段と、を備える情報処理システムが記載されている。
米国特許第10375306号明細書 米国特許第10530997号明細書 特開2020‐87287号公報
本発明は、マップに対する撮影位置の位置をユーザ所望の位置に変更することを課題とする。
本発明に係る情報処理装置は、マップと、マップに対して位置決めされた第1の撮影位置を示す第1の位置画像と、マップに対して位置決めされておらず第1の撮影位置に対する位置が仮決めされた第2の撮影位置を示す第2の位置画像と、を重畳して表示するとともに、第1の位置画像に対する第2の位置画像の相対位置を変更する位置変更操作を受け付ける入出力画面を生成する生成部を備えた。
本発明によれば、マップに対する撮影位置の位置をユーザ所望の位置に変更することができる。
本発明の実施形態に係る画像処理システムの全体構成の一例を示す図である。 撮影装置によって撮影された全天球画像の一例を示す図である。 (A)は撮影装置で撮影された半球画像(前)、(B)は撮影装置で撮影された半球画像(後)、(C)は正距円筒図法により表された画像を示した図である。 (A)正距円筒射影画像で球を被う状態を示した概念図、(B)全天球画像を示した図である。 全天球画像を三次元の立体球とした場合の仮想カメラおよび所定領域の位置を示した図である。 所定領域情報と所定領域Tの画像との関係を示した図である。 撮影装置による撮影時の状態の一例を示す図である。 全天球画像の一例を説明するための図である。 全天球画像から変換された平面画像の一例を説明するための図である。 (A)(B)画像処理システムに適用可能な撮影装置の一例について説明するための概略図である。 一般撮影装置によって撮影された撮影画像の一例について説明するための図である。 本実施形態に係るサーバによって実行される処理の一例について説明するための概略図である。 本実施形態に係る撮影装置のハードウエア構成の一例を示す図である。 本実施形態に係るサーバおよび通信端末のハードウエア構成の一例を示す図である。 本実施形態に係る画像処理システムの機能構成の一例を示す図である。 本実施形態に係る画像管理テーブルの一例を示す概念図である。 本実施形態に係る処理の一例を示すシーケンス図である。 本実施形態に係るツアー撮影処理の一例を示すフローチャートである。 本実施形態に係る入出力画面の説明図である。 本実施形態に係る第1の撮影位置設定の説明図である。 本実施形態に係るツアー画像の説明図である。 本実施形態に係る第2の撮影位置変更前の説明図である。 本実施形態に係る第2の撮影位置変更後の説明図である。 本実施形態に係る第2の撮影位置と固定撮影位置の対応付けの説明図である。 本実施形態に係る第2の撮影位置と固定撮影位置の対応付け後の説明図である。 本実施形態に係る撮影方向・範囲を示すマークの説明図である。 本実施形態に係る撮影位置変更等の一例を示すフローチャートである。 本実施形態の第1の変形例に係るツアー画像を示すシーケンス図である。 本実施形態の第2の変形例に係る画像処理システムの機能構成の一例を示す図である。 本実施形態の第3の変形例に係る処理の一例を示すシーケンス図である。
以下、図面を参照しながら、発明を実施するための形態を説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。
●実施形態●
●画像処理システムの概略
図1は、本発明の実施形態に係る画像処理システムの全体構成の一例を示す図である。図1に示されている画像処理システム1は、情報処理システムの一例であり、不動産、建築物件等の構造物の内部の空間や建設、土木等の構造物を閲覧者にオンラインで閲覧させるための撮影画像に対する画像処理を行うシステムである。
図1に示されているように、画像処理システム1は、撮影装置10、サーバ50および通信端末90を含む。画像処理システム1を構成するサーバ50および通信端末90は、通信ネットワーク100を介して通信することができる。撮影装置10は、Wi-Fi等の近距離無線通信により通信端末90と通信可能であるが、通信ネットワーク100を介してサーバ50および通信端末90と通信してもよい。通信ネットワーク100は、インターネット、移動体通信網、LAN(Local Area Network)等によって構築されている。なお、通信ネットワーク100には、有線通信だけでなく、3G(3rd Generation)、4G(4th Generation)、5G(5th Generation)、Wi-Fi(Wireless Fidelity)(登録商標)、WiMAX(Worldwide Interoperability for Microwave Access)またはLTE(Long Term Evolution)等の無線通信によるネットワークが含まれてもよい。
サーバ50は、情報処理装置の一例であり、所定の拠点である不動産、建築物件等の構造物の内部の空間や建設、土木等の構造物が撮影された撮影画像に対する画像処理を行うサーバコンピュータである。サーバ50は、例えば、撮影装置10が撮影した撮影画像を取得し、取得した撮影画像を用いて、ユーザにバーチャルツアーを提供するためのツアー画像を生成する。ここで、バーチャルツアーとは、不動産物件等を実際に現場で閲覧しているかのようにユーザに閲覧させるコンテンツである。また、ツアー画像は、撮影装置10によって撮影された複数の撮影画像を用いて生成され、撮影画像に写る拠点内をユーザ操作によって仮想的に移動することが可能な閲覧用の画像である。このようなバーチャルツアーは、不動産物件や建築現場の構造物の内部空間に限られず、例えば観光地やテーマパークなどのような構造物の外部空間においても好適に実現できる。つまり、構造物の内部空間を、所定のエリア内と捉えることも可能である。構造物の外部空間でバーチャルツアーを実現する場合、後述する不動産、建築物件等の構造物の内部空間を示すマップを、例えば観光地を紹介する観光地マップやテーマパークのエリアマップに置き換えることで、本実施形態を実現可能である。
なお、サーバ50は、一台のサーバコンピュータによって構成されてもよく、複数のサーバコンピュータによって構成されてもよい。また、サーバ50は、クラウド環境に存在するサーバコンピュータであるものとして説明するが、オンプレミス環境に存在するサーバであってもよい。
撮影装置10は、撮影拠点における不動産物件等の構造物が存在する空間を全方位に撮影して全天球(円周方向、垂直方向ともに360°)画像を取得可能な特殊なデジタルカメラ(全天球撮影装置)である。
なお、全天球画像とはいわゆる立体角4πsr[sr:ステラジアン]の画像を指す。また、本明細書では全天球画像の一部の領域が欠けている画像も便宜上、全天球画像と呼ぶ。例えば、全天球撮影装置の真上方向や真下方向の一部、全天球画像の鉛直上向き方向や鉛直下向き方向の一部、または全天球画像の所定領域の一部、などが欠けている画像である。
これは、例えば全天球画像に写っている被写体の真上や真下の部分などは、全天球画像を閲覧する際にあまり注意深く見ない利用シーンが考えられる。そういう場合は、そもそもその部分を撮影しないような撮像素子・光学系の設計をする、画像を表示しない、その部分にロゴ等を表示するなどし、全天球画像そのものを表示しないことも想定される。
撮影装置10は、例えば、不動産物件を管理または販売する不動産業者によって使用される。なお、撮影装置10は、所定値以上の画角を有する広角画像を取得可能な広角カメラまたはステレオカメラ等であってもよい。広角画像は、一般には広角レンズを用いて撮影された画像(広角画像)であり、人間の目で感じるよりも広い範囲を撮影することができるレンズで撮影された画像である。すなわち、撮影装置10は、所定値より焦点距離の短いレンズを用いて撮影された画像(全天球画像、広角画像)を取得可能な撮影手段である。広角画像は、一般的に35mmフィルム換算で35mm以下の焦点距離のレンズで、撮影された画像を意味する。また、撮影装置10は、撮影機能にパノラマ撮影機能を有しても良く、パノラマ画像を撮影するものであっても良い。
通信端末90は、入出力装置の一例であり、サーバ50によって処理された画像を表示させて、閲覧者に閲覧させるスマートフォン等のコンピュータである。通信端末90は、例えば、撮影装置10と同じ不動産業者によって使用される。通信端末90には、例えば、撮影装置10に対する撮影指示およびサーバ50から提供される画像の閲覧を行うための専用のアプリケーションがインストールされている。また、通信端末90は、例えば、専用のアプリケーションを用いずに、Webブラウザを用いて専用のWebサイトにアクセスすることにより、撮影指示および画像閲覧を行う構成であってもよい。また、撮影指示および画像閲覧は、異なる通信端末90によって行われる構成であってもよい。
なお、通信端末90は、スマートフォンに限られず、例えば、PC、タブレット端末、ウェアラブル端末、HMD(head mount display)、またはIWB(Interactive White Board:相互通信が可能な電子式の黒板機能を有する白板)等であってもよい。
○撮影装置の概略○
ここで、図2乃至図11を用いて、画像処理システム1を構成する撮影装置10の概略について説明する。図2は、撮影装置によって撮影された全天球画像の一例を示す図である。図2に示されている画像は、撮影装置10によって構造物の内部の空間の一例である不動産物件の部屋が撮影された全天球画像である。全天球画像は、部屋の内部が全方位で撮影することができるため、不動産物件等の閲覧に適している。全天球画像の形態は、様々であるが、後述のEquirectangular(正距円筒図法)の投影方式で生成されることが多い。この正距円筒図法によって生成された画像は、画像の外形が矩形となり画像データの保存が効率的かつ容易であることや、赤道付近の歪みが少なく縦方向の直線が歪まないため、比較的自然に見えることが利点である。
○全天球画像の生成方法
次に、図3乃至図9を用いて、全天球画像の生成方法について説明する。まず、図3および図4を用いて、撮影装置10で撮影された画像から全天球画像が生成されるまでの処理の概略を説明する。図3(A)は撮影装置で撮影された半球画像(前側)、図3(B)は撮影装置で撮影された半球画像(後側)、図3(C)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(A)は正距円筒射影画像で球を被う状態を示した概念図、図4(B)は全天球画像を示した図である。
撮影装置10は、正面側(前側)および背面側(後側)のそれぞれに撮像素子が設けられている。これらの撮像素子(画像センサ)は、半球画像(画角180°以上)の撮影が可能なレンズ等の光学部材と併せて用いられる。撮影装置10は、二つの撮像素子によって、それぞれユーザの周りの被写体が撮像されることで、二つの半球画像を得ることができる。
図3(A),(B)に示されているように、撮影装置10の撮像素子によって得られた画像は、湾曲した半球画像(前側および後側)となる。そして、撮影装置10は、半球画像(前側)と180度反転された半球画像(後側)とを合成して、図3(C)に示されているような正距円筒射影画像ECを作成する。
そして、撮影装置10は、OpenGL ES(Open Graphics Library for Embedded Systems)を利用することで、図4(A)に示されているように、球面を覆うように正距円筒射影画像ECを貼り付け、図4(B)に示されているような全天球画像(全天球パノラマ画像)CEを作成する。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。また、全天球画像CEは、静止画であっても動画であってもよい。さらに、変換手法は、OpenGL ESに限らず、半球画像から正距円筒射影図法に変換可能な手法であればよく、例えば、CPUによる演算またはOpenCLによる演算であってもよい。
以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、撮影装置10は、全天球画像CEの一部の所定領域T(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5および図6を用いて説明する。
図5は、全天球画像を三次元の立体球とした場合の仮想カメラおよび所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。図5は、全天球画像CEを、三次元の立体球CSで表している。このように生成された全天球画像CEが、立体球CSであるとした場合、図5に示されているように、仮想カメラICは、全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮影方向と画角を示す所定領域情報によって特定される。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。したがって、所定領域Tは、画角αと、仮想カメラICから全天球画像CEまでの距離fにより特定できる。
そして、所定領域画像Qは、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。以下、仮想カメラICの撮影方向(ea,aa)と画角(α)を用いて説明する。なお、所定領域Tは、画角αと距離fではなく、所定領域Tである仮想カメラICの撮影領域(X,Y,Z)によって示してもよい。
次に、図6を用いて、所定領域情報と所定領域Tの画像の関係について説明する。図6は、所定領域情報と所定領域Tの画像との関係を示した図である。図6に示されているように、「ea」はelevation angle(仰角)、「aa」はazimuth angle(方位角)、「α」は画角(Angle)を示す。すなわち、仮想カメラICの姿勢は、撮影方向(ea,aa)で示される仮想カメラICの注視点が、仮想カメラICの撮影領域である所定領域Tの中心点CP(x,y)となるように変更される。図6に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角画角をαとした場合の中心点CP(x,y)が、所定領域情報のパラメータ((x,y))となる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。fは、仮想カメラICから中心点CP(x,y)までの距離である。Lは、所定領域Tの任意の頂点と中心点CP(x,y)との距離である(2Lは対角線)。そして、図6では、一般的に以下の(式1)で示される三角関数が成り立つ。
Figure 2024017224000002
次に、図7を用いて、撮影装置10による撮影時の様子について説明する。図7は、撮影装置による撮影時の状態の一例を示す図である。不動産物件等の部屋の全体を見渡せるように撮影するためには、撮影装置10を人間の目に高さに近い位置に設置することが好ましい。そのため、図7に示されているように、撮影装置10は、一脚または三脚等の支持部材20で撮影装置10を固定して撮影を行うことが一般的である。撮影装置10は、上述のように、全周囲の全ての方向の光線を取得可能な全天球撮影装置であり、撮影装置10の周囲の単位球上の画像(全天球画像CE)を取得するともいえる。撮影装置10は、撮影方向が決まれば、全天球画像の座標が決定する。例えば、図7において、点Aは、撮影装置10の中心点Cから(d,-h)だけ離れた距離にあり、このとき線分ACと水平方向のなす角度をθとすると、角度θは、以下の(式2)で表すことができる。
Figure 2024017224000003
そして、点Aが俯角θにあると仮定すると、点Aと点Bの距離dは、撮影装置10の設置高さhを用いて、以下の(式3)で表すことができる。
Figure 2024017224000004
ここで、全天球画像上の位置情報を、全天球画像から変換された平面画像上の座標に変換する処理について概略的に説明する。図8は、全天球画像の一例を説明するための図である。なお、図8(A)は、図3(A)に示されている半球画像を光軸に対して水平方向および垂直方向の入射角が等位となる箇所を線で結んで示す図である。以下、光軸に対して水平方向の入射角を「θ」、光軸に対して垂直方向の入射角を「φ」という。
また、図9(A)は、正距円筒図法によって処理された画像の一例を説明する図である。具体的には、図8に示されている画像を予め生成されるLUT(Look Up Table)等で対応させ、正距円筒図法によって処理し、処理された図8(A)および図8(B)に示されているそれぞれの画像を合成すると、全天球画像に対応する図9(A)に示されている平面画像が、撮影装置10によって生成される。図3(C)に示されている正距円筒射影画像ECは、図9(A)に示されている平面画像の一例である。
図9(A)に示されているように、正距円筒図法によって処理された画像では、緯度(θ)と経度(φ)が直交する。図9(A)に示されている例では、画像の中心を(0,0)とし、緯度方向を-90~+90、経度方向を-180~+180で表現することで、全天球画像中の任意の位置を示すことができる。例えば、画像左上の座標は、(-180,-90)となる。なお、全天球画像の座標は、図9(A)に示されているような360度数を用いた形式で表されてもよいし、ラジアン表示または現実の画像のようなピクセル数の表示で表されてもよい。また、全天球画像の座標は、図9(B)に示されているような二次元座標(x,y)に変換されて表されてもよい。
なお、図9(A)または図9(B)に示されている平面画像への合成処理は、図8(A)および図8(B)に示されている半球画像を単に連続して配置する処理に限られない。例えば、全天球画像の水平方向中心がθ=180°でない場合には、合成処理において、撮影装置10は、まず、図3(C)に示されている半球画像を前処理し、全天球画像の中心に配置する。次に、撮影装置10は、生成する画像の左右部分に、図3(B)に示されている半球画像を前処理した画像を左右部分に配置できる大きさに分割し、半球画像を合成して図3(C)に示されている正距円筒射影画像ECを生成してもよい。
また、図9(A)に示されている平面画像において、図8(A)および図8(B)に示されている半球画像(全天球画像)の極点(PL1またはPL2)に対応する箇所は、線分CT1またはCT2となる。図4(A)および図4(B)に示されているように、全天球画像(例えば、全天球画像CE)は、OpenGL ESを利用することで、図9(A)に示されている平面画像(正距円筒射影画像EC)を球面に貼り付けることにより作成されたものであるからである。
○画像処理システムに適用可能な撮影装置の例
次に、図10および図11を用いて、実施形態に係る画像処理システム1に適用可能な撮影装置10の例について説明する。図10は、画像処理システムに適用可能な撮影装置の一例について説明するための概略図である。図10(A)は、上述のような生成方法によって全天球画像を生成することができる複数の撮像素子を備えた特殊撮影装置を示す。特殊撮影装置は、画角の広い広角レンズや魚眼レンズ等で構成される光学系を使用し、複数の撮像素子の出力を組み合わせて全方位が撮影された画像を取得できる。図10(B)は、いわゆる通常のカメラである一般撮影装置を示す。一般撮影装置は、例えば、通常のデジタルカメラまたはカメラを備えたスマートフォン等の携帯端末等である。撮影者は、一般撮影装置を手に持って回転しながら撮影を行う。一般撮影装置は、得られた画像を合成することで全方位の画像を取得できる。特殊撮影装置および一般撮影装置は、いずれも複数の撮影結果を画像処理によってつなぎ合わせる(スティッチング処理)ことによって、最終的な撮影画像を生成する。なお、複数の撮影結果を得るための撮影装置10の光学中心は、同一であることが好ましい。
図11は、一般撮影装置によって撮影された撮影画像の一例について説明するための図である。図11は、撮影者が図10(B)に示されているような一般撮影装置を撮影者が手に持って回転しながら撮影を行った場合の撮影画像を示す。一般撮影装置は、画角が小さいため(一般的には100度以下)、図11に示されているように、上下の極が撮影できないという問題がある。また、撮影者自身での回転によっては、撮影装置の光学中心の位置がずれによって撮影時の視差が生じ、スティッチング処理にも段差等の不自然なエラーが生じやすい。すなわち、本実施形態における撮影装置10としては、図10に示されているような特殊撮影装置および一般撮影装置のいずれも適用可能であるが、好適には図10(A)に示されているような特殊撮影装置を適用することが好ましい。画像処理システム1は、図10(A)に示されているような特殊撮影装置(全天球撮影装置)を用いることによって、広告のような品質が求められるバーチャルツアーに用いる画像として、破綻のない自然な高品質の全天球画像を使用することができる。以下の説明においては、撮影装置10は、特殊撮影装置(全天球撮影装置)であるものとして説明する。
○サーバの処理の概略○
次に、図12を用いてサーバ50によって実行される処理の概略について説明する。図12は、サーバによって実行される処理の一例について説明するための概略図である。図12は、撮影装置10によって撮影された撮影画像の撮影位置と、複数の撮影画像を関連づけるパスの関係を示す。
サーバ50は、visual SLAM(Simultaneous Localization and Mapping)、またはSfM(Structure from Motion)等の手法を用いて、撮影装置10から取得された撮影画像の撮影位置(図12(A))を推定する。撮影位置の推定結果は、図12(B)に示されているように、複数の撮影画像のそれぞれの撮影位置の相対位置として表現される。また、撮影位置の推定結果は、各撮影位置が一つの座標系で表現される。
また、サーバ50は、撮影位置の推定のほかに、撮影画像の撮影時に移動した経路も復元することができ、各撮影位置をどの順番でどうような経路を通って撮影されたのかも復元できる。サーバ50は、推定された撮影位置と撮影時に移動した経路に基づいて、パス(ツアーパス)を生成する。ツアーパスとは、ツアー画像上での複数の撮影画像の接続関係を示すものである。図12(C)に示されているように、推定された各撮影位置で撮影された撮影画像をそれぞれ接続し、接続された撮影画像を相互に行き来できるようにすることで、撮影画像によるバーチャルツアーを作成することできる。
●ハードウエア構成
続いて、図13および図14を用いて、実施形態に係る画像処理システムを構成する各装置または端末のハードウエア構成を説明する。なお、図13および図14に示されているハードウエア構成は、必要に応じて構成要素が追加または削除されてもよい。
○撮影装置のハードウエア構成○
まず、図13を用いて、撮影装置10のハードウエア構成を説明する。図13は、撮影装置のハードウエア構成の一例を示す図である。以下では、撮影装置10は、二つの撮像素子を使用した全天球(全方位)撮影装置とするが、撮像素子は二つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置10と同じ機能を有するようにしてもよい。
図13に示されているように、撮影装置10は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、入出力I/F(Interface)116、近距離通信回路117、近距離通信回路117のアンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120およびネットワークI/F121によって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する光学系(広角レンズやいわゆる魚眼レンズ)102a,102b(以下区別する必要のないときは、レンズ102と称する。)、および各レンズに対応させて設けられている二つの撮像素子103a,103bを備えている。ここでは、一つの光学系と一つの撮像素子の組み合わせを撮影光学系と呼び、二つの撮影光学系が互いに対向するよう配置することで撮影装置10を構成することが出来る。なお、撮影光学系を二つ以上採用して撮影装置10を構成することも可能である。撮像素子103a,103bは、レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等の画像センサ、この画像センサの水平または垂直同期信号や画素クロック等を生成するタイミング生成回路、およびこの撮像素子の動作に必要な種々のコマンドもしくはパラメータ等が設定されるレジスタ群等を有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスを介して接続している。一方、撮像ユニット101の撮像素子103a,103bは、それぞれ撮像制御ユニット105とシリアルI/Fバス(I2Cバス等)を介して接続している。画像処理ユニット104、撮像制御ユニット105および音処理ユニット109は、バス110を介してCPU111と接続している。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、入出力I/F116、近距離通信回路117、電子コンパス118、ジャイロセンサ119、加速度センサ120およびネットワークI/F121等も接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(C)に示されているような正距円筒射影画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置10によっては、ディスプレイ(例えば、近距離通信回路117を用いて撮影装置10と近距離通信を行うスマートフォン等の外部端末のディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/秒)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置10には表示部(ディスプレイ)が設けられていないが、表示部を設けてもよい。マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、撮影装置10の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113およびDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、および表示と操作の機能を兼ねたタッチパネル等の総称である。ユーザは、操作部115を操作することで、種々の撮影モードや撮影条件等を入力する。
入出力I/F116は、SDカード等の外付けのメディアまたはパーソナルコンピュータ等とのインターフェース回路(USBI/F等)の総称である。入出力I/F116は、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、入出力I/F116を介して外付けのメディアに記録されたり、必要に応じて入出力I/F116を介して外部端末(装置)に送信されたりする。
近距離通信回路117は、撮影装置10に設けられたアンテナ117aを介して、NFC(Near Field Communication)、Bluetooth(登録商標)またはWi-Fi等の近距離無線通信技術によって、外部端末(装置)と通信を行う。近距離通信回路117は、正距円筒射影画像のデータを、外部端末(装置)に送信することができる。
電子コンパス118は、地球の磁気から撮影装置10の方位を算出し、方位情報を出力する。この方位情報は、Exifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報は、画像の撮影日時および画像データのデータ容量の各データも含む。また、ジャイロセンサ119は、撮影装置10の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。さらに、加速度センサ120は、三軸方向の加速度を検出するセンサである。撮影装置10は、加速度センサ120が検出した加速度に基づいて、自装置(撮影装置10)の姿勢(重力方向に対する角度)を算出する。撮影装置10は、加速度センサ120を設けることによって、画像補正の精度が向上する。ネットワークI/F121は、ルータ等を介して、インターネット等の通信ネットワーク100を利用したデータ通信を行うためのインターフェースである。
○サーバのハードウエア構成○
まず、図14を用いて、サーバ50のハードウエア構成を説明する。図14は、サーバのハードウエア構成の一例を示す図である。サーバ50の各ハードウエア構成は、500番台の符号で示されている。サーバ50は、コンピュータによって構築されており、図14に示されているように、CPU501、ROM502、RAM(Random Access Memory)503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、DVD-RW(Digital Versatile Disk Rewritable)ドライブ514、およびメディアI/F516を備えている。
これらのうち、CPU501は、サーバ50全体の動作を制御する。ROM502は、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出しまたは書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、または画像等の各種情報を表示する。なお、ディスプレイ506は、入力手段を備えたタッチパネルディスプレイであってもよい。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USBメモリ等である。ネットワークI/F509は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。バスライン510は、図14に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスまたはデータバス等である。
また、キーボード511は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択もしくは実行、処理対象の選択、またはカーソルの移動等を行う入力手段の一種である。なお、入力手段は、キーボード511およびポインティングデバイス512のみならず、タッチパネルまたは音声入力装置等であってもよい。DVD-RWドライブ514は、着脱可能な記録媒体の一例としてのDVD-RW513に対する各種データの読み出しまたは書き込みを制御する。なお、着脱可能な記録媒体は、DVD-RWに限らず、DVD-RまたはBlu-ray(登録商標) Disc(ブルーレイディスク)等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出しまたは書き込み(記憶)を制御する。
○通信端末のハードウエア構成○
図14は、通信端末90のハードウエア構成の一例も示している。通信端末90の各ハードウエア構成は、括弧内の900番台の符号で示されている。通信端末90は、コンピュータによって構築されており、図14に示されているように、サーバ50と同様の構成を備えているため、各ハードウエア構成の説明を省略する。通信端末90は、サーバ50と同様の構成に加え、近距離通信回路917および近距離通信回路917のアンテナ917aを備えている。近距離通信回路917は、NFC、BluetoothまたはWi-Fi等の通信回路である。
なお、上記各プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。記録媒体の例として、CD-R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、Blu-ray Disc、SDカード、USBメモリ等が挙げられる。また、記録媒体は、プログラム製品(Program Product)として、国内または国外へ提供されることができる。例えば、サーバ50は、本発明に係るプログラムが実行されることで本発明に係る画像処理方法を実現する。
●機能構成
続いて、図15を用いて、実施形態に係る画像処理システムの機能構成について説明する。図15は、画像処理システムの機能構成の一例を示す図である。なお、図15は、図1に示されている装置または端末のうち、後述の処理または動作に関連しているものを示す。
○撮影装置の機能構成○
まず、図15を用いて、撮影装置10の機能構成について説明する。撮影装置10は、送受信部11、操作受付部12、撮影制御部13、動画撮影部14、静止画撮影部15、移動検知部16、通信部17および記憶・読出部19を有している。これら各部は、図13に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能または手段である。また、撮影装置10は、図13に示されているROM112、SRAM113およびDRAM114によって構築される記憶部1000を有している。記憶部1000は、自装置のGUID(Globally Unique Identifier)を記憶している。
送受信部11は、送信手段および受信手段の一例であり、主に、CPU111の処理によって実現され、他の装置または端末と各種データまたは情報の通信を行う。さらに、送受信部11は、ネットワークI/F121を用いて、他の装置または端末との間で、通信ネットワーク100を介したデータ通信を行う。
操作受付部12は、主に、操作部115に対するCPU111の処理によって実現され、撮影者となるユーザから各種の選択または入力を受け付ける。
撮影制御部13は、主に、撮像ユニット101、画像処理ユニット104および撮像制御ユニット105に対するCPU111の処理によって実現され、風景等の被写体を撮像し、撮影画像データを取得する。撮影制御部13は、例えば、動画撮影部14による動画撮影と静止画撮影部15による静止画撮影を時分割に切り替えて撮影を行う。
動画撮影部14は、主に、撮像ユニット101、画像処理ユニット104および撮像制御ユニット105に対するCPU111の処理によって実現され、撮影装置10による動画撮影を行う。動画撮影部14は、例えば、所定の拠点である不動産物件等の構造物内や構造物が配置された空間を移動しながら撮影された動画像の撮影を行う。動画撮影部14は、撮影装置10を保持する撮影者の移動中に、低解像度の連続フレームでの動画撮影を行い、撮影された画像データを記憶部1000に記憶させる。動画撮影部14は、例えば、撮影装置10を保持した撮影者が所定の拠点である不動産物件内の第1の地点から第2の地点までを移動している際に動画撮影を行う。
静止画撮影部15は、主に、撮像ユニット101の処理によって実現され、風景等の被写体を撮像し、撮影装置10による静止画を行う。静止画撮影部15は、例えば、所定の拠点である不動産物件等の構造物内や構造物が配置された空間の異なる撮影位置で撮影された複数の静止画像の撮影を行う。静止画撮影部15は、例えば、動画撮影部14により撮影される動画像よりも高解像度の静止画(写真)撮影を行い、撮影される画像データを記憶部1000に記憶させる。静止画撮影部15によって撮影される静止画像は、1フレームの画像であってもよいし、複数の画像を合成したHDR(High Dynamic Range)画像であってもよい。また、動画撮影は、所定の拠点内の移動時に行われ、静止画撮影は、所定の拠点内の静止時に行われる。
ここで、動画撮影と静止画撮影は、それぞれの撮影目的に対応して要求される撮影スペックが異なる。動画撮影の場合、位置推定に用いるため高フレームレートの連続画像(連続フレーム)で取得される一方で、撮影画像の高解像度およびカラーレイヤは必須ではなく、低解像度およびグレースケールであっても十分である。また、静止画撮影の場合、連続フレームの取得は不要である一方で、高解像度、カラー情報(RGB)、高ダイナミックレンジの撮影が求められる。静止画撮影部15によって撮影される静止画像は閲覧用画像取得の目的のため、例えば、4K解像度以上の高解像度であることが好ましい。一方で、動画撮影部14によって撮影される動画像は、位置推定に用いる画像であり、動画像に写る被写体が識別可能でありさえすればよいため、静止画像よりも解像度の低い画像である。動画像は、例えば、480p程度またはそれ以下の解像度であってもよい。撮影装置10は、低解像度の動画像を撮影することによって、ツアー撮影における全体のデータ量を低減させることができる。
移動検知部16は、主に、ジャイロセンサ119および加速度センサ120に対するCPU111の処理によって実現され、撮影装置10の移動状態を検知する。移動検知部16は、例えば、撮影装置10による撮影中に、撮影装置10を保持する撮影者が移動しているか(移動状態であるか)または静止しているか(静止状態であるか)を検知する。
通信部17は、主に、入出力I/F116または近距離通信回路117に対するCPU111の処理によって実現され、他の装置または端末との間で各種データまたは情報の送受信を行う。通信部17は、例えば、入出力I/F116を用いて、通信端末90との間で、各種ケーブル等を介したデータ通信を行う。また、通信部17は、近距離通信回路117を用いて、通信端末90との間で、近距離無線通信技術によるデータ通信を行う。
記憶・読出部19は、主に、CPU111の処理によって実現され、記憶部1000に、各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。また、記憶部1000には、動画撮影部14および静止画撮影部15によって撮影された画像データが記憶される。記憶部1000に記憶される画像データには、撮影画像の撮影時刻がメタデータとして関連づけられている。
○サーバの機能構成○
まず、図15を用いて、サーバ50の機能構成について説明する。サーバ50は、送受信部51、受付部52、判断部53、生成部54、位置推定部56、パス生成部58、画像処理部60および記憶・読出部59を有している。これら各部は、図14に示されている各構成要素のいずれかが、HD504からRAM503上に展開されたサーバ用プログラムに従ったCPU501からの命令によって動作することで実現される機能または手段である。また、サーバ50は、図14に示されているROM502、RAM503およびHD504によって構築される記憶部5000を有している。
送受信部51は、送信手段および受信手段の一例であり、主に、ネットワークI/F509に対するCPU501の処理によって実現され、通信ネットワーク100を介して、他の装置または端末との間で各種データまたは情報の送受信を行う。送受信部51は、例えば、撮影装置10によって撮影された動画像を、撮影装置10または通信端末90から受信(取得)する。また、送受信部51は、例えば、撮影装置10によって撮影された静止画像を、撮影装置10または通信端末90から受信(取得)する。
受付部52は、主に、キーボード511またはポインティングデバイス512に対するCPU501の処理によって実現され、ユーザから各種の選択または入力を受け付ける。判断部53は、CPU501の処理によって実現され、各種判断を行う。
生成部54は、CPU501の処理によって実現され、表示画面等を生成する。
位置推定部56は、CPU501の処理によって実現され、撮影装置10から取得された動画像に基づいて、撮影装置10から取得された静止画像の相対的な撮影位置を推定する。位置推定部56は、例えば、visual SLAM、またはSfM等の手法を用いて、低解像度連続フレームである動画像から、静止画像が撮影された静止画像の相対的な位置を推定する。このvisual SLAM、またはSfM等の手法は、複数の画像から、画像上の特徴点の位置、カメラの位置およびパラメータを算出することができる。一方で、算出される位置は、相対的なものであり、絶対的な位置を得るためには基準となる位置が必要となる。
パス生成部58は、CPU501の処理によって実現され、位置推定部56によって推定された撮影位置に基づいて、複数の静止画像の接続関係を示すパスを生成する。パス生成部58は、例えば、推定された撮影位置に基づいて、複数の静止画像のうちの最近傍の静止画像をそれぞれ関連づけるパスを生成する。
画像処理部60は、CPU501の処理によって実現され、位置推定部56によって推定された撮影位置に基づいて、バーチャルツアー用のツアー画像を生成する画像処理を行う。画像処理部60は、例えば、推定された撮影位置に基づいて関連づけられた複数の静止画像を含む処理画像であるツアー画像を生成する。画像処理部60は、推定された静止画像の撮影位置、静止画像の撮影時刻、およびパス生成部58によって生成されたパス(ツアーパス)から、ツアー画像における静止画像を配置すべき位置を決定する。
記憶・読出部59は、主に、CPU501の処理によって実現され、記憶部5000への各種データ(または情報)の記憶、および記憶部5000から各種データ(または情報)の読出を行う。
記憶部1000には、マップ管理DB5001および画像管理DB5002が構築されている。マップ管理DB5001は、不動産、建築物件等の構造物の内部の空間や建設、土木等の構造物を示すマップを記憶して管理する。画像管理DB5002は、後述する画像データ管理テーブルによって構成されている。また、記憶部5000は、画像処理部60によって作成されたツアー画像を記憶する。
○通信端末の機能構成○
次に、図15を用いて、通信端末90の機能構成について説明する。通信端末90は、送受信部91、受付部92、表示制御部93、通信部94および記憶・読出部99を有している。これら各部は、図15に示されている各構成要素のいずれかが、HD904からRAM903上に展開された通信端末用プログラムに従ったCPU901からの命令によって動作することで実現される機能または手段である。また、通信端末90は、図15に示されているROM902、RAM903およびHD904によって構築される記憶部9000を有している。
送受信部91は、送信手段および受信手段の一例であり、主に、ネットワークI/F909に対するCPU901の処理によって実現され、通信ネットワーク100を介して、他の装置または端末との間で各種データまたは情報の送受信を行う。
受付部92は、主に、キーボード911またはポインティングデバイス912に対するCPU901の処理によって実現され、ユーザから各種の選択または入力を受け付ける。
表示制御部93は、主に、CPU901の処理によって実現され、ディスプレイ906に、各種画像または文字等を表示させる。表示制御部93は、例えば、Webブラウザまたは専用のアプリケーションを用いてサーバ50にアクセスにして、サーバ50から配信されるデータに対応する画像を、ディスプレイ906に表示させる。
通信部94は、主に、外部機器接続I/F908または近距離通信回路917に対するCPU901の処理によって実現され、他の装置または端末との間で各種データまたは情報の送受信を行う。通信部94は、例えば、外部機器接続I/F908を用いて、撮影装置10との間で、各種ケーブル等を介したデータ通信を行う。また、通信部94は、近距離通信回路917を用いて、撮影装置10との間で、近距離無線通信技術によるデータ通信を行う。
記憶・読出部99は、主に、CPU901の処理によって実現され、記憶部9000への各種データ(または情報)の記憶、および記憶部9000から各種データ(または情報)の読出を行う。
図16は、本実施形態に係る画像管理テーブルの一例を示す概念図である。
画像管理テーブルは、撮影装置10で撮影された撮影画像を管理するためのテーブルである。図15に示した記憶部5000には、図16に示されているような画像管理テーブルによって構成されている画像管理DB5002が構築されている。
この画像管理テーブルでは、マップを識別するマップ識別情報毎に、撮影位置、撮影方向、撮影範囲、静止画、画像方向および画像範囲が関連づけられて管理されている。
撮影位置は、マップ管理DB5001で管理され、マップ識別情報により識別されるマップに対して位置決めされている固定撮影位置を示す。
撮影方向および撮影範囲は、固定撮影位置で撮影された撮影画像の撮影方向および撮影範囲を示す。
静止画は、固定撮影位置で撮影された撮影画像を示し、画像方向および画像範囲は、撮影画像を表示する際の表示方向および表示範囲を示す。
画像管理テーブルは、さらに、マップ識別情報毎に、撮影時の方位情報、画角を関連づけて管理してもよい。
図17は、本実施形態に係る処理の一例を示すシーケンス図である。
通信端末90の受付部92は、ユーザがマップを指定する情報を入力することにより、指定されたマップ要求を受け付ける(ステップS1)。
送受信部91は、指定されたマップを識別するマップ識別情報をサーバ50に対して送信し、サーバ50の送受信部51は、通信端末90から送信されたマップ識別情報を受信する(ステップS2)。
記憶・読出部59は、マップ識別情報を検索キーとしてマップ管理DB5001からマップ情報を読み出すとともに、マップ識別情報を検索キーとしてマップ管理DB5001から図16に示した各種情報を読み出す。生成部54は、記憶・読出部59が読み出した各種情報に基づき、入出力画面を生成する(ステップS3)。ステップS3は、入出力画面生成ステップの一例である。マップ情報は、不動産、建築物件等の構造物の階数を示す情報や、マップの方位情報を含む。
送受信部51は、生成部54が生成した入出力画面を示す入出力画面情報を通信端末90に送信し、通信端末90の送受信部91は、サーバ50から送信された入出力画面情報を受信する(ステップS4)。
表示制御部93は、受信した入出力画面情報に基づく入出力画面をディスプレイ906に表示させる(ステップS5)。
ユーザが撮影装置を指定する情報を入力することにより、受付部92は、撮影装置の選択を受け付ける(ステップS6)。
ユーザがツアー撮影開始を指示する操作を行うことにより、受付部92は、ツアー撮影の開始要求を受け付ける(ステップS7)。
通信部94は、ツアー撮影の開始要求をステップS4で選択した撮影装置10へ送信し、撮影装置10の通信部17は、通信端末90から送信されたツアー撮影の開始要求を受信する(ステップS8)。
撮影制御部13は、ツアー撮影の開始要求に基づき、ツアー撮影を開始する(ステップS9)。
ユーザが入出力画面に対して撮影開始位置を設定する操作を行うことにより、通信端末90の受付部92は、撮影開始位置の設定を受け付ける(ステップS10)。
通信部94は、撮影開始位置の設定完了を示す設定完了情報を撮影装置10へ送信し、撮影装置10の通信部17は、通信端末90から送信された設定完了情報を受信する(ステップS11)。
設定完了情報を受信した後に、ユーザが撮影を指示する操作を行うことにより、操作受付部12は、撮影指示を受け付ける。撮影制御部13は、撮影指示に基づき、静止画撮影部15および動画撮影部14により、静止画・動画を連続撮影する(ステップS12)。
ユーザがツアー撮影終了を指示する操作を行うことにより、通信端末90の受付部92は、ツアー撮影の終了要求を受け付ける(ステップS13)。
通信部94は、ツアー撮影の終了要求を撮影装置10へ送信し、撮影装置10の通信部17は、通信端末90から送信されたツアー撮影の終了要求を受信する(ステップS14)。
撮影制御部13は、ツアー撮影の終了要求に基づき、ツアー撮影を終了する(ステップS15)。
通信部17は、ステップS8で撮影した静止画・動画をサーバ50へ送信し、通信端末90の通信部94は、撮影装置10から送信された静止画・動画を受信する(ステップS16)。
ユーザが入出力画面に対して撮影終了位置を設定する操作を行うことにより、受付部92は、撮影終了位置の設定を受け付ける(ステップS17)。
送受信部91は、マップ識別情報、撮影開始・位置を示す位置情報、および静止画・動画をサーバ50へ送信し、サーバ50の送受信部51が、通信端末90から送信された各種情報を受信する(ステップS18)。
位置推定部56は、受信した静止画・動画に基づいて、静止画の相対的な撮影位置を推定する。パス生成部58は、位置推定部56によって推定された撮影位置に基づいて、複数の静止画の接続関係を示すパスを生成する。画像処理部60は、位置推定部56によって推定された撮影位置およびパス生成部58によって生成されたパスに基づいて、ツアー画像を生成する(ステップS19)。
記憶・読出部59は、マップ識別情報を検索キーとしてマップ管理DB5001からマップ情報を読み出すとともに、マップ識別情報を検索キーとしてマップ管理DB5001から図16に示した各種情報を読み出す。生成部54は、ステップS11で生成したツアー画像、および記憶・読出部59が読み出した各種情報に基づき、入出力画面を生成する(ステップS20)。
送受信部51は、生成部54が生成した入出力画面を示す入出力画面情報を通信端末90に送信し、通信端末90の送受信部91は、サーバ50から送信された入出力画面情報を受信する(ステップS21)。
表示制御部93は、受信した入出力画面情報に基づく入出力画面をディスプレイ906に表示させる。ユーザが入出力画面に対して撮影位置・方向・範囲、および撮影画像の方向・範囲を変更する操作を行うことにより、受付部92は、これらの変更を受け付ける(ステップS22)。ステップS22は、表示ステップおよび受付ステップの一例である。
送受信部91は、変更後の撮影位置・方向・範囲、および撮影画像の方向・範囲をサーバ50へ送信し、サーバ50の送受信部51は、通信端末90から送信された各種情報を受信する(ステップS23)。
記憶・読出部59は、ステップS10で受信したマップ識別情報を検索キーとしてマップ管理DB5001から図16に示したテーブルを読み出して、ステップS13で受信した各種情報を記憶させる(ステップS24)。
図17において、撮影装置10および通信端末90間の通信は、通信部17および通信部94により行われたが、図1において、撮影装置10が、通信ネットワーク100を介して通信端末90と通信可能な場合は、送受信部11および送受信部91により行われてもよい。
また、図17のステップS3およびステップS20においては、サーバ50の生成部54が入出力画面を生成したが、サーバ50の送受信部51が、記憶・読出部59が読み出した各種情報やツアー画像を通信端末90へ送信し、通信端末90に備えられた後述する生成部95が、サーバ5から送信された各種情報やツアー画像に基づき、入出力画面を生成してもよい。
この場合、通信端末90の表示制御部93は、通信端末90の生成部が生成した入出力画面をディスプレイ906に表示させる。
さらに、通信端末90が実行するステップS22は、サーバ50により実行されてもよく、通信端末90とは別に通信ネットワーク100を介してサーバ50と通信可能な他の通信端末により実行されてもよい。
図18は、本実施形態に係るツアー撮影処理の一例を示すフローチャートである。図18は、図17に示したシーケンス図のステップS9、S12およびS15に対応する処理を示す。
まず、前提として、撮影装置10には、ツアー撮影用のプラグインがインストールされている。ツアー撮影用プラグインが有効化されると、撮影装置10は、ツアー撮影用の静止画撮影および動画撮影が可能となる。
撮影装置10の撮影制御部13は、通信部17が通信端末90からツアー撮影の開始要求を受信したか確認し(ステップS31)、受信しない場合は、通常の撮影を行う(ステップS32)。
撮影制御部13は、ツアー撮影の開始要求を受信した場合には、ツアー撮影を開始し、通信部17が通信端末90から撮影開始位置の設定完了を示す設定完了情報を受信したか確認する(ステップS33)。
撮影装置10は、ステップS33で設定完了情報の受信を確認すると、ツアー撮影用プラグインを自動で有効化する。撮影装置10は、ステップS31でツアー撮影の開始要求を受信した段階で、ツアー撮影用プラグインを自動で有効化しても良い。
ステップS33で設定完了情報の受信を確認した後に、操作部115のシャッターボタンが押下された場合には、操作受付部12は、撮影指示を受け付ける(ステップS34)。ここで、ユーザは、図17のステップS10で設定した撮影開始位置に位置することを確認した上で、操作部115のシャッターボタンを押下する。
撮影制御部13は、撮影指示に基づき、静止画撮影部15により静止画を撮影する(ステップS35)。
撮影制御部13は、静止画撮影後に連続して、動画撮影部14により動画を撮影する(ステップS36)。
撮影制御部13は、通信部17が通信端末90からツアー撮影の終了要求を受信したか確認し(ステップS37)、受信しない場合は、ステップS34に戻って、操作部115のシャッターボタンが押下されたか確認する。
撮影制御部13は、ステップS37でツアー撮影の終了要求を受信した場合は、ツアー撮影を終了する。ここで、図18のフローチャートの場合、ユーザは、撮影終了位置に位置することを確認して、操作部115のシャッターボタンを押下した後に、図17のステップS13でのツアー撮影終了を指示する操作を行うが、他の形態として、ユーザが、図17のステップS13でのツアー撮影終了を指示する操作を行った後に、撮影終了位置に位置することを確認して、操作部115のシャッターボタンを押下してもよい。
以上により、静止画と動画を交互に撮影して、図17に示したステップS16において、通信部17は、交互に撮影した静止画・動画をサーバ50へ送信することができる。
また、ステップS31でツアー撮影を開始した後に、ステップS33で設定完了情報が未受信の場合には、操作部115のシャッターボタンが押下された場合でも、操作受付部12は、撮影指示を受け付けない。これにより、撮影開始位置設定を忘れたままで、撮影が開始されることが防止される。
なお、ステップS32の通常の撮影では、設定完了情報の受信にかかわらず、操作部115のシャッターボタンが押下された場合には、操作受付部12は、撮影指示を受け付ける。
また、ステップS33で設定完了情報を受信した後に、所定時間経過してもステップS34でシャッターボタンが押下されない場合は、撮影制御部13は、ツアー撮影を終了してもよい。
これにより、図17に示したステップ10で設定された撮影開始位置から離れた位置に移動した状態で、撮影が開始されることが防止されるため、設定された撮影開始位置と実際の撮影開始位置がずれることが防止される。
なお、撮影装置10が、設定完了情報や開始要求を受信したときに、ツアー撮影用プラグインがインストールされていない場合は、通信端末90の表示制御部93は、エラー画面やプラグインのインストール画面をディスプレイ906に表示させる。あるいは、撮影装置10は、通信ネットワーク100を介してサーバ50等と通信可能な場合は、自動でプラグインをダウンロードしてもよい。
すなわち、通信端末90を介して、ソフト側での指示が撮影装置10側に伝わり、撮影装置10側の設定が変更され、撮影装置10で撮影した撮影画像がソフト側に転送されるため、ユーザは、撮影装置10をいちいち設定せずとも、通信端末90を操作するだけで、ツアー撮影が可能となる。
図19は、本実施形態に係る入出力画面の説明図である。
図17のステップS3において、サーバ50の画像処理部60は、図16に示した画像管理テーブルに管理されている複数の撮像位置に基づき、複数の固定撮影位置画像212A~Eを生成し、生成部54は、マップ211と、マップ211に対して位置決めされている固定撮影位置を示す複数の固定撮影位置画像212A~Eを重畳して表示するとともに、決定ボタン201を表示する入出力画面200を生成する。
図20は、本実施形態に係る第1の撮影位置設定の説明図である。
図20(a)は、図17のステップS10において、ユーザが入出力画面200に対して撮影開始位置を設定する状態を示している。
図19において、ユーザが、入出力画面200に表示されたマップ211における任意の位置を指定する指定操作を行うと、受付部92が指定操作を受け付けて、表示制御部93は、マップ211における指定された位置に撮影開始位置を示す撮影開始位置画像213Aを表示する。
この状態で、ユーザが、決定ボタン201を操作すると、受付部92が撮影開始位置画像213Aの設定を受け付ける。撮影開始位置画像213Aは、マップ211に対して位置決めされた第1の撮影位置を示す第1の位置画像213の一例である。
図20(b)は、図17のステップS17において、ユーザが入出力画面200に対して撮影終了位置を設定する状態を示している。
図20(a)において、ユーザが、入出力画面200に表示されたマップ211における任意の位置を指定する指定操作を行うと、受付部92が指定操作を受け付けて、表示制御部93は、マップ211における指定された位置に撮影終了位置を示す撮影終了位置画像213Bを表示する。
この状態で、ユーザが、決定ボタン201を操作すると、受付部92が撮影終了位置画像213Bの設定を受け付ける。撮影終了位置画像213Bは、マップ211に対して位置決めされた第1の撮影位置を示す第1の位置画像213の一例である。
撮影開始位置および撮影終了位置は、図20では、ユーザの操作により位置が設定されていたが、マップ211上の予め定められた位置にプリセットされていてもよい。
この場合、ユーザが、マップ211における撮影開始位置画像213Aまたは撮影終了位置画像213Bを操作し、決定ボタン201を操作することにより、受付部92が撮影開始位置または撮影終了位置の確認操作を受け付ける。これにより、撮影開始位置確認を忘れたままで、撮影が開始されることが防止されるとともに、撮影終了位置確認を忘れたままで、静止画・動画がサーバ50へ送信されることが防止される。
なお、マップ211に対して位置決めされた第1の撮影位置は、撮影開始位置および撮影終了位置以外の任意の撮影位置であってもよく、一例として、撮影開始位置と撮影終了位置の間の中間撮影位置であってもよい。
この場合、ユーザが、入出力画面200に表示されたマップ211における任意の位置を指定する指定操作を行うと、受付部92が指定操作を受け付けて、表示制御部93は、マップ211における指定された位置に中間撮影位置を示す中間撮影位置画像を表示する。中間撮影位置は複数指定されてもよく、その場合、表示制御部93は、複数の中間撮影位置画像を表示する。
中間撮影位置は、ツアー撮影中に別の作業をする必要が生じ、それまで撮影した動画および静止画を一時保存したい場合等に有用であり、一時保存地点としての意味合いもある。
中間撮影位置は、当初、撮影終了位置として設定された後に、その後も動画および静止画の撮影を継続して、別の撮影終了位置が設定されることにより、撮影終了位置から中間撮影位置へ変更されるものでも良い。
なお、第1の撮影位置が、中間撮影位置等の任意の撮影位置であったとしても、マップ211に対する第1の撮影位置の位置は、ユーザが、撮影装置10の操作部115のシャッターボタンを押下する位置と、一致する必要がある。
図21は、本実施形態に係るツアー画像の説明図である。
図21は、図17のステップS19における処理の結果を示す。
サーバ50の位置推定部56は、ステップS18で受信した静止画・動画、撮影開始位置および撮影終了位置に基づいて、撮影開始位置および撮影終了位置に対する静止画を撮影した静止画撮影位置の相対位置を推定する。
パス生成部58は、位置推定部56によって推定された静止画撮影位置の相対位置に基づいて、撮影開始位置、撮影終了位置および静止画撮影位置の接続関係を示すパスを生成する。接続関係を示すパスは、撮影経路とも称しても良い。
画像処理部60は、撮影開始位置を示す撮影開始位置画像213A、撮影終了位置を示す撮影終了位置画像213B、静止画撮影位置を示す静止画撮影位置画像214A~画像214Eおよびパスを示すパス画像215A~画像215Fを含むツアー画像250を生成する。
画像処理部60は、撮影開始位置画像213と静止画撮影位置画像214とを互いに区別して識別できるように生成する。一例として、画像処理部60は、図21に示すように、静止画撮影位置画像214より撮影開始位置画像213を大きく生成し、静止画撮影位置画像214と撮影開始位置画像213の表示色が互いに異なるように生成する。なお、画像処理部60は、撮影開始位置画像213と静止画撮影位置画像214を互いに異なる形状に生成してもよい。
すなわち、画像処理部60は、撮影開始位置画像213Aおよび撮影終了位置画像213Bに対する位置が仮決めされた静止画撮影位置画像214A~画像214Eおよびパス画像215A~画像215Fを生成する。
パス画像は、少なくとも撮影開始位置画像213Aおよび撮影終了位置画像213Bと、動画撮影した撮影経路が存在すれば生成可能である。これにより、建築現場などの所定の拠点において、撮影者が、撮影開始位置画像213Aと撮影終了位置画像213Bの間で、どのように移動したかを把握することができる。好ましくは、撮影開始位置画像213Aおよび撮影終了位置画像213B以外に、少なくとも1つの静止画撮影位置画像214が存在すると良い。より好ましくは、静止画撮影位置画像214は2つ以上存在すると良い。
画像処理部60は、パス画像215A~画像215Fのそれぞれの色を、撮影開始位置画像213Aから撮影終了位置画像213Bに向かうにつれて、濃色から淡色へ変化させてもよく、最初は赤色、途中は黄色で最後は青色のように変化させてもよい。
また、画像処理部60は、パス画像215A~画像215Fのそれぞれの太さを、撮影開始位置画像213Aから撮影終了位置画像213Bに向かうにつれて、段階的に太くしてもよく、細くしてもよい。
さらに、画像処理部60は、撮影開始位置画像213Aから撮影終了位置画像213Bに向かうにつれて、「流れる矢印」や「流れるウインカー」のように、パス画像215A~画像215Fを直感的に方向が分かりやすい流れる表示にしてもよい。
以上において、位置推定部56、パス生成部58および画像処理部60は、図20で説明したように、第1の撮影位置として、撮影開始位置および撮影終了位置に代えて、中間撮影位置等の任意の撮影位置を用いても良い。
図22は、本実施形態に係る第2の撮影位置変更前の説明図である。
図22は、図17のステップS22において、表示制御部93が、ディスプレイ906に入出力画面200を表示した状態を示している。
入出力画面200は、図17のステップS20において、サーバ50の生成部54により生成されたものであり、マップ211と、マップ211に対して位置決めされている複数の固定撮影位置画像212A~Eと、図21に示したツアー画像250を重畳して表示するとともに、撮影画像220、編集完了ボタン202および確定ボタン203を表示する。
ツアー画像250に含まれる撮影開始位置画像213Aおよび撮影終了位置画像213Bは、図20で説明したように、マップ211に対して位置決めされている。
ツアー画像250に含まれる静止画撮影位置画像214A~画像214Eは、図21で説明したように、撮影開始位置画像213Aおよび撮影終了位置画像213Bに対する位置が仮決めされているが、マップ211に対しては位置決めされていない。静止画撮影位置画像214は、マップ211に対して位置決めされておらず第1の撮影位置に対する位置が仮決めされた第2の撮影位置を示す第2の位置画像の一例である。
ツアー画像250に含まれるパス画像215A~画像215Fも、図21で説明したように、撮影開始位置画像213A、撮影終了位置画像213Bおよび静止画撮影位置画像214A~画像214Eに対する位置が仮決めされているが、マップ211に対しては位置決めされていない。
撮影画像220は、撮影開始位置、撮影終了位置および静止画撮影位置の何れかで撮影された画像である。
すなわち、ユーザが、入出力画面200に表示されたマップ211における撮影開始位置画像213A、撮影終了位置画像213Bおよび静止画撮影位置画像214A~画像214Eの何れかを指定する指定操作を行うと、受付部92が指定操作を受け付けて、表示制御部93は、指定された位置画像が示す撮影位置で撮影された撮影画像220を入出力画面200に表示する。ここで、図22に示す撮影画像220は、静止画撮影位置画像214Bが示す撮影位置で撮影された画像とする。
図23は、本実施形態に係る第2の撮影位置変更後の説明図である。
図23は、図22の状態から、静止画撮影位置画像214Bの位置を変更した状態を示す。
ユーザが、入出力画面200に表示されたマップ211において、撮影開始位置画像213Aおよび撮影終了位置画像213Bに対する静止画撮影位置画像214Bの相対位置を変更する位置変更操作を行うと、受付部92が位置変更操作を受け付ける。
この状態で、ユーザが、編集完了ボタン202を操作すると、受付部92が、位置変更後の静止画撮影位置画像214Bが示す静止画撮影位置をマップ211に対して位置決めする指示操作として受け付ける。
ここで、編集完了ボタン202を設けず、静止画撮影位置画像214Bに対する位置変更操作を完了した時点で、自動的に編集完了して、静止画撮影位置画像214Bが示す静止画撮影位置をマップ211に対して位置決めしてもよい。
さらに、編集完了ボタン202に代えて、一連の編集をキャンセルできる編集キャンセルボタンを設け、ユーザが、編集キャンセルボタンを操作すると、静止画撮影位置画像214Bが示す静止画撮影位置のマップ211に対する位置決めをキャンセルしても良い。この場合、静止画撮影位置画像214Bは、位置変更操作前の位置に戻されてもよい。
ユーザが、確定ボタン203を操作すると、受付部92が操作を受け付けて、図17のステップS23で説明したように、送受信部91は、位置変更後の静止画撮影位置をサーバ50へ送信する。
ここで、表示制御部93は、静止画撮影位置画像214Bの位置変更に追従して、静止画撮影位置画像214Bに接続するように、パス画像215Bおよびパス画像215Cの形状を変更して表示してもよい。
また、ユーザが、確定ボタン203を操作して、静止画撮影位置が確定した場合、送受信部91は、形状が確定したパス画像215が示すパスをサーバ50へ送信してもよい。
これにより、図19に示したように、入出力画面200が、過去の撮影位置に係る固定撮影位置画像212を表示する際に、撮影開始位置、撮影終了位置および固定撮影位置の接続関係に係るパスを示すパス画像215も表示することが可能になり、ユーザは、過去の撮影時のパスを確認することができる。
図24は、本実施形態に係る第2の撮影位置と固定撮影位置の対応付けの説明図である。
図24は、図23の状態から、静止画撮影位置画像214Dの位置を変更した状態を示す。
ユーザが、入出力画面200に表示されたマップ211において、撮影開始位置画像213Aおよび撮影終了位置画像213Bに対する静止画撮影位置画像214Dの相対位置を変更して固定撮影位置画像212Bに重ねる操作を行うと、受付部92が静止画撮影位置画像214Dを固定撮影位置画像212Bに対応付ける操作を受け付ける。
この状態で、ユーザが、編集完了ボタン202を操作すると、受付部92が、位置変更後の静止画撮影位置画像214Dが示す静止画撮影位置を、固定撮影位置画像212Bが示す固定撮影位置と同じ位置で対応付けて、マップ211に対して位置決めする指示操作として受け付ける。
ここで、ユーザが、静止画撮影位置画像214Dの相対位置を変更して固定撮影位置画像212Bに近接させる操作を行うことにより、受付部92は、静止画撮影位置画像214Dを固定撮影位置画像212Bに対応付ける操作を受け付けてもよい。
表示制御部93は、静止画撮影位置画像214Dと固定撮影位置画像212Bが対応付けられていることがわかるように、静止画撮影位置画像214Dと固定撮影位置画像212Bの一方または両方の色を変化させたり、点滅させたりして、表示形態を変化させることが好ましい。例えば、静止画撮影位置画像214Dを円形や菱形の表示とし、固定撮影位置画像212Bは位置を示すピンで表示できる。
図25は、本実施形態に係る第2の撮影位置と固定撮影位置の対応付け後の説明図であり、図24の後の状態を示す。
入出力画面200は、固定撮影位置画像212Bで撮影した撮影画像220Bと、静止画撮影位置画像214Dで撮影した撮影画像220Dを表示する。
この状態で、ユーザが、確定ボタン203を操作すると、受付部92が操作を受け付けて、図17のステップS23で説明したように、送受信部91は、位置変更後の静止画撮影位置画像214Dをサーバ50へ送信する。
図26は、本実施形態に係る撮影方向・範囲を示すマークの説明図である。
ユーザが、図22~図25の何れかの状態において、撮影開始位置画像213A、撮影終了位置画像213Bおよび静止画撮影位置画像214A~画像214Eの何れかを、例えば長押し操作することにより、受付部92が操作を受け付けて、表示制御部93は、図26に示す入出力画面200を表示させる。
入出力画面200は、長押し操作された撮影位置画像216と、マーク216Mをマップ211に重畳して表示するとともに、撮影位置画像216で撮影された撮影画像220と、保存ボタン204と、キャンセルボタン205を表示する。
マーク216Mは、撮影位置画像216を中心にして、円における半径を示す2本の線と、その線の間にある円弧によって囲まれたいわゆる扇形で表示され、撮影位置画像216から扇形の円弧の中点に向かう方向が、撮影画像220の撮影方向を示し、扇形の中心角が、撮影画像220が表示される表示範囲を示す。また、撮影方向とは、例えば図10(A)で示す特殊撮影装置のシャッターボタンが存在する側をリア、シャッターボタンが存在しない側をフロントと定義した場合、フロント側の撮影光学系が撮影する方向を撮影方向と呼ぶ。
マーク216Mが示す撮影方向は、図13で示した撮影装置10の電子コンパス118により算出される方位情報と、マップ211における方位情報により特定され、マーク216Mが示す表示範囲は、撮影時の画角により特定される。
電子コンパス118は、地球の磁気から撮影装置10の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifというメタデータのフォーマットに従って、画像に添付される。方位・傾き情報は画像の画像補正等の画像処理に利用される。なお、Exifには、画像の撮像日時、画像データのサムネイル、及び、画像データのデータ容量等も含まれている。方位は、電子コンパスに加えて、加速度センサの加速度と組み合わせて算出してもよい。
全天球画像を表示する場合、マーク216Mが示す撮影方位と表示範囲は、図5で示した仮想カメラICの撮影方向と画角によって特定される。
仮想カメラICの撮影方向は、例えば撮影時の撮影装置10の正面方向に初期設定され、仮想カメラICの画角は、所定の初期値に設定される。
ここで、入出力画面200に表示される撮影画像220の表示方向および表示範囲は、本来、マーク216Mが示す撮影方位および表示範囲と一致しているはずであるが、各種誤差により、ズレが生じる場合がある。
そこで、本実施形態では、撮影画像220の表示方向および表示範囲と、マーク216Mが示す撮影方位および表示範囲のずれを低減することも目的とする。
ユーザが、入出力画面200に表示されたマップ211において、マーク216Mの扇形の方向を変更する操作を行うと、受付部92が方向変更操作を受け付ける。
すなわち、受付部92は、撮影画像220の表示方向を変更することなく、マーク216Mが示す撮影方向を変更する操作を受け付ける。
この状態で、ユーザが、保存ボタン204を操作すると、受付部92が、変更した扇形の方向を保存する指示操作として受け付ける。
ユーザが、入出力画面200に表示されたマップ211において、マーク216Mの扇形の中心角を変更する操作を行うと、受付部92が範囲変更操作を受け付ける。
すなわち、受付部92は、撮影画像220の表示範囲を変更することなく、マーク216Mが示す表示範囲の少なくとも一方を変更する操作を受け付ける。
この状態で、ユーザが、保存ボタン204を操作すると、受付部92が、変更した扇形の中心角を保存する指示操作として受け付ける。
一方、ユーザが、入出力画面200に表示された撮影画像220の表示方向を変更する操作を行うと、受付部92が方向変更操作を受け付ける。
すなわち、受付部92は、マーク216Mが示す撮影方向を変更することなく、撮影画像220の表示方向を変更する操作を受け付ける。
この状態で、ユーザが、保存ボタン204を操作すると、受付部92が、変更した撮影画像220の表示方向を保存する指示操作として受け付ける。
ユーザが、入出力画面200に表示された撮影画像220の表示範囲を変更する操作を行うと、受付部92が範囲変更操作を受け付ける。
すなわち、受付部92は、マーク216Mが示す表示範囲を変更することなく、撮影画像220の表示範囲を変更する操作を受け付ける。
この状態で、ユーザが、保存ボタン204を操作すると、受付部92が、変更した撮影画像220の表示範囲を保存する指示操作として受け付ける。
ユーザが、キャンセルボタン205を操作すると、受付部92が操作を受け付けて、表示制御部93は、図22~図25の何れかの入出力画面200を表示させる。
図27は、本実施形態に係る撮影位置変更等の一例を示すフローチャートである。
図22~図25で説明したように、ユーザが、入出力画面200に表示された撮影開始位置画像213A、撮影終了位置画像213Bおよび静止画撮影位置画像214A~画像214Eの何れかを選択する操作を行うと、受付部92が操作を受け付けて(ステップS41)、表示制御部93が、選択操作された位置画像が示す撮影位置で撮影された撮影画像220を入出力画面200に表示させる(ステップS42)。ステップS41で選択操作が行われない場合は、後述するステップS46に進む。
静止画撮影位置画像214が選択操作された場合は(ステップS43)、図23で説明したように、ユーザが、入出力画面200に表示されたマップ211において、撮影開始位置画像213Aおよび撮影終了位置画像213Bに対する静止画撮影位置画像214の相対位置を変更する操作を行うと、受付部92が操作を受け付ける。
また、図24で説明したように、ユーザが、入出力画面200に表示されたマップ211において、撮影開始位置画像213Aおよび撮影終了位置画像213Bに対する静止画撮影位置画像214の相対位置を変更して固定撮影位置画像212に重ねる操作を行うと、受付部92が静止画撮影位置画像214を固定撮影位置画像212に対応付ける操作を受け付ける(ステップS44)。
次に、図26で説明したように、ユーザが、入出力画面200に表示されたマップ211において、マーク216Mの扇形の方向を変更する操作を行うと、受付部92が操作を受け付ける。
また、ユーザが、入出力画面200に表示されたマップ211において、マーク216Mの扇形の中心角を変更する操作を行うと、受付部92が操作を受け付ける。
一方、ユーザが、入出力画面200に表示された撮影画像220の表示方向を変更する操作を行うと、受付部92が操作を受け付ける。
また、ユーザが、入出力画面200に表示された撮影画像220の表示範囲を変更する操作を行うと、受付部92が操作を受け付ける(ステップS45)。
そして、図23および図25で説明したように、ユーザが、確定ボタン203を操作すると、受付部92が操作を受け付けて(ステップS46)、図17のステップS23で説明したように、送受信部91は、ステップS44およびS45で操作、変更した内容をサーバ50へ送信する(ステップS47)。ステップS46で確定ボタン203が操作されない場合は、ステップS41に戻って処理を継続する。
図28は、本実施形態の第1の変形例に係るツアー画像の説明図である。
図28(a)に示すツアー画像251は、図21に示したツアー画像250におけるパス画像215A~画像215Fに代えて、動画撮影位置画像217a~画像217fを含む。
動画撮影位置画像217a~画像217fは、ステップS18で受信した動画をキャプチャした静止画の撮影位置を示し、第2の位置画像の一例である。
サーバ50の位置推定部56は、図17のステップS18で受信した静止画・動画、撮影開始位置および撮影終了位置に基づいて、撮影開始位置および撮影終了位置に対する動画をキャプチャした静止画の撮影位置の相対位置を推定する。
画像処理部60は、撮影開始位置画像213A、撮影終了位置画像213B、静止画撮影位置画像214A~画像214Eおよび動画撮影位置画像217a~画像217fを含むツアー画像251を生成する。
すなわち、画像処理部60は、撮影開始位置画像213Aおよび撮影終了位置画像213Bに対する位置が仮決めされた静止画撮影位置画像214A~画像214Eおよび動画撮影位置画像217a~画像217fを生成する。
動画のキャプチャ間隔を適切に設定することにより、動画撮影位置画像217a~画像217fは、パス画像215A~画像215Fと同様に、撮影開始位置画像213A、撮影終了位置画像213Bおよび静止画撮影位置画像214A~画像214Eの接続関係を示す。
図28(b)に示すツアー画像252は、図28(a)に示したツアー画像251における撮影開始位置画像213A、撮影終了位置画像213Bおよび複数の動画撮影位置画像217を含むが、静止画撮影位置画像214A~画像214Eを含まない。
図28(a)および図28(b)に示した第1の変形例では、図27に示すフローチャートにおいて、静止画撮影位置画像214に対する処理と同様に、第2の位置画像の一例である動画撮影位置画像217に対する処理を実行する。
図29は、本実施形態の第2の変形例に係る画像処理システムの機能構成の一例を示す図である。
図29は、図15に示した機能構成において、サーバ50が備える生成部54に代えて、通信端末90が生成部95を備える第2の変形例の機能構成を示す。
生成部95は、サーバ50の記憶・読出部59が読み出して、通信端末90の送受信部91がサーバ50から受信した各種情報に基づき、図17のステップS3と同様に、入出力画面を生成する。
表示制御部93は、生成部95が生成した入出力画面を、図17のステップS5と同様にディスプレイ906に表示させる。
通信端末90の送受信部91は、図17のステップS11で生成したツアー画像、およびサーバ50の記憶・読出部59が読み出した各種情報を、サーバ50から受信し、生成部95は、送受信部91が受信したツアー画像、および各種情報に基づき、図17のステップS20と同様に、入出力画面を生成する。
表示制御部93は、生成部95が生成した入出力画面を、図17のステップS22と同様に、ディスプレイ906に表示させる。
図30は、本実施形態の第3の変形例に係る処理の一例を示すシーケンス図である。
図30は、図17に示したシーケンス図において、撮影装置10が通信端末90に一体化された第3の変形例のシーケンス図を示す。
図29に示すステップS51~S55およびS60~S67は、図17に示したステップS1~S5およびS17~S24と同様である。
ステップS56において、ユーザがツアー撮影開始を指示する操作を行うことにより、受付部92は、ツアー撮影の開始要求を受け付けて、通信端末90に一体化された撮影制御部は、ツアー撮影の開始要求に基づき、ツアー撮影を開始する。
ステップS57において、通信端末90の受付部92は、ユーザが入出力画面に対して撮影開始位置を設定する操作を行うことにより、撮影開始位置の設定を受け付ける。
ステップS58において、通信端末90に一体化された操作受付部は、撮影開始位置の設定を受け付けた後に、ユーザが撮影を指示する操作を行うことにより、撮影指示を受け付ける。通信端末90に一体化された撮影制御部は、撮影指示に基づき、通信端末90に一体化された静止画撮影部および動画撮影部により、静止画・動画を連続撮影する。
ステップS59において、ユーザがツアー撮影終了を指示する操作を行うことにより、受付部92は、ツアー撮影の終了要求を受け付ける。撮影制御部は、ツアー撮影の終了要求に基づき、ツアー撮影を終了する。
●まとめ●
[第1態様]
以上説明したように、本発明の一実施形態に係る情報処理装置の一例であるサーバ50は、マップ211と、マップ211に対して位置決めされた第1の撮影位置を示す第1の位置画像213と、マップ211に対して位置決めされておらず第1の撮影位置に対する位置が仮決めされた静止画撮影位置を示す静止画撮影位置画像214と、を重畳して表示するとともに、第1の撮影位置画像213に対する静止画撮影位置画像214の相対位置を変更する位置変更操作を受け付ける入出力画面200を生成する生成部54を備える。
ここで、静止画撮影位置、静止画撮影位置画像214は、第2の撮影位置、第2の位置画像の一例であり、生成部54は、入出力画面生成手段の一例である。
これにより、マップ211に対する静止画撮影位置画像214の位置をユーザ所望の位置に変更することができる。
具体的には、第1の撮影位置に対する静止画撮影位置の相対位置がずれていることに起因して、マップ211に対する静止画撮影位置画像214の位置がずれている場合でも、第1の位置画像213に対する相対位置を変更することにより、マップ211に対する静止画撮影位置画像214の位置合わせを正確に行うことができる。
また、静止画撮影位置画像214は、第1の撮影位置を介してマップ211に対してある程度位置合わせされた状態で表示されるため、マップ211に対してゼロから位置合わせする場合に比べて、マップ211に対する位置合わせを容易に行うことができる。
さらに、ユーザの熟練度によらず、サービス提供が可能となる。熟練度が低い利用者は推定されて自動配置された静止画撮影位置画像214で画像管理することができ、熟練度が高い利用者は静止画撮影位置画像214の位置合わせを行った上で画像管理することができる。このように、熟練度によらず最適なサービス提供が可能となる。
その他の点として、例えば建築現場で利用する場合、現場は常に明るいわけではなく、建物の内部空間で電気が通っていない場所は薄暗い現場状況になることが想定される。撮影位置の推定は、動画撮影した複数の画像から、画像上の特徴点の位置などを算出するものであるため、暗い画像だと正しく特徴点の位置などを算出できず、結果として推定撮影位置が誤って出力される場合が想定される。このとき、マップ211に対する静止画撮影位置画像214の位置合わせを行える本態様は有用となる。
[第2態様]指示操作
第1態様において、入出力画面200は、位置変更操作により相対位置が変更された第2の位置画像が示す第2の撮影位置を、マップ211に対して位置決めする指示操作を受け付ける編集完了ボタン202を表示する。
これにより、マップ211に対する第2の撮影位置の位置決めを容易に行うことができる。
[第3態様]撮影開始・終了位置
第1態様または第2態様において、第1の撮影位置は、撮影開始位置および撮影終了位置の少なくとも一方を含み、第1の位置画像213は、撮影開始位置を示す撮影開始位置画像213Aおよび撮影終了位置を示す撮影終了位置画像213Bの少なくとも一方を含む。
これにより、第2の位置画像は、撮影開始位置および撮影終了位置の少なくとも一方を介してマップ211に対してある程度位置合わせされた状態で表示されるため、マップ211に対してゼロから位置合わせする場合に比べて、マップ211に対する位置合わせを容易に行うことができる。
[第4態様]複数の第2の撮影位置
第1態様~第3態様の何れかにおいて第2の撮影位置は、複数の第2の撮影位置を含み、第2の位置画像は、複数の第2の位置画像を含む。
この場合、マップ211に対する複数の第2の位置画像の位置合わせを容易に行うことができる。
[第5態様]パス
第4態様において、入出力画面200は、複数の第2の撮影位置に含まれる2つの撮影位置間のパスを示すパス画像215を表示する。
これにより、パス画像215を参照しながら、第2の位置画像の位置合わせを容易に行うことができる。
[第6態様]パス
第1態様~第5態様の何れかにおいて、入出力画面200は、第1の撮影位置と第2の撮影位置間のパスを示すパス画像215を表示する。
これにより、パス画像215を参照しながら、第2の位置画像の位置合わせを容易に行うことができる。
[第7態様]静止画・動画
第5態様または第6態様において、第1の撮影位置および第2の撮影位置は、静止画の撮影位置を示し、パスは、動画の撮影位置を示す。
[第8態様]
第1態様~第7態様の何れかにおいて、第2の撮影位置は、動画の撮影位置を含み、第2の位置画像は、動画の撮影位置を示す動画撮影位置画像217を含む。
[第9態様]撮影画像表示
第1態様~第8態様の何れかにおいて、入出力画面200は、第1の撮影位置または第2の撮影位置で撮影された撮影画像220をマップ211とともに表示する。
これにより、表示される撮影画像220を参照しながら、第2の位置画像の位置合わせを容易に行うことができる。
[第10態様]マーク表示
第9態様において、入出力画面200は、撮影画像220の撮影方向および表示範囲の少なくとも一方を示すマーク216Mをマップ211に表示する。
これにより、マーク216Mが示す撮影方向および表示範囲の少なくとも一方と、撮影画像220の表示方向および表示範囲の少なくとも一方を、対応付けて確認することができる。
[第11態様]マーク変更
第10態様において、入出力画面200は、撮影画像220の表示方向および表示範囲を変更することなく、マーク216Mが示す撮影方向および表示範囲の少なくとも一方を変更する操作を受け付ける。
これにより、マーク216Mが示す撮影方向および表示範囲の少なくとも一方が、撮影画像220の表示方向および表示範囲の少なくとも一方とずれている場合に、マーク216Mが示す撮影方向および表示範囲の少なくとも一方を操作して、撮影画像220の表示方向および表示範囲の少なくとも一方と合わせることができる。
[第12態様]撮影画像変更
第10態様または第11態様において、入出力画面200は、マーク216Mが示す撮影方向および表示範囲を変更することなく、撮影画像220の表示方向および表示範囲の少なくとも一方を変更する操作を受け付ける。
これにより、撮影画像220の表示方向および表示範囲の少なくとも一方が、マーク216Mが示す撮影方向および表示範囲の少なくとも一方とずれている場合に、撮影画像220の表示方向および表示範囲の少なくとも一方を操作して、マーク216Mが示す撮影方向および表示範囲の少なくとも一方と合わせることができる。
なお、第11態様および第12態様と異なる態様として、第10態様において、入出力画面200は、マーク216Mが示す撮影方向および表示範囲の少なくとも一方を変更する操作を受け付け、かつ、撮影画像220の表示方向および表示範囲の少なくとも一方を変更する操作を受け付けてもよい。
[第13態様]固定撮影位置
第1態様~第12態様の何れかにおいて、入出力画面200は、マップ211に対して位置決めされ、第1の撮影位置および第2の撮影位置に対して位置決めされていない固定撮影位置を示す固定撮影位置画像212を第1の位置画像213および第2の位置画像と重畳して表示する。
これにより、固定撮影位置画像212を参照しながら、第2の位置画像214の位置合わせを容易に行うことができる。
[第14態様]対応付け
第13態様において、入出力画面200は、位置変更操作として第2の位置画像を固定撮影位置画像212に重ねるまたは近接させることにより、第2の撮影位置を固定撮影位置に対応付ける操作を受け付ける。
これにより、固定撮影位置と第2の撮影位置を、同じまたは近接位置として対応付けることができるため、過去に固定撮影位置で撮影した撮影画像と、今回第2の撮影位置で撮影した撮影画像を容易に比較することができる。
[第15態様]位置推定
第1態様~第14態様の何れかにおいて、第1の撮影位置で撮影された第1の撮影画像および第2の撮影位置で撮影された第2の撮影画像に基づき、第1の撮影位置に対する第2の撮影位置の相対位置を推定する位置推定部56を備え、入出力画面200は、位置推定部56が推定した相対位置に基づき、第1の位置画像213に対して第2の位置画像を仮決めされた位置で表示する。
これにより、第1の位置画像213に対して第2の位置画像を仮決めされた位置で表示することができる。
[第16態様]
本発明の一実施形態に係る入出力装置の一例である通信端末90は、マップ211と、マップ211に対して位置決めされた第1の撮影位置を示す第1の位置画像213と、マップ211に対して位置決めされておらず第1の撮影位置に対する位置が仮決めされた第2の撮影位置を示す第2の位置画像と、を重畳して表示部の一例であるディスプレイ906に表示する表示制御部93と、第1の位置画像213に対する第2の位置画像の相対位置を変更する位置変更操作を受け付ける受付部92を備える。
これにより、通信端末90を用いて、マップ211に対する第2の位置画像の位置をユーザ所望の位置に変更することができる。
[第17態様]
本発明の一実施形態に係る情報処理システムの一例である画像処理システム1は、サーバ50と、サーバ50と通信可能な通信端末90と、を備え、サーバ50は、マップ211と、マップ211に対して位置決めされた第1の撮影位置を示す第1の位置画像213と、マップ211に対して位置決めされておらず第1の撮影位置に対する位置が仮決めされた第2の撮影位置を示す第2の位置画像と、を重畳して表示する入出力画面200を生成する生成部54と、入出力画面200を示す入出力画面200情報を通信端末90へ送信する送受信部51と、を備え、通信端末90は、入出力画面200情報を受信する送受信部91と、入出力画面200情報に基づき、入出力画面200をディスプレイ906に表示する表示制御部93と、第1の位置画像213に対す第2の位置画像の相対位置を変更する位置変更操作を受け付ける受付部92と、を備える。
[第18態様]
本発明の一実施形態に係る情報処理方法は、マップ211と、マップ211に対して位置決めされた第1の撮影位置を示す第1の位置画像213と、マップ211に対して位置決めされておらず第1の撮影位置に対する位置が仮決めされた第2の撮影位置を示す第2の位置画像と、を重畳して表示するとともに、第1の位置画像213に対する第2の位置画像の相対位置を変更する位置変更操作を受け付ける入出力画面200を生成する入出力画面生成ステップを実行する。
[第19態様]
本発明の一実施形態に係る入出力方法は、マップ211と、マップ211に対して位置決めされた第1の撮影位置を示す第1の位置画像213と、マップ211に対して位置決めされておらず第1の撮影位置に対する位置が仮決めされた第2の撮影位置を示す第2の位置画像と、を重畳して表示する表示ステップと、第1の位置画像213に対する第2の位置画像の相対位置を変更する位置変更操作を受け付ける受付ステップと、を実行する。
[第20態様]
本発明の一実施形態に係るプログラムは、第18態様に係る情報処理方法、または第19態様に係る入出力方法をコンピュータに実行させる。
●補足●
上記で説明した実施形態の各機能は、一または複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウエアによって各機能を実行するようプログラミングされたプロセッサ、並びに上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU(Graphics Processing Unit)および従来の回路モジュール等のデバイスを含むものとする。
これまで本発明の一実施形態に係る画像処理方法、プログラム、サーバおよび画像処理システムについて説明してきたが、本発明は、上述した実施形態に限定されるものではなく、他の実施形態の追加、変更または削除等、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
1 画像処理システム(情報処理システムの一例)
10 撮影装置
11 送受信部
12 操作受付部
13 撮影制御部(撮影制御手段の一例)
14 動画撮影部
15 静止画撮影部
16 移動検知部
20 支持部材
50 サーバ(情報処理装置の一例)
51 送受信部(送信手段の一例)
54 生成部
56 位置推定部(位置推定手段の一例)
57 検知部
58 パス生成部(パス生成手段の一例)
60 画像処理部(画像処理手段の一例)
90 通信端末(入出力装置の一例)
91 送受信部(受信手段の一例)
92 受付部
93 表示制御部(表示制御手段の一例)
906 ディスプレイ(表示部の一例)
5001 マップ管理DB
5002 画像管理DB
200 入出力画面
201 決定ボタン
202 編集完了ボタン
203 確定ボタン
204 保存ボタン
205 キャンセルボタン
210 撮影位置表示画面
211 マップ
212 固定撮影位置画像
213A 撮影開始位置画像(第1の位置画像の一例)
213B 撮影終了位置画像(第1の位置画像の一例)
214 静止画撮影位置画像(第2の位置画像の一例)
215 パス画像
216 撮影位置画像
216M マーク
217 動画撮影位置画像(第2の位置画像の一例)
220 撮影画像
250、251、252 ツアー画像

Claims (20)

  1. マップと、前記マップに対して位置決めされた第1の撮影位置を示す第1の位置画像と、前記マップに対して位置決めされておらず前記第1の撮影位置に対する位置が仮決めされた第2の撮影位置を示す第2の位置画像と、を重畳して表示するとともに、前記第1の位置画像に対する前記第2の位置画像の相対位置を変更する位置変更操作を受け付ける入出力画面を生成する生成部を備えた情報処理装置。
  2. 前記入出力画面は、前記位置変更操作により前記相対位置が変更された前記第2の位置画像が示す前記第2の撮影位置を、前記マップに対して位置決めする指示操作を受け付ける請求項1記載の情報処理装置。
  3. 前記第1の撮影位置は、撮影開始位置および撮影終了位置の少なくとも一方を含む請求項1記載の情報処理装置。
  4. 前記第2の撮影位置は、複数の第2の撮影位置を含む請求項1記載の情報処理装置。
  5. 前記入出力画面は、前記複数の第2の撮影位置に含まれる2つの撮影位置間のパスを示すパス画像を表示する請求項4記載の情報処理装置。
  6. 前記入出力画面は、前記第1の撮影位置と前記第2の撮影位置間のパスを示すパス画像を表示する請求項1記載の情報処理装置。
  7. 前記第1の撮影位置および前記第2の撮影位置は、静止画の撮影位置を示し、前記パスは、動画の撮影位置を示す請求項5または6記載の情報処理装置。
  8. 前記第2の撮影位置は、動画の撮影位置を含む請求項1記載の情報処理装置。
  9. 前記入出力画面は、前記第1の撮影位置または前記第2の撮影位置で撮影された撮影画像を前記マップと共に表示する請求項1記載の情報処理装置。
  10. 前記入出力画面は、前記撮影画像の撮影方向および表示範囲の少なくとも一方を示すマークを前記マップに表示する請求項9記載の情報処理装置。
  11. 前記入出力画面は、前記撮影画像の表示方向および表示範囲を変更することなく、前記マークが示す前記撮影方向および前記表示範囲の少なくとも一方を変更する操作を受け付ける請求項10記載の情報処理装置。
  12. 前記入出力画面は、前記マークが示す前記撮影方向および前記表示範囲を変更することなく、前記撮影画像の表示方向および表示範囲の少なくとも一方を変更する操作を受け付ける請求項10または11記載の情報処理装置。
  13. 前記入出力画面は、前記マップに対して位置決めされ、前記第1の撮影位置および前記第2の撮影位置に対して位置決めされていない固定撮影位置を示す固定位置画像を前記第1の位置画像および前記第2の位置画像と重畳して表示する請求項1記載の情報処理装置。
  14. 前記入出力画面は、前記位置変更操作として前記第2の位置画像を前記固定位置画像に重ねるまたは近接させることにより、前記第2の撮影位置を前記固定撮影位置に対応付ける操作を受け付ける請求項13記載の情報処理装置。
  15. 前記第1の撮影位置で撮影された第1の撮影画像および前記第2の撮影位置で撮影された第2の撮影画像に基づき、前記第1の撮影位置に対する前記第2の撮影位置の相対位置を推定する位置推定手段を備え、
    前記入出力画面は、前記位置推定手段が推定した前記相対位置に基づき、前記第1の位置画像に対して前記第2の位置画像を表示する請求項1記載の情報処理装置。
  16. マップと、前記マップに対して位置決めされた第1の撮影位置を示す第1の位置画像と、前記マップに対して位置決めされておらず前記第1の撮影位置に対する位置が仮決めされた第2の撮影位置を示す第2の位置画像と、を重畳して表示部に表示する表示制御手段と、
    前記第1の位置画像に対する前記第2の位置画像の相対位置を変更する位置変更操作を受け付ける受付手段を備えた入出力装置。
  17. 情報処理装置と、前記情報処理装置と通信可能な入出力装置と、を備えた情報処理システムであって、
    前記情報処理装置は、
    マップと、前記マップに対して位置決めされた第1の撮影位置を示す第1の位置画像と、前記マップに対して位置決めされておらず前記第1の撮影位置に対する位置が仮決めされた第2の撮影位置を示す第2の位置画像と、を重畳して表示する入出力画面を生成する生成部54と、
    前記入出力画面を示す入出力画面情報を前記入出力装置へ送信する送信手段と、を備え、
    前記入出力装置は、
    前記入出力画面情報を受信する受信手段と、
    前記入出力画面情報に基づき、前記入出力画面を表示部に表示する表示制御手段と、
    前記第1の位置画像に対する前記第2の位置画像の相対位置を変更する位置変更操作を受け付ける受付手段と、
    を備えた情報処理システム。
  18. マップと、前記マップに対して位置決めされた第1の撮影位置を示す第1の位置画像と、前記マップに対して位置決めされておらず前記第1の撮影位置に対する位置が仮決めされた第2の撮影位置を示す第2の位置画像と、を重畳して表示するとともに、前記第1の位置画像に対する前記第2の位置画像の相対位置を変更する位置変更操作を受け付ける入出力画面を生成する入出力画面生成ステップを実行する情報処理方法。
  19. マップと、前記マップに対して位置決めされた第1の撮影位置を示す第1の位置画像と、前記マップに対して位置決めされておらず前記第1の撮影位置に対する位置が仮決めされた第2の撮影位置を示す第2の位置画像と、を重畳して表示する表示ステップと、
    前記第1の位置画像に対する前記第2の位置画像の相対位置を変更する位置変更操作を受け付ける受付ステップと、を実行する入出力方法。
  20. 請求項18記載の情報処理方法、または請求項19記載の入出力方法をコンピュータに実行させるプログラム。
JP2022119725A 2022-07-27 2022-07-27 情報処理装置、入出力装置、情報処理システム、情報処理方法、入出力方法、およびプログラム Pending JP2024017224A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022119725A JP2024017224A (ja) 2022-07-27 2022-07-27 情報処理装置、入出力装置、情報処理システム、情報処理方法、入出力方法、およびプログラム
EP23184016.6A EP4312432A1 (en) 2022-07-27 2023-07-06 Information processing apparatus, information processing method, and carrier means
US18/224,073 US20240036791A1 (en) 2022-07-27 2023-07-20 Information processing apparatus, information processing method, and non-transitory recording medium
CN202310920058.7A CN117479022A (zh) 2022-07-27 2023-07-25 信息处理装置、系统及方法、输入输出装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022119725A JP2024017224A (ja) 2022-07-27 2022-07-27 情報処理装置、入出力装置、情報処理システム、情報処理方法、入出力方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2024017224A true JP2024017224A (ja) 2024-02-08

Family

ID=87158370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022119725A Pending JP2024017224A (ja) 2022-07-27 2022-07-27 情報処理装置、入出力装置、情報処理システム、情報処理方法、入出力方法、およびプログラム

Country Status (4)

Country Link
US (1) US20240036791A1 (ja)
EP (1) EP4312432A1 (ja)
JP (1) JP2024017224A (ja)
CN (1) CN117479022A (ja)

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100122208A1 (en) * 2007-08-07 2010-05-13 Adam Herr Panoramic Mapping Display
JP6116746B1 (ja) * 2016-11-17 2017-04-19 株式会社ネクスト 情報処理装置、情報処理方法、及びプログラム
US10375306B2 (en) 2017-07-13 2019-08-06 Zillow Group, Inc. Capture and use of building interior data from mobile devices
US10530997B2 (en) 2017-07-13 2020-01-07 Zillow Group, Inc. Connecting and using building interior data acquired from mobile devices
JP7073850B2 (ja) * 2018-03-29 2022-05-24 株式会社リコー 入力装置および入力装置の入力方法
US10643386B2 (en) * 2018-04-11 2020-05-05 Zillow Group, Inc. Presenting image transition sequences between viewing locations
US10832437B2 (en) * 2018-09-05 2020-11-10 Rakuten, Inc. Method and apparatus for assigning image location and direction to a floorplan diagram based on artificial intelligence
CA3058602C (en) * 2018-10-11 2023-01-24 Zillow Group, Inc. Automated mapping information generation from inter-connected images
US10708507B1 (en) * 2018-10-11 2020-07-07 Zillow Group, Inc. Automated control of image acquisition via use of acquisition device sensors
US10809066B2 (en) * 2018-10-11 2020-10-20 Zillow Group, Inc. Automated mapping information generation from inter-connected images
US10582115B1 (en) * 2018-11-14 2020-03-03 International Business Machines Corporation Panoramic photograph with dynamic variable zoom
JP2020087287A (ja) 2018-11-30 2020-06-04 株式会社リコー 情報処理システム、情報処理装置、及びプログラム
US20220164493A1 (en) * 2019-08-28 2022-05-26 Zillow, Inc. Automated Tools For Generating Mapping Information For Buildings
US11243656B2 (en) * 2019-08-28 2022-02-08 Zillow, Inc. Automated tools for generating mapping information for buildings
US11164368B2 (en) * 2019-10-07 2021-11-02 Zillow, Inc. Providing simulated lighting information for three-dimensional building models
US20210117582A1 (en) * 2019-10-16 2021-04-22 Select Interior Concepts, Inc. Visualizing Building Interior Information In A User-Customized Manner
US11164361B2 (en) * 2019-10-28 2021-11-02 Zillow, Inc. Generating floor maps for buildings from automated analysis of visual data of the buildings' interiors
US11676344B2 (en) * 2019-11-12 2023-06-13 MFTB Holdco, Inc. Presenting building information using building models
US10825247B1 (en) * 2019-11-12 2020-11-03 Zillow Group, Inc. Presenting integrated building information using three-dimensional building models
US20210199809A1 (en) * 2019-12-30 2021-07-01 Matterport, Inc. System and method of capturing and generating panoramic three-dimensional images
US11405549B2 (en) * 2020-06-05 2022-08-02 Zillow, Inc. Automated generation on mobile devices of panorama images for building locations and subsequent use
US20220301129A1 (en) * 2020-09-02 2022-09-22 Google Llc Condition-aware generation of panoramic imagery
US11514674B2 (en) * 2020-09-04 2022-11-29 Zillow, Inc. Automated analysis of image contents to determine the acquisition location of the image
US20220092227A1 (en) * 2020-09-22 2022-03-24 Zillow, Inc. Automated Identification And Use Of Building Floor Plan Information
US11592969B2 (en) * 2020-10-13 2023-02-28 MFTB Holdco, Inc. Automated tools for generating building mapping information
US11481925B1 (en) * 2020-11-23 2022-10-25 Zillow, Inc. Automated determination of image acquisition locations in building interiors using determined room shapes
US11252329B1 (en) * 2021-01-08 2022-02-15 Zillow, Inc. Automated determination of image acquisition locations in building interiors using multiple data capture devices
US11836973B2 (en) * 2021-02-25 2023-12-05 MFTB Holdco, Inc. Automated direction of capturing in-room information for use in usability assessment of buildings
US11790648B2 (en) * 2021-02-25 2023-10-17 MFTB Holdco, Inc. Automated usability assessment of buildings using visual data of captured in-room images
US11842464B2 (en) * 2021-09-22 2023-12-12 MFTB Holdco, Inc. Automated exchange and use of attribute information between building images of multiple types

Also Published As

Publication number Publication date
EP4312432A1 (en) 2024-01-31
CN117479022A (zh) 2024-01-30
US20240036791A1 (en) 2024-02-01

Similar Documents

Publication Publication Date Title
JP7400195B2 (ja) 画像通信システム、撮像装置、通信端末、モード切替方法、プログラム
JP5464955B2 (ja) パノラマ画像表示装置
JP7192592B2 (ja) 撮像装置、画像通信システム、画像処理方法、プログラム
JP5406813B2 (ja) パノラマ画像表示装置およびパノラマ画像表示方法
CN108259717A (zh) 联动装置、摄影系统、摄影方法
JP2018129716A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2019180027A (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP6816465B2 (ja) 画像表示システム、通信システム、画像表示方法、及びプログラム
JP2017212510A (ja) 画像管理装置、プログラム、画像管理システム及び情報端末
JP2022057800A (ja) 画像通信システム、通信管理装置、通信管理方法及びプログラム
KR101704362B1 (ko) 룩업테이블 기반의 실시간 파노라마 영상 제작 시스템 및 이를 이용한 실시간 파노라마 영상 제작 방법
KR101725024B1 (ko) 룩업테이블 기반의 실시간 360도 vr 동영상 제작 시스템 및 이를 이용한 360도 vr 동영상 제작 방법
JP2018110384A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
JP5701967B2 (ja) 画像表示装置および画像表示方法
JP7439398B2 (ja) 情報処理装置、プログラム及び情報処理システム
JP2024017224A (ja) 情報処理装置、入出力装置、情報処理システム、情報処理方法、入出力方法、およびプログラム
JP6586819B2 (ja) 画像管理システム、画像通信システム、画像管理方法、及びプログラム
JP2018061243A (ja) 通信端末、表示方法、及びプログラム
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
JP2021097326A (ja) 通信端末、撮影システム、画像処理方法及びプログラム
JP6122991B2 (ja) 画像表示装置および画像表示方法
JP2019024206A (ja) 画像表示システム、画像表示装置、画像表示方法、およびプログラム
JP2018110385A (ja) 通信端末、撮影システム、画像処理方法、及びプログラム
JP5646033B2 (ja) 画像表示装置および画像表示方法
JP2024037496A (ja) 画像処理装置、プログラム及び画像処理方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231023